Tehisintellekti eetika ja autonoomsete süsteemide õppetunnid, mis saadi hiljutisest Alaska Airlinesi lennust, kus piloot ja kaaspiloot enne õhkutõusmist eriarvamusel olid ning otsustasid järsult taksoga tagasi terminali sõita ja oma teed minna

Lennufirmad on viimasel ajal üsna palju uudistes olnud.

Oleme suvises lennuhädas. Väsinud ja pettunud reisijad seisavad silmitsi igasuguste lennuhäirete ja lennufirmade sõiduplaanide moonutustega. Lennud tühistatakse ootamatult. Lennud hilinevad. Reisijad suitsu. Kahjuks on olnud palju juhtumeid, kus reisijad on lasknud neil ärritustel puhkeda, ja oleme näinud liiga palju viiruslikke videoid vastasseisudest ja mõnikord rusikatest löökidest.

Harvemini saame teada piloodi ja kaaspiloodi vahelistest vaidlustest, mis võivad tekkida kokpitis viibides.

See on päris üllatus.

Tõepoolest, oleme loomulikult hämmastunud, kui mõelda, et piloodil ja kaaspiloodil võib lennu mis tahes etapis tekkida tõsine lahkarvamus. Kui erimeelsused on seotud sellega, milline kohvimark on parim, siis eeldame, et see ei segaks lennukiga lendamisega seotud tööpingutusi. Need kaks kehitaksid lihtsalt õlgu, et nad ei tunne silmast silma pealtnäha ebaolulisel teemal. Nende professionaalne käitumine ja pikaajaline pilootide väljaõpe löövad sisse ja nad suunaksid oma tähelepanu tagasi lennuandmetele.

Mõelge siiski, kui a ametialane lahkarvamus sekkub.

Jagan teiega lühidalt laialdaselt avaldatud uudist hiljutise juhtumi kohta, mis juhtus USA-s lennu ajal ja mis puudutab väidetavat ametialast lahkarvamust kokpitis.

Seda tsiteeritakse siin peamiselt selleks, et saaksime uurida seotud teemat, mis on tehisintellekti (AI) tuleku jaoks väga oluline. Näete, võib öelda, et inimestevahelises lahkhelis võib esineda mitte ainult inimeste vahelisi ametialaseid erimeelsusi, vaid ka tehisintellekti kasutuselevõtu ajal ja sellest tulenevalt inimese ja tehisintellekti tööalaseid erimeelsusi. . Tekivad igasugused tehisintellekti eetikaga seotud kaalutlused. Minu ulatuslikku ja jätkuvat AI eetikat ja eetilisi tehisintellekti probleeme käsitlevat ülevaadet vt link siin ja link siin, lihtsalt nime vähe.

Valmistuge põnevaks looks.

Nagu hiljuti uudistes teatati, tekkis "ametialase lahkarvamuse" juhtum ilmselt Alaska Airline'i lennu ajal, mis suundus Washingtonist San Franciscosse. Uudiste kohaselt oli lend väravast eemaldunud ning ootas asfaldil luba ruleerimiseks ja lendu tõusmiseks. Käimas oli torm, mille tõttu lend hilines rohkem kui poolteist tundi. Selgub, et lennuk pöördus lõpuks ümber ja suundus tagasi värava juurde, mida mõned reisijad võisid tavaliselt arvata, et see oli lihtsalt tormiga seotud ettevaatusabinõu.

Erinevate säutsude põhjal näib, et piloodil ja kaaspiloodil oli kokpitis viibimise ajal mingi vaateväljast väljas vaen ja nad jõudsid kuidagi järeldusele, et kõige mõistlikum oleks lendu nühkida ja terminali naasta. . Säutsud vihjasid, et kapten ja esimene ohvitser ilmselt ei saanud omavahel läbi. Lennufirma tegi hiljem avalduse, et olukord oli kahetsusväärne (olukorda ei selgitatud selgesõnaliselt ega selgitatud iseenesest), juhtkond hindas kahte pardaohvitseri ja tunnistas, et nad on lennukõlblikud, meeskonnad vahetati ja lend lõppes. ja jõudis hiljem San Franciscosse.

Mõnes mõttes, kui piloodil ja kaaspiloodil tekkisid ametialased lahkarvamused, näiteks kas lennuk oli lennuks sobivalt valmis või kas tormiga lendamise oht on sobivas ohutusulatuses, tuleks neid reisijaid leevendada. tänulik, et lennuk väravasse tagasi saadeti. Parem karta kui kahetseda. Täiendav hilinemine on seda väärt, et eeldatavalt vähendada riske, mis on seotud raske või ebasoodsa lennureisiga.

Mõned inimesed võivad olla üllatunud, et selline ametialane lahkarvamus võib tekkida.

Meil võib-olla jääb ekslik mulje, et kõik, mis kokpitis toimub, on täiesti täpne ja hästi kirjutatud. Näib, et igasugune inimlik diskreetsus on protsessist välja tõmmatud. Täpsete ja põhjalikult arvutatud graafikute põhjal võib lendu jätkata või mitte. Ei saa olla lahkarvamusi, kui arvatakse, et kogu komplekt ja kabood põhinevad ümberlükkamatul faktide ja arvude arvutamisel.

See pole asja täielik tõde. Muidugi on olemas hulk protokolle ja igasuguseid kontrolle ja tasakaalustusi, kuid see ei pigista välja kogu inimlikku otsustusvõimet. Piloodid ja kaaspiloodid kasutavad endiselt inimlikku otsustusvõimet. Õnneks lihvib see inimlik otsustusvõime aastatepikkuse lennuga. On tõenäoline, et kommertsreisilennuki piloodil ja kaaspiloodil on eelnev lennukogemus ja nad kasutavad hõlpsalt oma paljude aastate põhjalikku arutluskäiku ja otsustusvõimet, mis on seotud lennujuhtimise juhtimisega.

Arvestades inimeste otsustusvõime märkimisväärset rolli, võime loogiliselt eeldada, et piloodil ja kaaspiloodil on mõnikord ametialaseid lahkarvamusi. Enamasti on selliseid erimeelsusi väga vähe. Igapäevaste lendude piloot ja kaaspiloot on tõenäoliselt hästi kooskõlas, kuna valdav aeg. Alles siis, kui lennustsenaarium võib väljuda tavapärastest piiridest, võib oodata pingelisema hõõrdumise tekkimist.

Kui nende kahe vahel on suur arvamuste lahknevus, julgeksin öelda, et tahame, et nad selle välja räsiksid.

Kujutage ette olukorda, kus piloot tahab tungivalt edasi liikuda, kuid kaaspiloot tajub, et riskid on liiga suured. Ainuüksi kaaspiloodi kaasamine piloodile näib olevat ebasoovitav. Kaaspiloot on kontroll-ja tasakaal sellele, mida piloot võiks teha. Neile, kes tahavad, et kaaspiloot vaikiks ja tegutseks ainult meeletult selle järgi, mida piloot otsustab, ei anna see palju kindlustunnet. Kaaspiloot ei ole lihtsalt varupiloot, kes siseneb pildile alles siis, kui piloot on täiesti töövõimetu. See on ekslik arusaam piloodi ja kaaspiloodi kokpitis omamise väärtusest.

Sellel on ka teine ​​nurk.

Mõelge juhtumile, kus piloot ei usu, et lend peaks jätkuma, ja vahepeal on kaaspiloot õhku tõusmast. Mis siis? Eeldatava hierarhia järgi peaks piloot tavapäraselt kaaspiloodi üle domineerima. Määratud roll olla esmane vastutaja muudab piloodi suuremaks sellest, mis muidu on mõnevõrra võrdne. Tavaliselt on piloodil rohkem üldist lennuaega kui kaaspiloodil ja seega peaks kaaspiloot hierarhiliselt järgima piloodi soove (kui see on mõistlikkuse piires).

Igal juhul arvan, et me kõik võime nõustuda sellega, et mittelendamine on kindlasti vähem riskantne valik kui lennata. Kui lennuk on õhku tõusnud, muutub riskitase tohutuks võrreldes tavalise stabiilse maa peal viibimisega. Tavaline kommertslend, mis lihtsalt taksob tagasi terminali, ilma et oleks õhku tõusnud, oleks üsna sõbralik lahendus igale tulisele teravale arutelule lendu mineku üle.

Vahetame käike ja kasutame seda tormakat uudist täiesti erineval, kuid võrreldaval eesmärgil.

Meie seas on järk-järgult levinud tehisintellektil põhinevad autonoomsed süsteemid. Mõnikord juhib AI etendust justkui. Tehisintellekt teeb kõike A-st Z-ni ja me võime seda tõlgendada tehisintellektina, mis on täielikult või peaaegu autonoomne. Muudel juhtudel võib meil olla tehisintellekt, mis suhtleb inimesega ja on teatud määral programmeeritud sõltuma inimese olemasolust.

Tahaksin keskenduda tehisintellektil põhineva autonoomse või poolautonoomse süsteemi küsimusele, mille ahelas on algusest peale inimene. Tehisintellekt ja inimene on tahtlikult kokku surutud ja peaksid töötama üksteisega paralleelselt. Nad on rühmad konkreetse ülesande täitmisel. Ainuüksi tehisintellekt ei peaks seda ülesannet täitma. AI peab suhtlema määratud inimesega ahelas.

Toon selle iseloomustuse välja, et eristada olukordi, kus silmuses inimest peetakse valikuliseks aspektiks. Sisuliselt antakse tehisintellektile vabad käed. Kui tehisintellekt otsustab kasutada inimest, siis tehku seda ka. Ei ole nõuet, et tehisintellekt peab puudutama määratud inimesega alust või töötama käsikäes. Analüüsid, mida ma peatselt käsitlen, on kindlasti asjakohased Valikuline suhtlemiskorraldus, kuid see pole see, mille poole ma selles konkreetses arutelus konkreetselt juhin.

Olgu, meil on mingi ülesanne, mille kallal inimene ja tehisintellekt hakkavad üksteisest lahutamatult koos töötama. Abstraktses mõttes on meil ühel istmel inimene ja teisel kaasneval istmel AI-süsteem. Ütlen seda jultunult, sest me ei piirdu selles arutelus näiteks robotiga, kes tegelikult võib istmel istuda. Ma vihjan metafooriliselt arusaamale, et tehisintellekt osaleb kuskil ülesandes ja nii ka inimene. Füüsiliselt pole nende asukoht arutelu jaoks eriti oluline.

Te ei pruugi olla kindel, millal selline olukord võib tekkida.

Lihtne.

Hiljem hakkan arutama autonoomsete sõidukite ja isejuhtivate autode tulekut. Teatud autonoomiatasemetel peaksid AI ja inimene koostööd tegema. Tehisintellekt võib juhtida autot ja paluda, et inimene võtaks juhtimise üle. Inimene võib juhtida autot ja aktiveerida AI, et juhtimine üle võtta. Nad käivad kordamööda juhtimisseadmete juures.

Lisaks on mõnel kujundusel AI sisuliselt kogu aeg aktiivne (või kui see pole välja lülitatud), nii et tehisintellekt on alati valmis. Lisaks võib tehisintellekt otseselt sekkuda, isegi ilma inimese küsimiseta, olenevalt olukorrast, mis areneb. Oletame näiteks, et inimene näib olevat roolis magama jäänud. Kuna inimene ei saa näiliselt AI-d aktiveerida (sest inimene magab), võib AI olla programmeeritud inimeselt juhtimist üle võtma.

Mõned kujundused toovad tehisintellekti ja inimeste kahekordse sõiduviisi. AI juhib ja inimene juhib. Või kui soovite, juhib inimene ja ka tehisintellekt. Igaüks neist juhib sõidukit. Ma võrdlen seda spetsiaalselt varustatud autodega, mida kasutasite autojuhi koolitusel ja sõidukis oli kaks juhtimisseadise komplekti, üks juhiõpilasele ja teine ​​​​sõiduõpetajale.

See on vaid üks näide olukorrast, kus tehisintellekt ja inimesed võivad ülesande kallal ühiselt töötada. Igasugused võimalused on olemas. Sarnaselt võib välja töötada ka muud tüüpi autonoomseid sõidukeid, nagu lennukid, droonid, sukelaparaadid, pealveelaevad, rongid ja nii edasi. Me ei pea arvestama ainult sõidukite ja transpordiseadetega. Kujutage ette meditsiinivaldkonda ja operatsioone, mida arst ja tehisintellekti süsteem teevad ühiselt. Nimekiri on lõputu.

Mul on peaaegu tunne, et viidaks klassikaliselt kärarikkale naljale inimese ja tehisintellekti kohta, kes koos baari astuvad. Tehisintellektiga tegelejatele on see päris naeruväärne.

Tõsiselt, pöördume tagasi inimese ja tehisintellektisüsteemi fookuse juurde, mis töötab koos antud ülesandega. Esiteks tahan vältida tehisintellekti antropomorfiseerimist, mida ma kogu ulatuses rõhutan. AI ei ole tundlik. Palun pidage seda meeles.

Siin on midagi, mille üle mõtiskleda: Kas määratud in-the-loop on alati täielikult nõus kaasmeeskonna tehisintellektiga?

Mis tahes keeruka ülesande puhul näib ebatõenäoline, et inimene ja tehisintellekt on täielikult ja alati täielikult lukustatud. Inimene võib mõnikord AI-ga mitte nõustuda. Me võime selle oletuse viia kuni pangani välja.

Soovin, et kaaluksite ka seda võib-olla üllatavat võimalust: Kas tehisintellekt on alati täielikult nõus määratud inimesega?

Jällegi, mis tahes keeruka ülesande puhul tundub üsna mõeldav, et tehisintellekt ei ole mõnel juhul inimestega nõus. Kui kaldute juba selle poole, et tehisintellekt peab alati eksima, samas kui inimestel peab alati õigus olema, oleks teil mõistlik see kiire järeldus uuesti läbi mõelda. Kujutage ette autot, mille poolautonoomset sõidukit juhivad koos inimene ja tehisintellekt. Inimene tüürib telliskiviseina poole. Miks? Me ei tea, võib-olla on inimene joobes või on magama jäänud, kuid me teame, et vastu telliskiviseina sõitmine pole hea mõte, kui kõik muu on võrdne. Tehisintellekt võib tuvastada eelseisva õnnetuse ja püüda eelseisvast barjäärist eemale juhtida.

Kokkuvõttes on meil selge võimalus, et tehisintellekt ja inimene ei nõustu üksteisega. Teine võimalus sama asja öelda on, et inimesed ja tehisintellekt ei ole üksteisega nõus. Pange tähele, et ma ei taha, et tehisintellekt ja inimene versus inimene ja tehisintellekt viitaks midagi lahkarvamuse suuna või usutavuse kohta.

Kaks töötajat, üks inimene ja teine, kes on AI, ei nõustu üksteisega.

Võiksime eelnevalt deklareerida, et kui konkreetse tehisintellekti ja inimese vahel tekib lahkarvamus, kuulutame eelnevalt, et inimene on tehisintellekti üle ülimuslik. Nagu öeldud, näib minu illustreeriv näide telliskiviseina vastu suunduva auto kohta meid veendavat, et inimesel on alati õigus.

Seevastu võiksime otsustada eelnevalt deklareerida, et iga kord, kui tekib lahkarvamus, oleme eelnevalt kindlaks teinud, et tehisintellektil on õigus ja inimesel on õigus. See ei ole ka mõistlikult üldistatav säte. Kujutage ette autot, mille tehisintellektil on sisseehitatud tarkvaraviga või viga ja tehisintellekt üritab sõidukit teelt välja ja kraavi juhtida. Eeldusel, et kõik muu on võrdne, peaks inimene suutma sellest tehisintellekti juhtimisest üle saada ja takistama sõidukil kanalisatsiooni maandumist.

Teeme sellest kiire kokkuvõtte:

  • Kas ahelas olev inimene on alati tehisintellektiga täielikult nõus? Vastus: Ei.
  • Kas tehisintellekt on ahelas oleva inimesega alati täiesti nõus? Vastus: Ei.
  • Kas ahelas oleval inimesel on tehisintellektiga võrreldes alati õigus? Vastus: Mitte tingimata.
  • Kas tehisintellektil on silmuses oleva inimesega võrreldes alati õigus? Vastus: Mitte tingimata.

Kindlasti saate seadistada tehisintellekti nii, et seda peetaks vaikimisi "valeks" või nõrgemaks pooleks ja seetõttu pöörduge lahkarvamuste ilmnemisel alati inimese poole. Samuti saate seadistada tehisintellekti eeldama, et tehisintellekti peetakse "õigeks" alati, kui inimene ei ole tehisintellektiga nõus. Tahan selgitada, et saame seda teha programmiliselt, kui soovime seda teha. Ma väidan siiski, et üldiselt see alati nii ei ole. Kindlasti on seadeid, mille puhul me ei tea ette, kas tehisintellektil on „õige” või inimesel „õige”, mis puudutab antud ülesandega seotud erimeelsuste valimist ühe või teise poole.

Juhtisin teid väga olulise ja väga keerulise küsimuseni.

Mida peaksime tegema, kui ahelas oleva inimese ja tehisintellekti vahel tekib professionaalne lahkarvamus (või samaväärselt võime seda sõnastada tehisintellekti ja inimese vahel)?

Ärge püüdke küsimuse eest kõrvale hiilida.

Mõned võivad väita, et seda ei juhtu kunagi, kuid nagu ma oma näites auto kohta kirjeldasin, võib see kindlasti juhtuda. Mõned võivad väita, et inimene on ilmselgelt parem ja peab olema kõigi lahkarvamuste võitja. Minu näide autost ja telliskiviseinast lööb selle maha. On tehisintellekti pooldajaid, kes võivad nõuda, et tehisintellekt peab olema võitja, kuna need juhuslikult ähmaselt mõtlevate inimeste näiliselt ületavad inimlikud emotsioonid ja hull mõtlemine. Minu teine ​​näide kraavi suunduva auto kohta lükkab taas selle väite ümber.

Tegelikus maailmas on tehisintellekt ja inimesed eriarvamusel, isegi kui nad on ühiselt võetud ülesande täitmiseks sihilikult ühendatud olukorda. See juhtub. Me ei saa pead liiva alla pista ja teeselda, et seda ei juhtu.

Nägime, et lennukit juhtinud inimesed sattusid ilmselt erimeelsustesse. Õnneks olid nad nõus eriarvamusele jääma, nii tundub. Nad tõid lennuki terminali tagasi. Nad leidsid vahendi lahkarvamuse lahendamiseks. Nende erimeelsuste lahendamine õnnestus hästi, võrreldes sellega, kui nad oleksid kokpitis rusikatega lööma läinud või õhku lennanud ja jätkanud omavahel võitlust. See on kurb stsenaarium, mis on vastuvõetamatu ja me võime olla tänulikud, et seda ei juhtunud.

Lubage mul esitada nimekiri erinevatest viisidest, kuidas AI ja inimese ahelas (või inimese ahelas ja AI) lahkarvamusi saab lahendada:

  • Tehisintellekt ja ühine inimene saavad asjad korda (sõbralikult või mitte)
  • Vaikimisi domineerib inimene tehisintellekti üle
  • AI valitseb vaikimisi inimese üle
  • Vaikimisi domineerib mõni muu etteantud fikseeritud eraldusvõime
  • Kolmandast isikust inimene on sisse lülitatud ja nende märge on osapoolte suhtes ülimuslik
  • Kolmanda osapoole AI on sisse lülitatud ja selle märge on osapoolte suhtes ülimuslik
  • Kolmanda osapoole inimene asendab olemasoleva inimese, asjad lähevad uuesti edasi
  • Kolmanda osapoole AI asendab olemasoleva AI, asjad lähevad uuesti edasi
  • Kolmanda osapoole inimene asendab olemasoleva tehisintellekti, asjad kulgevad uuesti (nüüd inimeselt inimesele)
  • Kolmanda osapoole AI asendab olemasoleva inimese, asjad lähevad uuesti (nüüd tehisintellektist AI-sse)
  • Muu

Need väärivad küllaldaselt lahtipakkimist.

Enne kui hakkame põhjalikumalt tegelema tehisintellekti ja inimeste erimeelsustega toimetulemise metsikute ja vildakate kaalutluste teemal, paneme paika mõned täiendavad põhialused väga olulistel teemadel. Peame põgusalt sukelduma tehisintellekti eetikasse ja eriti masinõppe (ML) ja süvaõppe (DL) tulekusse.

Võib-olla olete ähmaselt teadlik, et tänapäeval üks valjemaid hääli tehisintellekti valdkonnas ja isegi väljaspool tehisintellekti valdkonda seisneb nõudmises eetilise tehisintellekti suurema väljanägemise poole. Vaatame, mida tähendab viidata tehisintellekti eetikale ja eetilisele tehisintellektile. Lisaks uurime, mida ma mõtlen masinõppest ja süvaõppest rääkides.

Üks konkreetne AI eetika segment või osa, mis on pälvinud palju meedia tähelepanu, koosneb tehisintellektist, millel on ebasoodsad eelarvamused ja ebavõrdsused. Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Seoses sellega pooldan ma AI kasutamist tehisintellekti hädade lahendamise osana, võitledes tulega sellisel mõtteviisil. Näiteks võime manustada eetilised tehisintellekti komponendid tehisintellektisüsteemi, mis jälgib, kuidas ülejäänud AI asju teeb ja võib seega reaalajas tabada mis tahes diskrimineerivaid jõupingutusi, vt minu arutelu aadressil link siin. Meil võiks olla ka eraldi AI-süsteem, mis toimiks teatud tüüpi tehisintellekti eetikamonitorina. Tehisintellekti süsteem toimib järelevaatajana, et jälgida ja tuvastada, millal mõni teine ​​tehisintellekt läheb ebaeetilist kuristikku (vt minu analüüsi selliste võimaluste kohta link siin).

Mõne hetke pärast jagan teiega mõningaid AI eetika üldpõhimõtteid. Selliseid nimekirju vedeleb siin-seal palju. Võib öelda, et universaalse veetluse ja üksmeele ainsat loetelu pole veel olemas. See on kahetsusväärne uudis. Hea uudis on see, et vähemalt AI eetika loendid on hõlpsasti kättesaadavad ja need kipuvad olema üsna sarnased. Kokkuvõttes viitab see sellele, et teatud tüüpi põhjendatud lähenemise kaudu leiame tee AI-eetika üldise sarnasuse poole.

Esiteks käsitleme lühidalt mõningaid üldisi eetilisi tehisintellekti ettekirjutusi, et illustreerida, mis peaks olema AI loomisel, väljatöötamisel või kasutajal ülioluline kaalutlus.

Näiteks nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimekust arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvatest ja auditeeritavatest metoodikatest, andmeallikatest ning kavandamisprotseduuridest ja dokumentatsioonist.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade väljaselgitamine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas kui tehisintellekti kodeerimisel peab olema tõeline kumm, mis teega kokku puutub, on olukord palju keerulisem.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendustegevust, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaline eeldus on, et tehisintellekti eetika põhimõtetest peavad kinni pidama ainult kodeerijad või need, kes programmeerivad tehisintellekti. Nagu varem öeldud, on tehisintellekti väljatöötamiseks ja väljatöötamiseks vaja küla, mille jaoks kogu küla peab olema kursis ja järgima tehisintellekti eetika ettekirjutusi.

Teeme ka kindlaks, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem (minu üliintelligentse tehisintellekti kui võimaluse uurimist vt. katvus siin).

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Pöördume tagasi oma fookuse juurde AI ja inimese vaheliste erimeelsuste juurde.

Olen varem osutanud, et need on mõned erimeelsuste lahendamise strateegiad:

  • Tehisintellekt ja ühine inimene saavad asjad korda (sõbralikult või mitte)
  • Vaikimisi domineerib inimene tehisintellekti üle
  • AI valitseb vaikimisi inimese üle
  • Vaikimisi domineerib mõni muu etteantud fikseeritud eraldusvõime
  • Kolmandast isikust inimene on sisse lülitatud ja nende märge on osapoolte suhtes ülimuslik
  • Kolmanda osapoole AI on sisse lülitatud ja selle märge on osapoolte suhtes ülimuslik
  • Kolmanda osapoole inimene asendab olemasoleva inimese, asjad lähevad uuesti edasi
  • Kolmanda osapoole AI asendab olemasoleva AI, asjad lähevad uuesti edasi
  • Kolmanda osapoole inimene asendab olemasoleva tehisintellekti, asjad kulgevad uuesti (nüüd inimeselt inimesele)
  • Kolmanda osapoole AI asendab olemasoleva inimese, asjad lähevad uuesti (nüüd tehisintellektist AI-sse)
  • Muu

Aeg need lahti pakkida.

Esiteks mõelge, et see kõik on seotud professionaalne erimeelsused.

Tööalane erimeelsus on lõdvalt määratletud kui erimeelsus, mis on seotud tööga seotud ülesandega.

Näiteks piloodi ja kaaspiloodi vahel tekkivat lahkarvamust selle üle, kas jätkata tormiga lendu, võib mõistlikult pidada ametialaseks lahkarvamuseks. Seevastu teravad lahkarvamused selle üle, millist kohvimargi piloot pooldab võrreldes kaaspiloodi eelistatud brändiga, liigitatakse selles konkreetses kontekstis kergesti mitteprofessionaalseks lahkarvamuseks.

Muidugi, kui mitteametialane erimeelsus muutub professionaalseks lahkarvamuseks, võib meid lõpuks huvitada mitteprofessionaalne erimeelsus kui ametialase erimeelsuse oletatav allikas või säde. Kujutage ette, et piloot ja kaaspiloot vaidlevad kibedasti selle üle, milline kohvimark on parim, mis siis kahetsusväärselt kandub üle lennuspetsiifilisteks muredeks (pun!), näiteks kas õhku tõusta või mitte.

Teiseks peame meeles pidama professionaalsete lahkarvamuste ulatust.

Võib-olla piloot ja kaaspiloot või lendamise jätkamise osas kerge erimeelsus. Nad ei ole tülitsenud ja lihtsalt kaaluvad õhkutõusmise plusse ja miinuseid. See ei ole professionaalse lahkarvamuse kaliiber või ulatus, mida me siin tavaliselt kaalume. Asi on selles, et tööalane erimeelsus võib olla ajutine ja mõlemad pooled leiavad lahenduse südamlikult või vähemalt õigeaegselt. Üldiselt on tööalaste erimeelsuste fookuses need, mis näivad olevat lahendamatud, ja mõlemad pooled jäävad vankumatult eriarvamusele.

Kolmandaks, nende juhiste rakendamiseks peab tavaliselt midagi tõsiseltvõetavat olema.

Lendamise või mittelendamise otsustamine on otsustavalt elu või surmaga seotud otsus, kui lend on tormi tõttu ohus või kui lennuk ei ole selliseks reisiks täielikult valmis. See on tõsine äri. Saame siiski rakendada juhiseid vähem mõjuvate ametialaste erimeelsuste korral, kuigi see võib olla rohkem häiriv, kui see väärt on.

Olgu, meie kaalutlused on järgmised:

  • Erimeelsused on peamiselt suunatud professionaalsele, mitte millegi mitteprofessionaalse kohta
  • Erimeelsused on püsivat laadi ja mitte ainult mööduvad või muul viisil kergesti lahendatavad
  • Erimeelsus ennustab tõsiseid tagajärgi ja on tavaliselt mõjuva tulemusega
  • Osapooled on tülitsenud ja tunduvad lahendamatud

Vaatame nüüd üksikasjalikumalt kõiki minu pakutud juhiseid või lähenemisviise, kuidas selliste ametialaste lahkarvamustega toime tulla.

Tehisintellekt ja ühine inimene saavad asjad korda (sõbralikult või mitte)

Alustan loendit otsese võimalusega, et tehisintellekt ja in-the-loop suudavad lahendada omavahelisi ametialaseid lahkarvamusi. Näib, et võib-olla illustreerib seda tüüpi asjaolu kahe inimese, piloodi ja kaaspiloodi näide. Nad otsustasid kuidagi naasta terminali ja minna oma teed. Võib juhtuda, et AI-süsteem ja inimene suudavad välja mõelda lahenduse, mis üldiselt rahuldab mõlemat osapoolt ja sellega on asi rahuldavalt lõpetatud.

Vaikimisi domineerib inimene tehisintellekti üle

Tehisintellekti seadistamisel võime programmeerida reegli, mis ütleb, et tööalaste erimeelsuste korral on alati ülimuslik in-the-loop. See oleks selgesõnaliselt kodeeritud vaikeseade. Võime igaks juhuks lubada ka mingisugust alistamist, kuigi kehtiv reegel on, et inimene võidab.

AI valitseb vaikimisi inimese üle

Tehisintellekti seadistamisel võime programmeerida reegli, mis ütleb, et tehisintellekt on alati ülimuslik ahelas oleva inimese suhtes, kui tekib ametialane lahkarvamus. See on selgesõnaliselt kodeeritud vaikeseade. Võime igaks juhuks lubada ka mingil kujul alistamist, kuigi kehtiv reegel on, et AI valitseb.

Vaikimisi domineerib mõni muu etteantud fikseeritud eraldusvõime

Tehisintellekti seadistamisel võime programmeerida reegli, mis ütleb, et mõni muu etteantud fikseeritud eraldusvõime on ülimuslik, kui tekib ametialane lahkarvamus ahela inimesega. Inimene ahelas ei ole vaikimisi ülekaalus. AI vaikimisi ei domineeri. On mõni muu eelnevalt kindlaks määratud resolutsioon. Näiteks võib-olla visatakse münt, mille põhjal otsustatakse, kumba osapoolt peetakse õigeks teeks. See tunduks ilmselt üsna meelevaldne; seega oleks veel üks näide lähenemisviis, et rakendub spetsiaalne reegel, mis arvutab väärtuse kahe osapoole sisendite põhjal ja jõuab tulemuseni viigimurdena.

Kolmandast isikust inimene on sisse lülitatud ja nende märge on osapoolte suhtes ülimuslik

Tööalase lahkarvamuse korral võib reegel olla, et lahkarvamuse lahendamise otsuse tegemiseks kutsutakse kohale kolmas isik, kes on inimene. Tehisintellekt on programmeeritud edasi lükkama seda, mida kolmanda osapoole inimene otsustab. Inimesele, kes on juba silmuses olevas inimeses, on eelnevalt instrueeritud, et kui selline olukord peaks tekkima, peavad ka nemad alistuma kolmandast isikust inimesele. Kõrvale võib arvata, et ahelas oleval inimesel võib olla äng ühineda sellega, mida kolmandast isikust inimene otsustab, kui otsus ei nõustu ahelas inimese poosiga.

Kolmanda osapoole AI on sisse lülitatud ja selle märge on osapoolte suhtes ülimuslik

Tööalase lahkarvamuse korral võib reegel olla, et lahkarvamuse lahendamise otsuse tegemiseks kutsutakse välja kolmas osapool, kes on erinev tehisintellekti süsteem, ja lülitatakse seadesse. Algne AI on programmeeritud edasi lükkama kolmanda osapoole AI otsusega. Inimesele, kes on juba in-the-loop'is, on eelnevalt instrueeritud, et kui selline olukord peaks tekkima, peavad ka nemad kasutama kolmanda osapoole tehisintellekti. Kõrvale võib arvata, et ahelas oleval inimesel võib olla äng ühinemise pärast kolmanda osapoole tehisintellekti otsusega, kui otsus ei nõustu inimese ahelas asendiga.

Kolmanda osapoole inimene asendab olemasoleva inimese, asjad lähevad uuesti edasi

Tööalase lahkarvamuse korral asendatakse ahelas inimene kolmanda osapoolega, kes on inimene ja kellest saab edaspidi ahelas inimene. Inimest, kes oli selle ülesande algselt ahelas inimene, ei peeta enam käsiloleva ülesande osaks. See on lahtine aspekt, mis nüüd väljavahetatud inimesega ringis muidu juhtub, kuid me ütleme, et neil pole tööülesande täitmisel enam mingit pidevat rolli.

Kolmanda osapoole AI asendab olemasoleva AI, asjad lähevad uuesti edasi

Ametialaste erimeelsuste korral asendatakse tehisintellekt kolmanda osapoole tehisintellektiga ja sellest saab edaspidi tehisintellekt, mida kasutatakse antud tööülesande jaoks. Tehisintellekti, mida selle ülesande jaoks algselt kasutati, ei peeta enam käsiloleva ülesande osaks. See on lahtine aspekt, mis nüüd asendatud tehisintellektiga muidu juhtub, kuid me ütleme, et kindlasti pole tehisintellektil tööülesandes enam pidevat rolli.

Kolmanda osapoole inimene asendab olemasoleva tehisintellekti, asjad kulgevad uuesti (nüüd inimeselt inimesele)

Ametialaste lahkarvamuste korral asendatakse tehisintellekt kolmandast osapoolest inimesega, kelle jaoks sellest inimesest saab nüüd käsitletav kaasmeeskonna osapool, mida kasutatakse antud tööülesande täitmiseks. Tehisintellekti, mida selle ülesande jaoks algselt kasutati, ei peeta enam käsiloleva ülesande osaks. See on lahtine aspekt, mis nüüd asendatud tehisintellektiga muidu juhtub, kuid me ütleme, et kindlasti pole tehisintellektil tööülesandes enam pidevat rolli. Lühidalt öeldes muutub see nüüd kahe osapoole inimeselt inimesele täidetavaks ülesandeks.

Kolmanda osapoole AI asendab olemasoleva inimese, asjad lähevad uuesti (nüüd tehisintellektist AI-sse)

Ametialaste lahkarvamuste korral asendatakse ahelas olev inimene kolmanda osapoole tehisintellektiga ja sellest tehisintellektist saab edaspidi eelmise ahelas inimese täitmine. Inimest, kes oli selle ülesande algselt ahelas inimene, ei peeta enam käsiloleva ülesande osaks. See on lahtine aspekt, mis nüüd väljavahetatud inimesega ringis muidu juhtub, kuid me ütleme, et neil pole tööülesande täitmisel enam mingit pidevat rolli. Lühidalt, sellest saab nüüd ülesande täitmiseks kahe osapoole AI-to-AI.

Muu

Professionaalsete erimeelsuste lahendamiseks võib välja mõelda ka muid variatsioone, kuid oleme siin käsitlenud mõningaid nurgakivi.

Kuidas me otsustame, milline neist lähenemisviisidest on antud olukorras õige?

Sellise valiku tegemisel on palju erinevaid probleeme. On tehnoloogilised kaalutlused. On ärilisi kaalutlusi. Siin on õiguslikud ja eetilised kaalutlused.

Teatud määral on seetõttu AI eetika ja eetiline tehisintellekt nii oluline teema. AI eetika ettekirjutused panevad meid valvsaks jääma. Tehisintellekti tehnoloogid võivad mõnikord olla hõivatud tehnoloogiaga, eriti kõrgtehnoloogia optimeerimisega. Nad ei pea tingimata arvestama suuremate ühiskondlike tagajärgedega. Asjakohase tehisintellekti loomiseks, sealhulgas (võib-olla üllataval või iroonilisel kombel) hinnata, kuidas tehisintellekti eetikat ettevõtted omaks võtavad, on oluline omada AI-eetikat ja teha seda tehisintellekti arendamise ja kasutamisega lahutamatult.

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Tegelikult hoiatavad nad ette, et kui me mõned neist tehisintellekti seadustest vastu võtame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid.

Vean kihla, et selle kaaluka arutelu praegusel hetkel soovite mõnda illustreerivat näidet, mis võiksid seda teemat tutvustada. Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Näete, et tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede eksperdina, palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi tehisintellekti ja inimeste lahkarvamuste lahendamise kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on need, kus tehisintellekt juhib autot täiesti iseseisvalt ja juhtimisülesande täitmisel puudub inimabi.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

Tõelist isejuhtivat autot 5. tasemel veel ei ole ja me ei tea veel isegi, kas seda on võimalik saavutada või kui kaua selleni jõudmine aega võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja AI-Versus-Inimese lahkarvamus

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Loodan, et see annab piisava hulga hoiatusi, et toetuda sellele, mida kavatsen käsitleda.

Täielikult autonoomsete sõidukite puhul ei pruugi inimese ja tehisintellekti vahel tekkida professionaalseid lahkarvamusi, kuna võib juhtuda, et ahelas ei ole inimest. Paljude tänapäeva isejuhtivate autode valmistajate eesmärk on inimjuht täielikult juhtimisülesandest eemaldada. Sõiduk ei sisalda isegi inimesele ligipääsetavaid juhtimisseadmeid. Sel juhul ei saa inimjuht, kui ta on kohal, juhtimisülesandes osaleda, kuna tal puudub juurdepääs mis tahes juhtimisseadisele.

Mõnede täielikult autonoomsete sõidukite puhul võimaldavad mõned konstruktsioonid siiski inimesel olla ringis, kuigi inimene ei pea olema sõiduprotsessis üldse kättesaadav ega osalema. Seega saab inimene sõidus osaleda, kui inimene seda soovib. Kuid tehisintellekt ei sõltu ühelgi hetkel inimesest, et täita ühtegi juhtimisülesannet.

Poolautonoomsete sõidukite puhul on inimjuhi ja tehisintellekti vahel käsikäes suhe. Inimjuht saab juhtimisseadised täielikult üle võtta ja sisuliselt peatada tehisintellekti juhtimises osalemise. Kui inimjuht soovib tehisintellekti juhirolli taastada, saab ta seda teha, kuigi mõnikord sunnib see inimest juhtimisseadiseid loobuma.

Teine poolautonoomse toimimise vorm eeldaks, et juht ja tehisintellekt töötavad koos meeskonnatööna. AI juhib ja inimene juhib. Nad sõidavad koos. AI võib inimesele edasi anda. Inimene võib AI-le edasi lükata.

Mingil hetkel võivad tehisintellekti juhtimissüsteem ja tsüklis olev inimjuht jõuda „ametialase lahkarvamuse” punktini käsiloleva juhtimisülesande osas.

Et illustreerida, kuidas mõnede ülalnimetatud ametialaste erimeelsuste lahendamise reeglite rakendamine võib osutuda keeruliseks, kaaluge juhtumit kolmandast isikust inimese kutsumise juhtumit ja pakkuge välja otsus lahendamata probleemi lahendamiseks.

Oletame, et autotootja või isejuhtiv tehnoloogiaettevõte on korraldanud kaugkäitajatel juurdepääsu oma sõidukipargis olevate sõidukite juhtimisseadmetele. Inimoperaator istub mõnes kauges kontoris või sarnases keskkonnas. Arvutisüsteemi kaudu saavad nad vaadata sõidustseeni, pääsedes juurde isejuhtivale autole laaditud kaameratele ja teistele anduritele. Nende jaoks on see peaaegu nagu võrgumängu mängimine, kuigi tegelikel asjaoludel võivad loomulikult olla kohutavad tagajärjed.

AI-süsteem ja autos olev juht juhivad poolautonoomset sõidukit mööda pikka maanteed. Äkki tahab AI kraavi tüürida. Inimjuht ei taha seda teha. Need kaks kaklevad juhtimisseadiste üle.

Kuidas see lahendatakse?

Võib-olla oleksime võinud eelnevalt kindlaks teha, et inimene võidab alati. Oletame siiski, et me otsustasime seda mitte teha.

Oleksime võinud eelnevalt kindlaks teha, et AI võidab alati. Oletame, et otsustasime seda mitte teha. Kokkuvõttes ei võtnud me vastu ühtegi neist reeglitest, välja arvatud see, et otsustasime lubada kolmandast isikust inimesel sekkuda ja lahendada mis tahes sisulise iseloomuga ametialased erimeelsused.

Antud kasutusjuhul võitlevad tehisintellekt ja roolis olev juht juhtnuppude pärast. Oletame, et see edastatakse kaugoperaatorile (meie kolmandast osapoolest inimene). Kaugoperaator uurib toimuvat ja otsustab kraavist eemale tüürida, vältides näiliselt seda, mida tehisintellekt üritas teha. Samal ajal oletame, et kaugjuhtimine juhib vastutulevasse liiklust, mida ei tahtnud teha ei tehisintellekt ega autos olev juht.

Asi on selles, et selle reegli rakendamise viis on see, et kolmandast osapoolest inimoperaator suudab täielikult alistada nii tehisintellekti kui ka inimese ahelas. See, kas see annab hea tulemuse, pole kindlasti kindel.

Kasutan seda näidet, et rõhutada mõningaid lisateavet nendes küsimustes.

Te ei saa teha jultunud oletust, et just seetõttu, et üks neist reeglitest paika pannakse, on lahendatud lahkarvamuse tulemus tingimata hea tulemus. See ei pruugi olla. Ei ole ühtegi raudkindlat alati õiget reeglit, mida saab valida.

Järgmiseks ei pruugi mõned neist reeglitest olla elujõuliselt rakendatavad.

Mõelge näitele, kuidas kaugoperaator sekkub, kui tehisintellekt ja juht kaklevad juhtimisseadiste pärast. Kaugoperaatoril võib kuluda mitu sekundit, et aru saada, mis toimub. Selleks ajaks võis sõiduk olla juba kraavi sattunud või mõne muu ebasoodsa tagajärjega. Samuti oletagem, et sõiduki asukoht välistab kaugjuurdepääsu, näiteks asukoha, kus puudub elektrooniline võrguühendus. Või äkki ei tööta sõiduki võrgufunktsioonid sel konkreetsel hetkel.

Nagu näete, võib reegel näida paberil veider, kuigi reegli tegelik kasutuselevõtt võib olla väga keeruline või väga juhuslik lähenemine. Vaadake minu kriitilise pilgu kajastust autonoomsete sõidukite ja isejuhtivate autode kaugjuhtimispuldi kohta aadressil link siin.

Tahaksin lühidalt käsitleda veel üht seotud teemat, mida käsitlen põhjalikumalt tulevases analüüsis.

Üks tõusev murekoht autonoomsete sõidukite ja isejuhtivate autode osas, mis on poolautonoomsed, on nn. Kuuma kartuli sündroom.

Siin on asi.

Tehisintellekti juhtimissüsteem ja inimene sõidavad koos. Tekib kohutav olukord. Tehisintellekt on programmeeritud nii, et ta langeb raskel hetkel juhtimisülesandest välja ja annab asjad inimesele üle. See tundub võib-olla "mõistlik", kuna näib, et tugineme reeglile, mille kohaselt on iga võimaliku ametialase lahkarvamuse vaikimisi "võitja" inimene.

Kuid tehisintellekti väljalangemine võib olla alatumatel või salakavalamatel eesmärkidel. Võib juhtuda, et autotootja või isejuhtiv tehnoloogiaettevõte ei taha, et nende tehisintellekti peetaks autoõnnetuse korral "süüdlaseks". Vältimaks näiliselt sellist kinnijäämist, annab tehisintellekt järsult juhtimise üle inimesele. Voila, inimene vastutab nüüd arvatavasti täielikult sõiduki eest.

Eelkõige on see, et oletame, et tehisintellekt teeb selle üleandmise, kui oletame, et krahhini on jäänud üks sekund.

Kas inimesel oleks tõesti aega õnnetuse ärahoidmiseks?

Tõenäoliselt mitte.

Oletame, et tehisintellekt teostab jaotuse, kui lõpuni on jäänud mõni millisekund või nanosekund. Julgen väita, et inimesel pole praktiliselt mingit võimalust õnnetuse ärahoidmiseks midagi ette võtta.

Autotootja või isejuhtivate autode firma seisukohast võivad nad sellise autoõnnetuse korral proovida käituda nii, nagu oleksid nende käed puhtad. Autot juhtis inimene. AI ei juhtinud autot. Ainus "loogiline" järeldus näib olevat see, et inimene peab olema süüdi ja tehisintellekt peab olema täiesti laitmatu.

See on kukk.

Ma arutan seda üksikasjalikumalt tulevases veerus.

Järeldus

Tekivad erialased lahkarvamused.

Raske on ette kujutada keerulist ülesannet, mille ülesandeid täidavad kaks osapoolt ja mille puhul ei tekiks kunagi erialaseid lahkarvamusi. See tundub fantaasiamaa või vähemalt suur haruldus.

Tänapäeval on meil palju ja palju inimestevahelisi ametialaseid erimeelsusi, mille puhul igapäevaselt lahendid ühel või teisel viisil rahumeelselt ja mõistlikult välja mõeldakse. Tegelikult loome sageli olukordi tahtlikult, et soodustada ja tõsta esile professionaalseid erimeelsusi. Võite väita, et see näitab kuulsat tarkust, et mõnikord on kaks pead parem kui üks.

Kuna tehisintellekt muutub üha levinumaks, on meil palju tehisintellektist inimesele või inimeselt tehisintellektile kahe osapoole ülesannete täitjaid ja neid on erialased lahkarvamused see juhtub. Laisk lähenemine on jääda alati inimesele. See ei pruugi olla kõige sobivam lähenemine. AI võib olla parem valik. Või mõni muu ülalnimetatud reeglitest võib olla mõistlikum lähenemisviis.

Sageli korratakse seda tark joont, et me kõik peaksime üldiselt suutma nõustuda, et mitte nõustuda, kuigi kui tegemist on juhtmega, siis mõnikord tuleb lahkhelid ühemõtteliselt lahendada, vastasel juhul toob käesolev küsimus kaasa ütlematu õnnetuse. Me ei saa lasta lahkarvamusel lihtsalt viinapuule jääda. Aeg võib olla ülioluline ja elud võivad olla kaalul.

Erimeelsuste lahendamiseks on selge nõue mõistlike vahendite järele isegi siis, kui tehisintellekt ja ahelas olev inimene ei näe silmast silma ega baitidest baiti.

Usun, et te ei nõustu selle täiesti vastuvõetava väitega.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lesssons-gleaned-from-that-recent-alaska-airlines-flight-where- piloot ja kaaspiloot ei nõustunud enne õhkutõusmist ja otsustas järsult-takseerida-tagasi-terminali-ja-minema-oma-eraldi-teid/