Tehisintellekti eetika maadleb vältimatute tehisintellektiõnnetustega, mis ähvardab ka autonoomseid isejuhtivaid autosid

Kas sa ilmselt tead kedagi, kes tundub olevat eriti õnnetusoht?

Tundub, et me kõik teeme seda.

Võib-olla on see inimene seda tüüpi, kes libiseb teie elutoas banaanikoorele või lööb ümber hinnalise vaasi. Nad on inimmagnetiks ühte või teist laadi õnnetuste jaoks. See võib olla nii halb, et te isegi ei soovi mõnikord nende läheduses viibida. Võite saada kurjakuulutava ülevoolu või kannatada mõne nende ebameeldiva õnnetuse kuulsusetute tagajärgede käes.

Kuid võib-olla oleme liiga karmid, kui väidame, et keegi on õnnetustele rohkem eelsoodumus kui teised. Võib väita, et õnnetusi võib juhtuda igaühega meist. Me kõik oleme allutatud võimalusele sattuda õnnetusse või sattuda õnnetusse. Kaasa arvatud parimad meist.

Kuhjame selle arutelu peale veel ühe ärritava küsimuse.

Kas õnnetused on vältimatud?

Teisisõnu, hoolimata sellest, kui kõvasti me püüaksime õnnetusi ära hoida, võib juhtuda, et õnnetuste juhtumise tõenäosus ja ülim kindlus on siiski olemas. Võite püüda kaitsta maailma õnnetuste eest. See tundub kahtlemata mõistlik. Kuid nii või teisiti tõstavad õnnetused ikka oma koledat pead.

Nagu öeldakse, õnnetused ootavad juhtumist.

Võib olla kasulik selgitada, mida mõeldakse mõnele sündmusele viidates, mis on asjakohaselt märgistatud õnnetusena. Tavaline sõnaraamatu definitsioon ütleb, et õnnetus on ootamatu ja tahtmatult aset leidnud intsident, mille puhul on kahetsusväärne tagajärg, mis koosneb kahju või vigastuse näilikust.

Pakkige see määratlus ettevaatlikult lahti.

Nimetatud juhtum on ootamatu. See tähendab, et me ei teadnud, et õnnetus ise juhtub.

Nimetatud juhtum on tahtmatu. See viitab sellele, et peaksime välistama asjaolud, kus keegi tahtis tahtlikult intsidendi toimumist. Kui naljamees asetab banaanikoore põrandale kohta, kus ta teab, et õnnetu ja pahaaimamatu süütu astub, on teil raske väita, et selle otsa komistaja sai õnnetuse. Neid hoopis peteti ja viidi salakavalalt lõksu.

Määratlus sisaldab ka kriteeriumi, et tulemus on kahetsusväärne. Õnnetus selles valguses peab viima hapu tulemuseni. Isik, kes kogemata vaasi ümber lükkas, on mõranenud ja võib-olla rikkunud maitsestatud eseme parandamatult. Vaasi omanik saab väärtuse kadumisest kahju. Vaasi sattunud inimene võib nüüd omanikule kahju eest võlgu jääda. Hoidku taevas selle eest, et vaasi purunemise tõttu keegi oleks saanud tükeldada või vanarauaks jääda.

Võrdse tasakaalu huvides võiksime märkida, et on ka nn häid õnnetusi. Inimene võib õnnetuse tagajärjel sattuda suuresse varandusse või koguda muud olulist kasu. Üks enim viidatud näiteid on Sir Alexander Fleming ja tema tunnustatud penitsilliini avastamine. Lugu räägib, et ta oli laboris veidi hooletu ja kahenädalaselt puhkuselt naastes avastas ta ühelt kultiveerimisplaadilt hallituse. Väidetavalt ütles ta selle asja kohta nii: „Mõnikord leiab seda, mida ei otsi. Kui ma 28. septembril 1928 kohe pärast koitu ärkasin, ei plaaninud ma kindlasti kogu meditsiinis revolutsiooni teha, avastades maailma esimese antibiootikumi ehk bakterite tapja. Aga ma arvan, et see oli täpselt see, mida ma tegin."

Jätame soodsad õnnetused kõrvale ja keskendume siin kurbadele õnnetustele. Õnnetusjuhtumite kulmu kortsutatud versioon on olukord, kus need ebasoodsad tagajärjed võivad olla eriti eluohtlikud või raskete tagajärgedega. Nii palju kui võimalik, negatiivseid õnnetusi, mida soovime minimeerida (ja loomulikult ka negatiivseid õnnetusi, mida soovime maksimeerida, kui see on teostatav, kuigi käsitlen seda naerunäo varianti hilisemas veerus).

Tahaksin veidi ümber sõnastada varasema küsimuse õnnetuste vältimatuse kohta. Seni oleme pööranud tähelepanu õnnetustele, mis juhtuvad üksiku inimesega konkreetsel juhul. Pole kahtlust, et õnnetused võivad korraga mõjutada ka paljusid inimesi. Seda võib eriti kohata siis, kui inimesed on ühte või teist laadi keerukasse süsteemi sukeldunud.

Valmistage end ette ühe variandi jaoks eelnevalt hõljutatud küsimusest.

Kas süsteemiõnnetused on vältimatud?

Peaksime selle üle järele mõtlema.

Oletame, et autode osade valmistamiseks on ette nähtud tehase põrand. Need, kes tehase projekteerisid, on väga mures võimalike tööõnnetuste pärast. Tehase töötajad on kohustatud kandma alati kiivrit. Tehases olevad sildid hoiatavad õnnetuste eest ja olge oma töös tähelepanelik. Õnnetuste vältimiseks rakendatakse kõikvõimalikke ettevaatusabinõusid.

Selles süsteemis võime loota, et keegi ei juhtu kunagi õnnetusse. Kas usute, et õnnetuse juhtumise tõenäosus on null? Julgen arvata, et ükski mõistlik mõtleja ei panustaks sellele, et õnnetuse võimalus on antud juhul null. Tõenäosus, et õnnetus juhtub, võib olla väga väike, kuid siiski teame ja eeldame, et hoolimata kõigist ettevaatusabinõudest on õnnetuse toimumise oht siiski väike.

Kõik see viitab mõttele, et piisava keerukusega süsteemis peame kindlasti uskuma, et õnnetusi juhtub ikka, hoolimata sellest, kui kõvasti me neid ära hoida püüame. Me toetame end vastumeelselt tingimusega, et süsteemiõnnetused on tõepoolest vältimatud. Sellise kaliibriga suurejoonelises avalduses võib olla hoiatus, et süsteem peab olema niivõrd keerukas, et õnnetuste täielikuks ärahoidmiseks on sisuliselt võimatu kõiki aluseid katta.

Nüüd on teile üksikasjalikult samm-sammult tutvustatud üldjoontes kirjeldatud õnnetuste teooriat, mida võib nimetada tavalisteks õnnetusteks või tavaliste õnnetuste teooriateks (NAT). Siin on seda mõistet uurinud teadlaste mugav kirjeldus: "Piisavalt suures mastaabis põhjustab iga süsteem "tavalisi õnnetusi". Need on vältimatud õnnetused, mis on põhjustatud keerukuse, komponentidevahelise seose ja võimaliku kahju kombinatsioonist. Tavaline õnnetus erineb tavalisematest komponentide rikkeõnnetustest selle poolest, et tavapärase õnnetuseni viivad sündmused ja vastasmõjud ei ole süsteemi käitajatele arusaadavad” (nagu on öeldud Robert Williamsi ja artiklis “Teisisinstrumendi tõrgete mõistmine ja vältimine: praktiline juhend”. Roman Yampolskiy, Filosoofiad ajakiri).

Põhjus, miks ma teid maale tõin nö tavalised õnnetused on see, et meil võib tekkida vajadus seda teooriat hoolikalt rakendada millegi suhtes, mis on järk-järgult ja vältimatult meie ühiskonnas üldlevinud, nimelt tehisintellekti (AI) tulekul.

Süveneme sellesse.

Mõned inimesed eeldavad ekslikult, et AI saab olema täiuslik. AI-süsteemid ei tee vigu ega aja meid hätta, kõlavad spekulatsioonid. Kõik, mida pead tegema, on veenduda, et need tehisintellekti arendajad teeksid piisavalt head tööd, ja voilaa, AI ei tee kunagi midagi, mida võiks tõlgendada juhusliku või õnnetuse põhjustajana.

Mitte nii kiiresti selle hüpoteetilise veendumusega. Kui olete valmis ostma teooriat tavalised õnnetused, põhjustab mis tahes sisulise keerukusega tehisintellekt paratamatult õnnetuse. Olenemata sellest, kui palju need tehisintellekti arendajad õnnetuse ärahoidmiseks hilisõhtul nokitsevad, satub tehisintellekt mingil ajahetkel kindlasti õnnetusse. Nii mureneb küpsis. Ja selle pärast meie mahaloksunud piima sees nuttes pole mingit hingetõmbeaega.

Mõtisklege tehisintellekti ja selle kontseptuaalsete põhimõtete üle tavalised õnnetused.

Kujutage ette, et meil on AI-süsteem, mis juhib tuumarelvi. AI on hoolikalt koostatud. Iga mõeldav kontroll ja tasakaal on AI-süsteemi kodeeritud. Kas oleme kaitstud tehisintellektil põhineva õnnetuse eest, mis võib juhtuda? Need, kes toetavad tavapärast õnnetuste seisukohta, ütleksid, et me pole päris nii ohutud, kui võiks arvata. Arvestades, et tehisintellekt on tõenäoliselt eriti keeruline, ootab tavaline õnnetus seal vaikselt, et millalgi, võib-olla halvimal võimalikul hetkel, ilmneda.

Nende keeruliste küsimuste ja kahtluste põhiolemus seisneb selles, et me peame teadma, et tehisintellekt on kindlasti õnnetustest koormatud ning inimkond peab ette võtma midagi mõistlikku ja ennetavalt võimalike ohtude osas. Nagu näete mõne hetke pärast, on see AI kasutamisel tekkiv kaalutlus ning tehisintellekti eetika ja eetiline AI valdkond maadleb üsna palju selle üle, mida teha. Minu jätkuva ja ulatusliku AI eetika ja eetilise tehisintellekti katvuse kohta vt link siin ja link siin, Ainult mõned nimed.

Enne kui jäneseauku alla läheme, veendugem, et oleme tehisintellekti olemuse osas ühel lainel. Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on teile nõu andva inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem (minu üliintelligentse tehisintellekti kui võimaluse uurimist vt. katvus siin). Kõigile öeldud, et need stsenaariumid kiirendavad allika hinnangut.

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendab arvutuslike mustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Seoses sellega pooldan ma AI kasutamist tehisintellekti hädade lahendamise osana, võitledes tulega sellisel mõtteviisil. Näiteks võime manustada eetilised tehisintellekti komponendid tehisintellektisüsteemi, mis jälgib, kuidas ülejäänud AI asju teeb ja võib seega reaalajas tabada mis tahes diskrimineerivaid jõupingutusi, vt minu arutelu aadressil link siin. Meil võiks olla ka eraldi AI-süsteem, mis toimiks teatud tüüpi tehisintellekti eetikamonitorina. Tehisintellekti süsteem toimib järelevaatajana, et jälgida ja tuvastada, millal mõni teine ​​tehisintellekt läheb ebaeetilist kuristikku (vt minu analüüsi selliste võimaluste kohta link siin).

Kokkuvõttes on üldine lootus, et tehisintellekti eetika põhimõtete kehtestamisega suudame vähemalt suurendada ühiskonna teadlikkust sellest, mida tehisintellekt võib nii kasulikult teha kui ka negatiivselt toota. Olen põhjalikult arutanud erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis pealkirjaga "AI eetikajuhiste globaalne maastik" (avaldatud). sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade väljaselgitamine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas kui tehisintellekti kodeerimisel peab olema tõeline kumm, mis teega kokku puutub, on olukord palju keerulisem.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendustegevust, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu varem öeldud, on tehisintellekti väljatöötamiseks ja väljatöötamiseks vaja küla, mille jaoks kogu küla peab olema kursis ja järgima tehisintellekti eetika ettekirjutusi.

Meil võib tekkida vajadus lisada kiidetud tehisintellekti eetika loendisse, mida peame selgelt kaaluma ja võtma ilmseid meetmeid, et ennetada või vähemalt järsult leevendada AI-põhist mõju. tavalised õnnetused mis võib tekkida. Need, kes arendavad tehisintellekti, peavad andma endast parima. Need, kes kasutavad AI-d, peavad tegema sama. Need, kes kasutavad tehisintellekti või on mingil moel sellele allutatud, peaksid olema ettevaatlikud ja valvel olema võimalike tehisintellektiga seotud õnnetuste eest, mis näiliselt juhtuvad.

Võib tekkida kiusatus arvata, et tehisintellekti saab sisse ehitada piisavalt ettevaatusabinõusid, et õnnetuse tõenäosus langeks nullini. Tehnikahuviliste jaoks on tavaline ülbus see, et kui mõni tehnikaosa võib probleemi tekitada, võib mõni teine ​​​​tehnika kindlasti probleemi lahendada. Lihtsalt loobige aina rohkem tehnikat, kuni probleem kaob.

Need, kes on uurinud süsteemidele orienteeritud õnnetusi, kalduvad eriarvamusele ja vastaksid viisakalt oletatavale tehnikapompoossusele, pakkudes välja seisukoha, mida tuntakse kui Šveitsi juustu mudelit (SCM): „SCM-is modelleeritakse ohutuskihid juustu viiludena. aukudega juust tähistab iga turvakihi nõrku kohti. Aja jooksul muudavad augud kuju ja liiguvad ringi. Lõpuks, olenemata sellest, kui palju juustuviile (turvakihte) on, joonduvad augud, võimaldades otselööki läbi kõigi juustuviilude (toimub õnnetus)” (varem tsiteeritud Robert Williamsi ja Roman Yampolskiy paberi järgi ).

Ma ei taha takerduda sellesse külgpuutujasse selle üle, kas on olemas garanteeritud viis AI programmeerimiseks nii, et see kõik õnnetusjuhtumid täielikult ja alati ära hoiaks. Katsetatakse igasuguseid matemaatilisi ja arvutuslikke tõestamismeetodeid. Ma arvan, et on mõistlik ja õiglane deklareerida, et meil ei ole täna skaleeritavat töömeetodit ega tehnoloogiaid, mis suudaksid sellist nullvõimalust kindlalt garanteerida, lisaks oleme kindlasti koormatud tonnide kaupa tehisintellektiga, mida toodetakse ja mida me valmistame. ei ole püüdnud sellistest tavadest kinni pidada. See viimane punkt on ülioluline, sest isegi kui suudame tehisintellekti laboris midagi välja mõelda, on selle skaleerimine miljonite metsikute ja muretute tehisintellekti jõupingutustega, mis on käimas ja mis ka edaspidi esile kerkib, sõlmeline probleem ja tõenäoliselt ei lahene isegi siis, kui arvutuslik tõestamismasin on hõbedane. kuul oli olemas.

Veel üks punkt, mida minu arvates väärib lühidalt mainimist, on AI, mis on pahatahtlike inimnäitlejate tagajärjel muutunud ebasoovitavateks tegudeks. Ma ei hakka neid juhtumeid AI-õnnetuste valdkonda paigutama. Pidage meeles, et avavestlus viitas sellele, et õnnetuse sõnastik määratlus oli juhtum tahtmatu loodus. Kui inimküberkelm suudab panna tehisintellekti süsteemi halbu asju tegema, siis ma ei liigita seda tehisintellekti õnnetuseks. Usun, et lähete selle eeldusega kaasa.

Tekib huvitav küsimus, kui palju erinevatest tehisintellekti ebasoodsatest tegudest võib seostada puhtalt tehisintellekti õnnetusega võrreldes küberkurjategijate petliku teoga. Mõnede olemasolevate tehisintsidentide aruandlusandmebaaside kohaselt näib, et AI-õnnetusi juhtub rohkem kui pahatahtlikult ajendatud juhtumeid, ehkki seda arusaama tuleb võtta suure soolaannusega. Ma ütlen seda seetõttu, et on suur kiusatus mitte teatada, millal AI-süsteemi rünnati, ja võib-olla olla mõnevõrra rohkem valmis teatama, kui AI-õnnetus toimub.

Tehisintellektiga seotud õnnetustega seoses peame arutama äärmiselt olulise hoiatuse.

Märgilause „AI õnnetused“ kasutamine on üldiselt ebasoovitav ja tekitab meie kõigi jaoks üsna segaduse, mis tähendab kogu ühiskonda. Kui inimesega juhtub õnnetus, kehitame sageli õlgu ja tunneme õnnetuse läbielajale kaasa. Näib, et käsitleme sõna "õnnetus" nii, nagu tähendaks see, et keegi ei vastuta juhtunu eest.

Võtame näiteks autoõnnetusse sattumise. Üks auto kõigub paremkurvis laiaks ja põrutab kogemata otsa teisele otse edasi sõitnud autole. Kurb, see oli lihtsalt õnnetus ja juhtus kogemata. Need, kes vahejuhtumiga seotud ei olnud, lasevad võib-olla asjal liugu lasta, kui sündmust peetakse lihtsalt juhtunud õnnetuseks.

Mul on aga tunne, et kui oleksite löögi saanud autos, ei tunneks te liiga laia kurvi teinud juhile nii kaasa. Teie arvamus oleks kindlasti see, et teine ​​juht oli loll juht ja autoavarii põhjustas kas näiliselt ebaseaduslik või ebamõistlik juhtimistegevus. Intsidendi "õnnetuseks" märgistamisel on ummikusse jäänud juht nüüd mõnevõrra ebasoodsas olukorras, sest tundub, et kõik juhtus juhuslikult, mitte aga segaduse teinud juhi käte kaudu.

Tegelikult on sõna "õnnetus" nii täis erinevat tähendust, et üldiselt viitab valitsuse autoõnnetuste statistika sellele autokokkupõrkele või autoavariile, selle asemel et kasutada väljendit autoõnnetused. Näib, et auto kokkupõrge või autoõnnetus ei mõjuta juhtumi toimumist. Vahepeal paneb sõna "autoõnnetus" peaaegu mõtlema, et see oli saatuse veidrus või kuidagi väljaspool inimkonna kätest.

Näete, kuidas see konnotatsiooniline kaalutlus AI-õnnetustele viidates mängib. Me ei taha, et tehisintellekti arendajad varjaksid varjundikilbi taha, et AI lihtsalt kogemata kellelegi kahju tekitas. Sama kehtib nende kohta, kes kasutavad AI-d. Võib väita, et AI-õnnetuste sõnastus on peaaegu AI antropomorfiseerimine, mis eksitab ühiskonda, lubades tehisintellekti kulisside taga olnud inimestel vastutusest pääseda. Minu arutelu selle kohta, kui oluline on hoida inimesi oma tehisintellekti eest vastutama, vaadake minu arutelu aadressil see link siin ja see link siin.

Edaspidi kasutan ma AI-õnnetuste lööklauset, kuid teen seda vastumeelselt ja ainult seetõttu, et see on tavapärane viis sellele nähtusele viitamiseks. Katsed seda teisiti sõnastada kipuvad olema kahetsusväärselt rohkem ülespuhutud ja mitte nii kergesti loetavad. Veenduge, et tõlgendaksite lööklauset viisil, mis ei pane teid teistpidi vaatama ega mõistma, et tehisintellekti aluseks olevad inimesed on süüdi, kui tehisintellekt viltu läheb.

Et aidata illustreerida tõenäolist segadust või eksitavaid aspekte, mis on seotud tehisintellektile õnnetusjuhtumiga viitamisel, võime naasta minu märkuste juurde vaasi ümberlükkamise kohta. Vaatleme seda näidet tehisintellektist: „See probleem on seotud asjadega, mida tehisintellekt teeb kogemata või ükskõiksuse tõttu. Vaasi ümber lükkav koristusrobot on üks näide sellest. Keerulistes keskkondades on nii palju erinevaid "vaase", et tõenäoliselt ei suuda me kõigi kõrvalmõjude eest karistust määrata” (Robert Williamsi ja Roman Yampolskiy artikli järgi).

Kodumajapidamises kasutusele võetud tehisintellektisüsteem, mis seejärel "kogemata" vaasi ümber lükkab, viitab sellele, et tehisintellekti selles ebasoodsas tegevuses ei tohiks kedagi süüdistada. See oli lihtsalt õnnetus, võib kahetsusväärselt taunida. Teisest küljest peaksime õigustatult küsima, miks AI-süsteem ei olnud programmeeritud vaasiolukorda üldiselt käsitlema. Isegi kui tehisintellekti arendajad ei eeldanud, et vaas per se on objektide hulgas, millega võib kokku puutuda, võime kahtlemata kahtluse alla seada, miks ei olnud mingit kõikehõlmavat objektide vältimist, mis oleks hoidnud tehisintellekti süsteemi ümber lükkamast. vaas (seega ei pruugi tehisintellekt vaasi vaasiks liigitada, kuid oleks siiski võinud seda vältida tuvastatava objektina, mida tuleb vältida).

Olen ennustanud ja ennustan jätkuvalt, et liigume järk-järgult tohutu juriidilise võitluse poole tehisintellektisüsteemide tekke üle, mis satuvad „AI õnnetustesse” ja põhjustavad teatud kahju. Siiani ei ole ühiskond märkimisväärselt reageerinud tehisintellekti seaduslikule tagasilöögile, mis on turule lükatud ja põhjustab kas tahtlikult või tahtmatult kahjulikke tagajärgi. Tänapäeva tehisintellekti vagunid, millest on saanud poolikute tehisintellekti tegijate ja kiirustades tehisintellekti juurutamise ellu viivad inimesed, veavad praegu ning jäävad tsiviilhagidest ja kriminaalsüüdistustest suhteliselt puutumata.

Varem või hiljem on tulemas AI-st tingitud juriidiline tagasilöök.

Edasi liikudes, kuidas me proovime toime tulla niinimetatud AI-õnnetuste paratamatusega?

Üks asi, mida saame kohe teha, on proovida ette näha, kuidas tehisintellektiga seotud õnnetused võivad juhtuda. Tehisintellektiga seotud õnnetusi ennetades saame vähemalt otsida vahendeid nende piiramiseks või nende esinemise tõenäosuse minimeerimiseks. Lisaks võime proovida paigaldada kaitsepiirded, et tehisintellektiga seotud õnnetuse korral väheneks ilmse kahju tekkimise tõenäosus.

Kasulik tegurite kogum, mida kirjeldati varasemas tsiteeritud uurimisartiklis AI-tõrgete mõistmine ja vältimine: praktiline juhend sisaldab neid omadusi (nagu tsiteeritud uurimistööst):

  • Süsteem, mida AI väljundid mõjutavad.
  • Viivitus tehisintellekti väljundite ja suurema süsteemi vahel, süsteemi jälgitavus, inimeste tähelepanu tase ja operaatorite võime AI tõrkeid parandada.
  • Maksimaalne kahju, mida AI kontrollitavate süsteemide pahatahtlik kasutamine võib põhjustada.
  • Komponentide sidumine tehisintellekti läheduses ja interaktsioonide keerukus.
  • Teadmiste lünk tehisintellekti ja muude kasutatud tehnoloogiate ning süsteemi energiataseme kohta.

Vean kihla, et selle kopsaka arutelu praegusel hetkel soovite mõningaid illustreerivaid näiteid, mis võiksid tehisintellektiga seotud õnnetuste teemat veelgi selgitada. Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Näete, et tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede eksperdina, palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi niinimetatud AI-õnnetuste tuleku kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on need, kus tehisintellekt juhib autot täiesti iseseisvalt ja juhtimisülesande täitmisel puudub inimabi.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

Tõelist isejuhtivat autot 5. tasemel veel ei ole ja me ei tea veel isegi, kas seda on võimalik saavutada või kui kaua selleni jõudmine aega võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja tehisintsidendid

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Usun, et see annab piisava hulga hoiatusi, mis on aluseks sellele, mida ma kavatsen seostada.

Oleme nüüd valmis sukelduma põhjalikult isejuhtivate autode ja eetiliste tehisintellekti võimalustesse, millega kaasnevad niinimetatud AI-õnnetused.

Kujutage ette, et teie naabruskonna tänavatel liigub tehisintellektil põhinev isejuhtiv auto ja tundub, et see sõidab ohutult. Algul olite erilist tähelepanu pööranud igale korrale, kui teil õnnestus isejuhtivale autole pilk peale visata. Autonoomne sõiduk paistis silma oma elektrooniliste andurite riiuliga, mis sisaldas videokaameraid, radariseadmeid, LIDAR-seadmeid ja muud sarnast. Pärast mitut nädalat isejuhtiva autoga teie kogukonnas ringi sõitmist märkate seda nüüd vaevu. Teie arvates on see lihtsalt üks auto niigi tiheda liiklusega avalikel teedel.

Et te ei arvaks, et isejuhtivate autode nägemisega on võimatu või ebausutav tutvuda, olen sageli kirjutanud sellest, kuidas isejuhtivate autode katsetamise piirkonnad on järk-järgult harjunud nägema ehitud sõidukeid. Paljud kohalikud elanikud suundusid lõpuks suu lõhki haigutava ülbe pilgutamise asemel igavusest haigutama, et olla tunnistajaks nende looklevatele isejuhtivatele autodele.

Tõenäoliselt on praegu peamine põhjus, miks nad võivad autonoomseid sõidukeid märgata, ärrituse ja ärrituse tõttu. Raamatus olevad AI-juhtimissüsteemid tagavad, et autod järgivad kõiki kiiruspiiranguid ja liikluseeskirju. Traditsioonilistes inimeste juhitavates autodes kirglikud inimjuhid ärrituvad mõnikord, kui jääte kinni rangelt seaduskuulekate tehisintellektil põhinevate isejuhtivate autode taha.

See on midagi, millega meil kõigil võib olla vaja harjuda, kas õigustatult või valesti.

Tagasi meie loo juurde.

Ühel päeval satub isejuhtiv auto avariisse.

Parempööret sooritades lõi tehisintellekti juhtimissüsteem autonoomset sõidukit laialt ja põrutas inimese juhitud auto. Inimese juhitud auto sõitis õigel teel otse edasi. Inimjuhil polnud erilist võimalust põiklemiseks või löögist hoidumiseks. Lisaks ei andnud isejuhtiv auto hoiatust ega viidet, et ta kavatseb laialdaselt parempööret sooritada.

Kas see on õnnetus?

Võime kindlasti öelda, et see kuulub tehisintellekti õnnetuse rubriiki. Sellise väite aluseks on see, et isejuhtiva auto roolis oli AI-juhtimissüsteem. Millegipärast otsustas AI mis tahes põhjustel parempööret tehes teha laia pöörde. Tulemus viis selleni, et isejuhtiv auto sõitis otsa inimese juhitud autole.

Tuletage meelde varasemat arutelu sõnaga "õnnetus" seotud konnotatsioonide üle ja vaadake, kuidas sellised alatoonid selles stsenaariumis mängivad. Samuti pidage meeles, et arutasime juhtumit, kus inimjuht tegi laia parempööret ja sõitis otsa kaasinimese juhitud autole. Mõistsime, et ettekujutus sellest, et see tegu on "õnnetus", on eksitav ja segadust tekitav. Laia hoo teinud inimjuht võis peituda mõtte taha, et juhtus lihtsalt õnnetus, mis oli näiliselt juhuslik või saatuse kapriis.

Selle asemel, et nimetada stsenaarium „AI-õnnetuseks”, kui tehisintellektil põhinev isejuhtiv auto sõidab laiali ja põrkab vastu inimese juhitud autot, peaksime ehk ütlema, et tegemist oli autoõnnetusega või auto kokkupõrkega, mis hõlmas isejuhtimist. sõiduauto ja inimese juhitud auto. Seejärel saame loobuda tühjast segadusest, et see on tundmatute vahendite õnnetus.

Milline oleks teie arvates avalikkuse reaktsioon juhtunule?

Noh, kui autotootja või isejuhtiv tehnoloogiaettevõte suudab asja õnnetuseks nimetada, võib neil olla võimalik ühiskonna laiemalt vastureaktsioone vältida. Võimalik, et kaastunne õnnetuste suhtes kandub üle konkreetsele asjaolule. Lisateavet selle kohta, kuidas linnad, maakonnad ja osariikide juhid potentsiaalselt reageerivad AI autonoomsete sõidukite vahejuhtumitele, vaadake Harvardi uuringu arutelu, mida ma juhtisin ja mida kirjeldati aadressil link siin.

Kui olukorda kirjeldatakse selgelt kui autoõnnetust või auto kokkupõrget, võib see võimaldada mõista, et keegi või miski on juhtunus süüdi. Põlvne reaktsioon võib olla see, et tehisintellekt tuleb vastutada. Asi on selles, et kuni või kui me kunagi otsustame teha tehisintellekti sarnase juriidilise isiku staatuse, ei saa te panna vastutust tehisintellektile kui sellisele (vt minu arutelu tehisintellekti ja juriidilise isiku kohta aadressil link siin).

Saame kontrollida tehisintellekti juhtimissüsteemi, et proovida välja selgitada, mis põhjustas näiliselt sobimatu sõidu ja sellele järgnenud autoõnnetuse. See ei tähenda siiski, et tehisintellekti hakatakse vastutama. Vastutavad osapooled on tehisintellekti arendajad, isejuhtiva auto pargi operaator jt. Lisan ka teisi, kuna on võimalus, et linn võib osaliselt vastutada selle nurga kujundamise eest, kus pööre toimus. Lisaks oletame, et jalakäija sööstis kurvist välja ja tehisintellekti juhtimissüsteem otsustas inimest vältida, kuid sattus autoõnnetusse.

Ja nii edasi.

Järeldus

Tahaksime teada, mida AI arvutuslikult arvutas ja milleks see oli programmeeritud. Kas AI tegi nii, nagu oli kodeeritud? Võib-olla avastas tehisintellekt programmeerimises vea või vea, mis ei vabanda toiminguid, kuid annab rohkem aimu krahhi tekkest.

Millised AI kaitsepiirded olid AI juhtimissüsteemi programmeeritud? Kui kaitsepiirded oleksid olemas, tahaksime välja mõelda, miks need ei takistanud autoõnnetust. Võib-olla oleks tehisintellekti juhtimissüsteem võinud pigem seiskuda, kui teha pööret. Tahaksime teada, milliseid alternatiive AI intsidendi käigus arvutuslikult hindas.

Lisaks konkreetse juhtumi põhjani jõudmisele on veel üks õigustatud küsimus, kas tehisintellekti juhtimissüsteemis on viga või mõni muu sisseehitatud aspekt, mis teeb sarnaseid negatiivseid tegusid. Sisuliselt võib see juhtum olla märk tulevaste sündmuste kohta. Kuidas kasutati arvutipõhiseid sõiduolukordade simulatsioone, et proovida ja ennetada seda tüüpi tehisintellekti juhtimissüsteemi õhutusi? Kas sõidutee katseid oli piisavalt, et selgitada välja tehisintellekti probleemid, mis võisid autoõnnetuseni viia?

See stsenaarium toob esile vaidlusaluse mõistatuse, mis seisab silmitsi tehisintellektil põhinevate isejuhtivate autode ilmumisega.

See käib nii.

Ühelt poolt on ühiskondlik soov isejuhtivad autod kiiresti kasutusele võtta, sest loodab, et tehisintellekti juhtimissüsteemid on sama turvalised või võib-olla ohutumad kui inimestest juhid. Ainuüksi USA-s hukkub igal aastal autoõnnetustes ligi 40,000 2.5 inimest ja vigastab umbes XNUMX miljonit inimest. Analüüsid näitavad, et suur osa nendest autoõnnetustest on tingitud inimlikest eksimustest, nagu joobes juhtimine, segane juhtimine jne (vt minu hinnangut sellisele statistikale aadressil link siin).

AI-juhtimissüsteemid ei joo ega sõida. Nad ei vaja puhkust ja nad ei väsi rooli istudes. Eelduseks on, et isejuhtivate autode kujundamisega elujõuliseks transpordiviisiks saame vähendada inimjuhtide arvu. See omakorda peaks tähendama, et vähendame iga-aastaseid autoõnnetustes hukkunute ja vigastuste arvu.

Mõned asjatundjad on öelnud, et meil pole surmajuhtumeid ja vigastusi ning need isejuhtivad autod on väidetavalt purunematud, kuid see on täiesti absurdne ja täiesti vale ootus. Olen selgitanud, miks see nii ebaviisakas on link siin.

Igal juhul oletagem, et meil juhtub teatud hulk autoõnnetusi, millesse satuvad isejuhtivad autod. Oletagem ka, et nende autoõnnetustega kaasneb teatud hulk hukkunuid ja vigastusi. Küsimus, mille üle piinatakse, on see, kas me ühiskonnana oleme üldse nõus selliseid juhtumeid taluma. Mõned ütlevad, et kui tõelise isejuhtiva auto tagajärjel juhtub kasvõi üks surmajuhtum või vigastus, tuleks kogu komplekt ja kaboodle sulgeda.

Vastukaaluks on seisukoht, et kui päästetud elud vähendavad aastaarvu, peaksime jätkama isejuhtivate autode tuleku soodustamist ja mitte reageerima nii ebaloogiliselt. Peame leppima eeldusega, et teatud hulk hukkunuid ja vigastusi on endiselt olemas, isegi isejuhtivate autode puhul, kuid siiski mõistma, et aastane arvu vähendamine viitab sellele, et oleme õigel teel.

Muidugi väidavad mõned, et meil ei tohiks avalikel teedel olla isejuhtivaid autosid enne, kui need on kas ulatuslike ja põhjalike arvutipõhiste simulatsioonide tulemusel või eraviisiliste suletud radade testimise tulemusena selliseks kasutamiseks lubatud. Vastuargument on see, et ainus elujõuline ja kiireim viis isejuhtivate autode liikuma panemiseks on avalike teede kasutamine ning et mis tahes viivitused isejuhtivate autode kasutuselevõtul lubavad vastasel juhul jätkuda inimeste juhitud autode kokkupõrgete kohutaval arvul. Olen seda arutelu oma veergudes pikemalt käsitlenud ja kutsun lugejaid üles neid arutelusid vaatama, et saada täielikku ülevaadet selle vastuolulise küsimuse vaatenurkadest.

Teeme nüüd asjad kokku.

AI õnnetused hakkavad juhtuma. Peame vastu panema impulsile tõlgendada tehisintellekti õnnetust näiliselt juhuslik ja ergo lasevad tegijatel ja tehisintellekti juurutajatel kategooriliselt eemale hoida.

Siin on veel üks pööre, mille jätan teile teie päeva viimase intrigeeriva mõttena.

Koomik Dane Cook rääkis väidetavalt autoõnnetuste kohta selle nalja: "Paar päeva tagasi sattusin autoõnnetusse. Pole minu süü. Isegi kui see pole sinu süü, astub teine ​​inimene oma autost välja ja vaatab sulle otsa, nagu see oleks sinu süü: Miks sa peatusid punase tule ees ja lasid mul sulle 80-ga maha lüüa!

Esiplaanile kerkib võimalus, et tehisintellekti süsteem võib nõuda, et kui selle konkreetse tehisintellektiga seotud õnnetus juhtub, teatab tehisintellekt, et intsident oli inimese ja kindlasti mitte tehisintellekti süü. Muide, see võib suurel määral tõsi olla ja inimene võib püüda tehisintellekti patuoinaks teha väitega, et see on AI süü.

Või äkki üritab AI inimest patuoinaks teha.

Näete, meie välja töötatud tehisintellekt võib sel viisil olla keeruline, kas juhuslikult või mitte.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-invitably-of-ai-accidents-which-looms-over-autonomous-self- autodega sõitmine ka/