Tehisintellekti eetika arutleb selle üle, kas lepitusfondide õiguslikult kohustuslikuks määramise eelised tagavad vastutuse AI halva käitumise eest

Kes on süüdi?

See võib tunduda otsekohene küsimus, kuigi legendaarse Abbotti ja Costello duo kuulsa komöödia puhul pesapallimeeskonna kohta võib "kes" olla segane. Võib-olla olete sellega ähmaselt tuttav Kes on esikohal koomiline rutiin, millest nad tegid läbi aegade ühe püsivaima sketši (spoileri hoiatus neile, kes pole seda kuulnud).

Abbott ütleb Costellole, et Who's on first, What's on teine ​​ja I Don't Know on kolmas. Kaval trikk seisneb selles, et esimene pesamees kannab nime Kes, teise keldri nimi on Mis ja kolmas Ma ei tea. Muidugi on neil fraasidel ka oma tavapärane tähendus ja seega võib Abbotti öeldu tõlgendamine olla täiesti segane. Tõepoolest, Costello esitab näiliselt kahjutu küsimuse, kes on esimene, millele vastus on kindlalt jah. Kuid Costello jaoks pole sellel mõtet, kuna ta ootas nime ja sai vastuseks hämmastava jah.

Kui tegemist on tehisintellekti (AI) tulekuga käiguvahetusega, siis üks ärevamaid küsimusi, mida pidevalt esitatakse, on see, kes või võib-olla mille eest vastutama hakatakse, kui tehisintellekt eksib.

Olen varem arutanud kriminaalvastutust selle eest, kui tehisintellekt viib kuritegelike tegudeni või võtab neid ette, vaadake minu kajastust aadressil link siin. Siin käsitlen ka tsiviilvastutust, näiteks seda, kelle või mille kohta võite kohtusse kaevata, kui tehisintellekt on teile valesti teinud. See on teema, mida ma siin arutlen. Sellel kõigel on olulised tehisintellekti eetilised kaalutlused. Minu jätkuva ja ulatusliku AI eetika ja eetilise tehisintellekti katvuse kohta vt link siin ja link siin, Ainult mõned nimed.

AI eetika ettekirjutused panevad meid valvsaks jääma. Tehisintellekti tehnoloogid võivad mõnikord olla hõivatud tehnoloogiaga, eriti kõrgtehnoloogia optimeerimisega. Nad ei pea tingimata arvestama suuremate ühiskondlike tagajärgedega. Asjakohase tehisintellekti loomiseks, sealhulgas (võib-olla üllataval või iroonilisel kombel) hinnata, kuidas tehisintellekti eetikat ettevõtted omaks võtavad, on oluline omada AI-eetikat ja teha seda tehisintellekti arendamise ja kasutamisega lahutamatult.

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Tegelikult hoiatavad nad ette, et kui me mõned neist tehisintellekti seadustest vastu võtame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid.

Käimas on tuline arutelu selle üle, kas olemasolevad seadused suudavad adekvaatselt käsitleda tehisintellektisüsteemide tekkimist kogu ühiskonnas. Juriidiline vastutus eeldab tavaliselt, et saate eeslile saba kinnitada, et määrata, kes vastutab kahjuliku käitumise eest. AI puhul võib olla üsna ebaselge tee, mis seob konkreetse isiku või isikud mõne kahjustava toimingu sooritanud tehisintellektiga. Tehisintellekt ei pruugi olla suures osas jälgitav AI koostanud allika või leiutajani.

Teine kaalutlus on see, et isegi kui tehisintellekti juured on kellegi tuvastatavad, on küsimus selles, kas isik või isikud ei võinud mõistlikult ette näha AI lõpptulemust. Ettenähtavuse tuum on õigusliku vastutuse hindamisel tavaliselt tähelepanuväärne tegur.

Teil võib tekkida kiusatus mõelda, et võite lihtsalt järgida tehisintellekti ennast ja nimetada AI juriidiliseks pooleks, kes vastutab või vastutab väidetava kahju eest. Üldiselt on juriidiline seisukoht, et tehisintellekt ei ole veel jõudnud juriidilise isiku tasemeni. Seega ei saa te rangelt võttes püüda teha tehisintellekti tasumist, vaid peate leidma inimesed, kes justkui kulisside taga hoobasid kasutasid (minu analüüsi AI juriidilise isiku staatuse kohta vt. link siin).

Kogu sellesse potentsiaalsesse juriidilisse sodi astub idee, mida kas lühiajaliselt või võib-olla pikaajaliselt võimaliku abinõuna ujutatakse. Mõte on selles, et võib-olla tuleks luua spetsiaalne kompensatsioonifond, et pakkuda rahalist abi neile, keda tehisintellekt on kahjustanud. Kui te ei saa muul viisil AI-l teile hüvitist saada ja te ei suuda tabada isikuid, kes peaksid arvatavasti vastutusele võtma, võib järgmine parim valik olla hüvitisfondi kasutamine, mille eesmärk on aidata neid, keda tehisintellekt kahjustab.

Selline fond sarnaneks omalaadse kindlustusvormiga, nagu öeldakse ühes mõtlemapanevas uurimistöös: „See oleks sisuliselt kindlustusmehhanism ebakindluse vastu: selge ja läbipaistev raamistik kiireks hüvitamiseks juhtudel, kui vastutuse hagi esitatakse. ebakindel või puudub edu väljavaade kahjustava käitumise ettenägematuse, kahju enda (liigi) või menetluse ülemääraste kulude ja/või keerukuse tõttu” (Olivia Erdelyi ja Gabor Erdelyi artikkel, „AI vastutusmõistatus Ja fondipõhine lahendus”, Tehisintellektiuuringute ajakiri, 2021).

Hüvitisfond oleks osa kõikehõlmavast tehisintellekti garantiiskeemist (AIGS) ja sellega kaasneksid mõned kerged muudatused kehtivates õiguslikku vastutust käsitlevates seadustes. Kerget puudutust oleks arvatavasti lihtsam ellu viia ja see ei nõuaks rasket juriidilist ja ühiskondlikku ängi, kui olemasolevates õigusrežiimides tehtaks rohkem sisikonda murravaid demonstratiivseid muudatusi. Uurijad: "See peegeldab meie veendumust, et vaatamata sellise kiirlahenduse atraktiivsusele - muutmata olemasolevate vastutuseeskirjade kohaldamine tehisintellektile või a protektsionistlikult motiveeritud range vastutuse kasutamine eesmärgiga kehtestada vastutus iga hinna eest ei ole õiged vastused kolmel põhjusel: esiteks, kui ignoreeritakse seda, et need reeglid on kohandatud erinevatele asjaoludele ja võivad seega olla tehisintellekti jaoks sobimatud, lähevad need vastuollu delikaatselt tasakaalustatud eesmärkidega. õigusliku vastutuse süsteem. Teiseks pärsivad nad tehisintellekti innovatsiooni, võttes kasutusele põhjendamatult karistava lähenemisviisi. Kolmandaks, alusetu range vastutuse kasutamine pigem hoiab dogmaatiliselt ebajärjekindlalt mööda prognoositavusest ja süüprobleemidest, mitte ei paranda neid” (nagu eespool viidatud dokumendis).

Argumendid selliste tehisintellekti kompensatsioonifondide poolt on järgmised:

  • Vähendab vajadust pikkade ja kulukate kohtuprotsesside järele, et tulla toime tehisintellekti tekitatud kahjudega
  • Kinnitab inimestele, et nad saavad tehisintellekti kasutada ja kahju korral hüvitist saada
  • Edendab tehisintellekti innovatsiooni, leevendades tehisintellekti uuendajate ees seisvat õiguslikku ebakindlust
  • Saab kasutusele võtta palju kiiremini kui olemasolevates seadustes ulatuslike muudatuste tegemine
  • Pakub suhteliselt selget abinõu, mis on usaldusväärne ja kergesti kättesaadav
  • Muu

Samal ajal ütlevad need, kes on AI kompensatsioonifondide lähenemisviisi vastu, järgmist:

  • Laske tehisintellekti tegijad liigselt eemale hoida ja lubage neil vastutusest kõrvale hiilida
  • Julgustab tehisintellekti tegijaid looma tehisintellekti, millel puudub kohusetundlik ohutus ja korralikud juhtimisseadmed
  • Võib ajendada inimesi valeväiteid tehisintellekti kahjustamisest, et nad saaksid raha kasutada
  • Hõlmab ja õõnestab tegelikku vajadust muuta meie seadusi põhjalikult, et AI piisavalt reguleerida
  • Võib muutuda bürokraatlikuks õudusunenäoks, mis takerdub ja raha kuritarvitab
  • Muu

Nagu võib näha, on selle vastuolulise idee pooldajaid ja vastaseid.

Teil oleks raske lühidalt välistada tehisintellekti kompensatsioonifondi kui potentsiaalset lähenemist kasvavatele muredele kahju tekitava tehisintellekti pärast. Ka pakutud lahendus pole slam dunk.

Üks seisukoht on, et tehisintellekti tegijad peaksid tehisintellekti väljatöötamisel ja levitamisel investeerima fondidesse raha. Seda võib tõlgendada teatud tasu või maksuna, mida nad peavad kandma osana oma tehisintellekti maailmale avaldamisest. Kuid kas see lisakulu võib potentsiaalselt pärssida idufirmade jõupingutusi, mis üritavad nihutada tänapäeva tehisintellekti piire? Ja kuidas käsitletaks jõustamist, mis tagab, et tehisintellekti tegijad tasuks tasu või maksu?

Tekib hulk küsimusi ja need tuleks välja mõelda:

  • Millistes riikides oleks tehisintellekti kompensatsioonifond kõige paremini teostatav?
  • Kas oleks võimalik luua ülemaailmne sarnane tehisintellekti kompensatsioonifond?
  • Millised oleksid selliste fondidega seotud üksikasjalikud ja toimivad mehhanismid?
  • Kuidas rahastatakse tehisintellekti kompensatsioonifonde (avalik, era, heategevuslik)?
  • Kas see oleks süüvaba kindlustus või tuleks võtta mõni muu lähenemisviis?
  • Jne

Valdkond, kus AI kompensatsioonifondide idee on juba kasutatud, koosneb autonoomsetest süsteemidest, nagu autonoomsed sõidukid ja isejuhtivad autod. Isejuhtivate autode ja AI autonoomsete süsteemide kohta vaadake teavet link siin.

Siin on visand selle kohta, kuidas see AI-põhiste isejuhtivate autode puhul toimida võiks.

Oletame, et isejuhtiv auto sõidab otsa rattasõitjale. Jalgrattur sai viga. Jalgrattur võib taotleda õiguskaitset autonoomse sõiduki autotootja poole pöördudes. Või võivad nad olla suunatud isejuhtivale tehnoloogiaettevõttele, kes valmistas tehisintellekti juhtimissüsteemi. Kui isejuhtivat autot kasutatakse autopargina, oleks teine ​​seaduslik võimalus autopargi operaatoriga tegeleda. Tehisintellekti kohtusse kaevamine ei ole praegu võimalik, kuna tehisintellekti juriidiline isik ei ole veel kindlaks tehtud.

Selle asemel, et võtta nende osapoolte vastu õiguslikke meetmeid, oleks teine ​​võimalus esitada taotlus või nõue sobivale tehisintellekti hüvitamise fondi. Fond oleks vormistanud protsessid, mis hõlmavad nõude läbivaatamist, ja seejärel otsustanud, mis juhul, kui nõude esitajale võidakse maksta hüvitist. Võib esineda apellatsioonimenetlus, mis aitab taotlejaid, kes arvavad, et fond keeldus neile ekslikult või ei hüvitanud neile piisavalt.

Teoreetiliselt oleks tehisintellekti kompensatsioonifond palju kiirem viis tekitatud kahju eest hüvitise saamiseks. Võite ette kujutada, kui töömahukas võib olla kohtuasi, mille käigus kohtusse kaevatud ettevõtted võivad proovida juhtumit venitada.

Advokaadid võiksid siiski rõhutada, et tehisintellekti kompensatsioonifond võib võimaldada neil teistel osapooltel, näiteks tehisintellekti tegijatel, näiliselt vältida mis tahes selget karistust selle eest, et nad lasid avalikel teedel oma isejuhtiva auto lahti, mis lõppes jalgratturi tabamisega. Mida võiksid need ettevõtted "hooletult" teha? Ilma nende peade kohal rippuva seadusliku mõõga ähvardava tondita võiksime leida end iga päev silmitsi tehisintellektiga, mis on tulvil ohustavaid võimeid.

Vaidlused käivad ringi ja ümber.

Järeldus

AI Ethics tuletab meile meelde, et peaksime alati arvestama tehisintellekti eetiliste ja juriidiliste tagajärgedega. Antud tehisintellekti kompensatsioonifondide puhul tundub väljapakutud idee kindlustustaolisest rahakogumist tehisintellekti poolt kahjustatud isikute hüvitamiseks ahvatlev. Näiliselt ootavad rahalised vahendid seal, valmis ära kasutama ja tagaksid võimalikult kiiresti hüvitise.

Kompromiss, kas see võib avada lüüsid üha vähemate ohutuskontrolliseadmetega tehisintellekti loomisele, on hirmutav ja liigagi tõsine probleem. Tõenäoliselt ei pea me õli valama tulekahjule, mis võib-olla juba on käimas.

Kas suudame kuidagi ikkagi sundida tehisintellekti tegijaid välja töötama sobiva eetilise tehisintellekti ja samaaegselt looma need AI kompensatsioonifondid?

Mõni ütleks, et jah, saame küll. Olemasolevate seaduste ümberkorraldamisel tehisintellekti hüvitisfondidega vastavusse viimisel oleks tehisintellekti poolt kahjustatud isikutel potentsiaalselt kaks võimalust õiglast hüvitist taotleda.

Kes on esimene?

Jah, just see on see, kes (nagu meis kõigis) esmapilgul, et peaksime mõtlema tehisintellekti kompensatsioonifondide võimaliku kasutamise üle ja muutma olemasolevaid seadusi, isegi kui seda vaid kergelt, pakkudes vahendit nii hea tehisintellekti kui ka hea tehisintellekti pealetungi vastu. halb AI.

Selles olulises kaalutluses pole segadust.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- vastutus/