AI eetika ja tehisintellekti seadus, mis selgitab, mis on tegelikult usaldusväärne tehisintellekt

Usaldus on kõik, nii öeldakse.

Tuntud filosoof Lao Tzu ütles, et neid, kes piisavalt ei usalda, ei usaldata. Lugupeetud romaanikirjanik Ernest Hemingway nentis, et parim viis teada saada, kas saad kedagi usaldada, on teda usaldada.

Vahepeal tundub, et usaldus on nii väärtuslik kui ka habras. Usaldus, mis inimesel on, võib kokku kukkuda nagu kaardimajake või ootamatult lõhkeda nagu hüppanud õhupall.

Vana-Kreeka tragöödia Sophokles väitis, et usaldus sureb, kuid umbusaldus õitseb. Prantsuse filosoof ja matemaatik Descartes väitis, et on mõistlik mitte kunagi täielikult usaldada neid, kes on meid kas või korra petnud. Miljardärist äriinvestor erakorraline Warren Buffett manitses, et usaldusväärse maine loomiseks kulub kakskümmend aastat ja selle hävitamiseks viis minutit.

Võite olla üllatunud, kui teate, et kõik need erinevad seisukohad ja provokatiivsed arvamused usalduse kohta on tehisintellekti (AI) tulekuks üliolulised.

Jah, on midagi ägedalt viidatud usaldusväärne AI mis pälvib tänapäeval palju tähelepanu, sealhulgas tehisintellekti valdkonnast pärinevad käega keerutavad kõned ja ka AI valdkonda mittekuuluvate inimeste tormilised puhangud. Üldine arusaam hõlmab seda, kas ühiskond on valmis usaldama selliseid AI-süsteeme või mitte.

Arvatavasti, kui ühiskond ei usalda või ei saa AI-d usaldada, on tõenäoline, et AI-süsteemidel ei õnnestu veojõudu saada. AI, nagu me seda praegu teame, lükatakse kõrvale ja kogub ainult tolmu. Šokeerival kombel võib AI sattuda rämpsuhunnikusse, mis on ajalooliselt taandunud vaid meeleheitlikult proovitud, kuid suurejooneliselt läbikukkunud kõrgtehnoloogiliseks katseks. Kõik jõupingutused tehisintellekti taaselustamiseks seisavad potentsiaalselt silmitsi tohutu võitlusega ülesmäge ning peatavad kõikvõimalikud vastuväited ja otsesed protestid. Nähtavasti AI vastu usalduse puudumise tõttu.

Mis see saab olema, kas me usaldame tehisintellekti või mitte?

Sisuliselt, kas meil on tõesti usaldusväärne AI?

Need on kunagised ja lahendamata küsimused. Pakime lahti.

AI eetika ja võitlus usaldusväärse AI nimel

Paljud AI-s usuvad, et tehisintellektisüsteemide arendajad saavad AI vastu usaldust koguda, töötades välja usaldusväärse tehisintellekti. Sisuliselt on see, et te ei saa loota usaldust võita, kui tehisintellekt ei ole alguses usaldusväärne. Luues tehisintellektisüsteemid viisil, mida peetakse usaldusväärseks, on suur võimalus, et inimesed aktsepteerivad tehisintellekti ja võtavad selle kasutusele.

Üks mure, mis selle usaldusväärse tehisintellekti kaalutluse pärast juba näägutab, on see, et me võime juba olla a avaliku usalduse defitsiit kui tegemist on AI-ga. Võib öelda, et juba nähtud tehisintellekt on augu kaevanud ja tohututes kogustes usaldust lõhkunud. Seega, selle asemel, et alustada piisavast usaldusväärsuse baasist, peab tehisintellekt hämmastavalt defitsiidist välja ronima, püüdes iga soovitud untsi täiendavat usaldust, mida on vaja inimeste veenmiseks, et tehisintellekt on tegelikult usaldusväärne.

Sellesse väljakutsesse tulevad AI eetika ja AI seadus.

AI Ethics ja AI Law näevad suuri raskusi, püüdes välja selgitada, mida on vaja tehisintellekti usaldusväärseks muutmiseks. Mõned arvavad, et on olemas valem või raudsed seadused, mis viivad tehisintellekti usaldusväärsesse taevasse. Teised märgivad, et ühiskonna ülisuure usalduse saamiseks on vaja rasket tööd ning järjekindlat ja lakkamatut järgimist tehisintellekti eetika ja tehisintellekti seaduse põhimõtetest.

Kaasaegne mõistatus AI vastu usaldamise kohta ei ole iseenesest eriti uus.

Saate hõlpsasti minna tagasi 1990. aastate lõppu ja jälgida nendest päevadest otsitud „usaldusväärse andmetöötluse“ soovi tekkimist. See oli laiaulatuslik tehnoloogiatööstuse jõupingutus, et teha kindlaks, kas arvuteid saab valmistada viisil, mida ühiskond peaks usaldusväärseks.

Põhiküsimused koosnesid:

  • Kas arvutiriistvara saaks muuta selliseks, et see oleks usaldusväärne?
  • Kas tarkvara saab luua nii, et see oleks usaldusväärne?
  • Kas saaksime panna paika ülemaailmse võrguga arvutid, mis oleksid usaldusväärsed?
  • Ja nii edasi.

Toona ja tänapäevani on levinud arvamus, et usaldusväärne andmetöötlus jääb püha graali tüübiks, mis pole kahjuks ikka veel päris käeulatuses (nagu märgitakse artiklis "Usaldusväärne tehisintellekt" ACM-i side). Võite veenvalt väita, et tehisintellekt on järjekordne andmetöötluse usaldusväärsuse ümbriku komponent, kuid AI muudab usalduse otsimise veelgi keerulisemaks ja ebakindlamaks. AI-st on saanud potentsiaalne spoiler võitluses usaldusväärse andmetöötluse saavutamise nimel. Võimalik, et ahela nõrgim lüli.

Heidame kiire pilgu sellele, miks tehisintellekt on meie ebausaldusväärseks muutumise pärast pahameelt tekitanud. Lisaks uurime tehisintellekti eetika põhimõtteid, mis loodetavasti aitavad toetada juba pooleldi veealust tajutavat usaldust (või pulbitsevat usaldamatust) tänapäeva tehisintellekti vastu. Minu jätkuva ja ulatusliku AI eetika kajastuse kohta vt link siin ja link siin, Ainult mõned nimed.

Üks konkreetne AI eetika segment või osa, mis on pälvinud palju meedia tähelepanu, koosneb tehisintellektist, millel on ebasoodsad eelarvamused ja ebavõrdsused. Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Seoses sellega pooldan ma AI kasutamist tehisintellekti hädade lahendamise osana, võitledes tulega sellisel mõtteviisil. Näiteks võime manustada eetilised tehisintellekti komponendid tehisintellektisüsteemi, mis jälgib, kuidas ülejäänud AI asju teeb ja võib seega reaalajas tabada mis tahes diskrimineerivaid jõupingutusi, vt minu arutelu aadressil link siin. Meil võiks olla ka eraldi AI-süsteem, mis toimiks teatud tüüpi tehisintellekti eetikamonitorina. Tehisintellekti süsteem toimib järelevaatajana, et jälgida ja tuvastada, millal mõni teine ​​tehisintellekt läheb ebaeetilist kuristikku (vt minu analüüsi selliste võimaluste kohta link siin).

Mõne hetke pärast jagan teiega mõningaid AI eetika üldpõhimõtteid. Selliseid nimekirju vedeleb siin-seal palju. Võib öelda, et universaalse veetluse ja üksmeele ainsat loetelu pole veel olemas. See on kahetsusväärne uudis. Hea uudis on see, et vähemalt AI eetika loendid on hõlpsasti kättesaadavad ja need kipuvad olema üsna sarnased. Kokkuvõttes viitab see sellele, et teatud tüüpi põhjendatud lähenemise kaudu leiame tee AI-eetika üldise sarnasuse poole.

Esiteks käsitleme lühidalt mõningaid üldisi eetilisi tehisintellekti ettekirjutusi, et illustreerida, mis peaks olema AI loomisel, väljatöötamisel või kasutajal ülioluline kaalutlus.

Näiteks nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimekust arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvatest ja auditeeritavatest metoodikatest, andmeallikatest ning kavandamisprotseduuridest ja dokumentatsioonist.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade väljaselgitamine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas kui tehisintellekti kodeerimisel peab olema tõeline kumm, mis teega kokku puutub, on olukord palju keerulisem.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendustegevust, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaline eeldus on, et tehisintellekti eetika põhimõtetest peavad kinni pidama ainult kodeerijad või need, kes programmeerivad tehisintellekti. Nagu varem öeldud, on tehisintellekti väljatöötamiseks ja väljatöötamiseks vaja küla, mille jaoks kogu küla peab olema kursis ja järgima tehisintellekti eetika ettekirjutusi.

Teeme ka kindlaks, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem (minu üliintelligentse tehisintellekti kui võimaluse uurimist vt. katvus siin).

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Seome selle küsimusega usaldusväärse AI kohta

Kindlasti ei paista me olevat valmis usaldama tehisintellekti, mis näitab ebasoodsaid eelarvamusi ja diskrimineerivaid tegevusi. Sel juhul usume, et selline tehisintellekt pole kindlasti usaldusväärne, seega kalduksime tehisintellekti aktiivselt umbusaldama. Ilma antropomorfse võrdlusega liiale minemata (räägin kohe lähemalt tehisintellekti antropomorfiseerimisest), võidakse ebausaldusväärseks hinnata ka inimest, kellel on ebasoodsad eelarvamused.

Usaldusse ja usaldusväärsusse süvenemine

Võib-olla peaksime vaatama, mida me mõtleme, kui väidavad, et me usaldame või ei usalda kedagi või midagi. Esiteks kaaluge mitut usalduse igapäevast sõnastikust definitsiooni.

Näited selle kohta, mida usaldus definitsiooniliselt tähendab, on järgmised:

  • Kindel toetumine kellegi või millegi iseloomule, võimetele, tugevusele või tõele (Merriam-Websteri veebisõnastik).
  • Toetumine inimese või asja terviklikkusele, tugevusele, võimetele, käendusele jne (Dictionary.com)
  • Kindel usk kellegi või millegi usaldusväärsusse, tõesse, võimetesse või tugevusse (Oxfordi keelte veebisõnastik).

Tahaksin märkida, et kõik need määratlused viitavad "kellegile" ja viitavad ka "millelegi" potentsiaalselt usaldusväärsele. See on märkimisväärne, kuna mõned võivad väita, et usaldame ainult inimesi ja et usaldamine on reserveeritud ainult inimkonnale kui meie usaldusväärsuse sihtmärgile. Mitte nii. Võite oma köögirösterit usaldada. Kui tundub, et see valmistab teie röstsaia usaldusväärselt ja töötab selle nimel rutiinselt, võite kindlasti usaldada, kas röster on tõesti usaldusväärne.

Sama mõtteviisi kohaselt võib tehisintellekt olla ka meie usalduse vaatenurga teema. Tõenäoliselt on AI-ga seotud usaldus palju keerulisem kui näiteks tavaline röster. Röster suudab tavaliselt teha vaid käputäie toiminguid. AI-süsteem on tõenäoliselt palju keerulisem ja näib töötavat vähem läbipaistvalt. Meie võime AI usaldusväärsust hinnata ja kindlaks teha on kindlasti palju raskem ja pakub erinevaid väljakutseid.

Lisaks sellele, et tüüpiline AI-süsteem on keerulisem, on see väidetavalt mittedeterministlik ja potentsiaalselt isereguleeruv või isereguleeruv. Võime seda mõistet lühidalt uurida.

Deterministlik masin kipub tegema samu asju ikka ja jälle, etteaimatavalt ja elujõuliselt märgatava töömustriga. Võiksite öelda, et tavaline röster röstib ligikaudu samamoodi ja sellel on röstimise juhtseadised, mis röstimist mõõdukalt reguleerivad. Kõik need asjad on röstrit kasutava inimese jaoks üldiselt etteaimatavad. Seevastu keerukad AI-süsteemid on sageli välja töötatud mittedeterministlikuks, mis tähendab, et nad võivad teha hoopis teistsuguseid asju kui muidu oleks oodanud. Seda võib osaliselt veelgi võimendada, kui tehisintellekt on kirjutatud isereguleeruma – aspekt, mis võib soodsalt võimaldada tehisintellektil ML/DL-i puhul paraneda, kuid võib häirivalt põhjustada ka tehisintellekti tõmblemist või auastmetesse tõusmist. AI halbusest. Võib-olla te ei tea, mis teid tabas, kuna AI tegevus tabas teid täiesti valveta.

Mida võiksime teha, et teha tehisintellekti usaldusväärsusele lähemale?

Üks lähenemisviis seisneb selles, et püütakse tagada, et tehisintellekti loojad ja väljastajad järgiksid AI eetika ettekirjutusi. Nagu need tehisintellekti teadlased mainisid: "Usaldus on suhtumine, et agent käitub ootuspäraselt ja et tema peale saab oma eesmärgi saavutamisel loota. Usaldus puruneb pärast viga või arusaamatust agendi ja usaldava isiku vahel. Tehisintellekti usaldatav psühholoogiline seisund on keerulise süsteemi esilekerkiv omadus, mis tavaliselt hõlmab paljusid projekteerimise, väljaõppe, juurutamise, jõudluse mõõtmise, reguleerimise, ümberkujundamise ja ümberõppe tsükleid” (näidatud ACM-i side, Stuart Middletoni, Emmanuel Letouze'i, Ali Hossaini ja Adriane Chapmani „Usaldus, reguleerimine ja inimlik tehisintellekt Euroopa regioonis”, aprill 2022).

Sisu on selles, et kui suudame tehisintellekti arendajad eetilisest tehisintellektist kinni pidada, toodavad nad loodetavasti usaldusväärset tehisintellekti. See kõik on hea, kuid reaalses maailmas tundub see mõnevõrra ebapraktiline, kuigi see on absoluutselt tee, mida tasub järgida.

Siin on, mida ma mõtlen.

Oletame, et tehisintellekti arendajad teevad hoolsalt tööd, luues tehisintellektisüsteemi mingil eesmärgil, mida me üldiselt nimetame X-ks. Nad tagavad hoolikalt, et tehisintellekt järgib tehisintellekti eetika läbipaistvuse eeskirju. Nad tagavad innukalt, et privaatsus oleks tehisintellekti sobivalt sisse ehitatud. Peaaegu kõigi tavapäraste tehisintellekti eetika põhimõtete puhul tagavad tehisintellekti koostajad täielikult, et tehisintellekt vastab antud ettekirjutusele.

Kas peaksite nüüd seda AI-d usaldama?

Lubage mul aidata teie mõtteid selle avatud küsimusega läbi viia.

Selgub, et küberkelmidel õnnestus AI-sse imbuda ja vargsi panna tehisintellekt X-i sooritama ning samas anda küberhäkkeritele ette kõik andmed, mida tehisintellekt kogub. Seda tehes alandavad need kurjategijad salakavalalt privaatsuseeskirju. Te ei tea õndsalt, et see toimub tehisintellekti kapoti all.

Selle lisatud teabega esitan teile sama küsimuse uuesti.

Kas usaldate seda tehisintellekti?

Julgen väita, et enamik inimesi kinnitaks kohe, et nad seda kindlasti teevad mitte usaldage seda konkreetset AI-d. Nad võisid seda varem usaldada. Nüüd ei pea nad tehisintellekti enam usaldusväärseks.

Mõtisklemist väärivad mõned sellel lihtsal näitel põhinevad peamised arusaamad:

  • Usalduse dünaamika. Isegi parimad kavatsused hõlmata kõiki aluseid, mis tagavad, et tehisintellekti eetika on AI-süsteemi sisse ehitatud, ei garanteeri, milliseks tehisintellekt võib osutuda või milliseks saada. Kui tehisintellekt on kasutusele võetud, võivad kõrvalised isikud potentsiaalselt õõnestada eetilisi tehisintellekti kogunemisi.
  • Usalduse allahindlus seestpoolt. Usaldusväärsuse alandamise tegu ei pea tingimata olema kõrvalised isikud. Insaider, kes tegeleb tehisintellekti süsteemi korrapärase hooldusega, võib eksida ja nõrgendada tehisintellekti vähem usaldusväärseks. See tehisintellekti arendaja ei pruugi olla teadlik sellest, mida nad on teinud.
  • Usalduse tahtmatud kompromissid. Isereguleeruv või isereguleeruv tehisintellekt võib mingil hetkel end kohandada ja sattuda ebausaldusväärsele territooriumile. Võib-olla püüab tehisintellekt tugevdada tehisintellekti läbipaistvust, kuid rikub samal ajal ja sobimatult privaatsuse aspekte.
  • Usalduse hajumine. Kõigi tehisintellekti eetika põhimõtete sama suure usaldusväärsuse saavutamine ei ole tavaliselt elujõuline, kuna neil on sageli risteesmärke või neil on muid võimalikke konflikte. Üsna idealiseeritud perspektiiv on uskuda, et kõik eetilised tehisintellekti ettekirjutused on unenäoliselt joondatud ja kõik saavutatavad mingil võrdsel maksimaalsel määral.
  • Usalduse saavutamine võib olla kulukas. Usaldusväärse tehisintellekti tipptasemel välimuse saavutamise kulud erinevate ulatuslike ja põhjalike sammude läbimise ning tehisintellekti eetika põhimõtete järgimise kaudu on suhteliselt suured. Võite kergesti väita, et mõne AI-süsteemi kasutuselevõtmine, millel on muidu ühiskonna jaoks oluline väärtus, oleks kulukas, isegi kui tehisintellekt oli usaldusväärsuse soovist vähem kui ideaalne.
  • Ja nii edasi.

Ärge tõlgendage eelmisi märkusi valesti, viidates sellele, et peaksime kuidagi ära hoidma pingutusi usaldusväärse AI põhjalikuks ülesehitamiseks ja väljatöötamiseks. Üldiselt viskate lapse vanniveega välja. Õige tõlgendus on see, et me peame tegema neid usalduslikke tegevusi, et teha tehisintellekti usaldusväärseks kaalutluseks, ja ometi ei ole see üksi ravi ega hõbekuuli.

Mitmeharulised teed usaldusväärse AIni

Usaldusväärse tehisintellekti poole püüdlemiseks on veel olulisi ja mitmekülgseid viise.

Näiteks, nagu ma olen oma veergudel varem käsitlenud, on paljude uute tehisintellekti puudutavate seaduste ja määruste eesmärk suunata tehisintellekti tegijaid usaldusväärse tehisintellekti väljatöötamise poole, vt. link siin ja link siin.

Need seaduslikud kaitsepiirded on üliolulised kui kõikehõlmavad vahendid tagamaks, et tehisintellekti väljatöötajad oleksid oma tehisintellekti eest täielikult vastutavad. Ilma selliste võimalike õiguskaitsevahendite ja seaduslike karistusteta jätkavad need, kes tehisintellekti turule tormavad, seda tõenäoliselt vähe kui üldse tõsiselt kaaludes usaldusväärse tehisintellekti saavutamise poole. Võin eriti lisada, et kui need seadused ja eeskirjad on halvasti läbi mõeldud või ebapiisavalt rakendatud, võivad need kahetsusväärselt kahjustada usaldusväärse AI poole püüdlemist, võib-olla iroonilisel ja kummalisel kombel soodustades ebausaldusväärset tehisintellekti usaldusväärse AI asemel (lisateavet leiate minu veergude aruteludest).

Olen ka olnud kindel selle eestkõneleja, millele olen tulihingeliselt viitanud AI kaitseingli robotid (vaata minu kajastust aadressil link siin). See on tulevane meetod või lähenemine tulega võitlemiseks, nimelt tehisintellekti kasutamine, et aidata meil toime tulla teiste tehisintellektidega, mis võivad olla usaldusväärsed või mitte.

Esiteks on kasulik taustakontekst.

Oletame, et otsustate toetuda AI-süsteemile, mille usaldusväärsuses te pole kindel. Peamine probleem võib olla see, et olete üksi oma katsetes välja selgitada, kas tehisintellekti tuleb usaldada või mitte. AI on potentsiaalselt arvutuslikult kiirem kui teie ja võib teid ära kasutada. Teil on vaja kedagi või midagi teie kõrval, et aidata.

Üks vaatenurk on see, et alati peaks olema ahelas inimene, kes aitab teid AI-süsteemi kasutamisel. See on siiski problemaatiline lahendus. Kui tehisintellekt töötab reaalajas, millest me AI-põhiste isejuhtivate autode tulekuga seoses kohe arutame, ei pruugi inimese ahelas olemisest piisata. Tehisintellekt võib tegutseda reaalajas ja selleks ajaks, kui määratud in-the-loop pildile siseneb, et mõista, kas tehisintellekt töötab korralikult, võib olla juba toimunud katastroofiline tulemus.

Kõrvalepõikena toob see esile veel ühe usalduse teguri. Tavaliselt määrame usaldustaseme konteksti või asjaolude põhjal, millega silmitsi seisame. Võite täielikult usaldada, et teie väikelapse poeg või tütar on teile truu, kuid kui olete matkamas ja otsustate loota, et väikelaps ütleb teile, kas kalju servale astumine on ohutu, oleksite minu arvates tark kaaluda, kas väikelaps saab anda sellist elu või surma nõuannet. Laps võib seda teha tõsiselt ja siiralt, kuid sellest hoolimata ei suuda ta seda nõu anda.

AI puhul seostatakse sama mõistet usaldusega. AI-süsteem, mida kasutate kabe või male mängimiseks, ei ole tõenäoliselt seotud elu või surma üle arutlemisega. Saate oma usaldusülesannete täitmisel kergemini hakkama saada. Tehisintellektil põhinev isejuhtiv auto, mis sõidab suurel kiirusel mööda maanteed, nõuab palju tugevamat usaldust. Tehisintellekti juhtimissüsteemi vähimgi tõrge võib viia otse teie ja teiste surmani.

Ülemaailmse Deloitte AI Instituudi tegevdirektori ja raamatu autori Beena Ammanathi avaldatud intervjuus Usaldusväärne AI, samasugune rõhk AI usaldusväärsuse kontekstipõhiste aspektide arvestamisel: „Kui loote AI-lahendust, mis teeb patsiendi diagnoosi, on õiglus ja erapoolik ülimalt olulised. Kui aga koostate algoritmi, mis ennustab reaktiivmootori riket, pole õiglus ja erapoolik nii olulised. Usaldusväärne tehisintellekt on tõesti struktuur, mis paneb sind mõtlema usalduse mõõtmetele oma organisatsiooni sees” (VentureBeat, 22. märts 2022).

Usaldusväärse AI üle arutledes saate seda teemat tõlgendada mitmel viisil.

Näiteks usaldusväärne AI on midagi, mida me kõik peame ihaldusväärseks ja püüdlevaks eesmärgiks, nimelt peaksime tahtma välja töötada ja levitada usaldusväärset tehisintellekti. Märglausel on veel üks kasutusala. Mõnevõrra alternatiivne kasutus on see usaldusväärne AI on seisundi või mõõtmise olek, nii et keegi võib väita, et on loonud tehisintellektisüsteemi, mis on usaldusväärse AI näide. Võite kasutada ka väljendit usaldusväärne AI soovitada meetodit või lähenemisviisi, mida saab kasutada tehisintellekti usaldusväärsuse saavutamiseks. Jne.

Seoses sellega loodan, et mõistate, et kõik tehisintellektid ei ole ühesugused ja et me ei tohiks teha üldisi väiteid kogu tehisintellekti kohta. Konkreetne AI-süsteem erineb tõenäoliselt oluliselt teisest AI-süsteemist. Üks neist tehisintellektisüsteemidest võib olla väga usaldusväärne, teine ​​aga väheusaldusväärne. Olge ettevaatlik, eeldades, et AI on monoliit, mis on kas täiesti usaldusväärne või täiesti ebausaldusväärne.

See lihtsalt ei ole nii.

Järgmisena tahaksin lühidalt käsitleda mõnda oma käimasolevat usaldusväärset tehisintellekti käsitlevat uurimistööd, mis võivad teile huvi pakkuda, hõlmates AI kaitseingli robotid.

See käib järgmiselt.

Oleksite relvastatud AI-süsteemiga (AI kaitseingli robot), mis on loodud mõne teise tehisintellektisüsteemi usaldusväärsuse hindamiseks. Tehisintellekti kaitseingli bot keskendub teie turvalisusele. Mõelge sellele nii, nagu oleks teil olemas vahendid kasutatava tehisintellekti jälgimiseks, kui teil on taskus erinev tehisintellekti süsteem, mis võib-olla töötab teie nutitelefonis või muudes sellistes seadmetes. Teie vanasõnaline tehisintellekti eestkostja saab arvutada selle põhjal, et tehisintellekt, millele te toetute, teeb seda ka, töötades suurel kiirusel ja arvutades reaalajas välja olukorra, palju kiiremini, kui ahelas olev inimene seda teha suudaks.

Võite esmapilgul mõelda, et tehisintellektil, millele te juba tuginete, peaks olema sisemine AI kaitsepiirded, mis teevad sama, mis see eraldi arvutav AI kaitseingli bot. Jah, seda oleks kindlasti soovitav. Üks puudus on see, et tehisintellekti süsteemi sisseehitatud tehisintellekti kaitsepiirded võivad olla terviklikult ja kahjustavalt joondatud tehisintellektiga per se, mistõttu oletatav tehisintellekti kaitsepiire ei suuda enam teatud mõttes iseseisvalt AI-d kontrollida või kinnitada.

Kontrastne idee on see, et teie tehisintellekti kaitseingli robot on sõltumatu või kolmanda osapoole AI mehhanism, mis erineb teie kasutatavast tehisintellektist. See asub väljaspool teist tehisintellekti, olles pühendunud teile, mitte aga jälgitavale või hinnatavale tehisintellektile.

Arusaadavat vahendit selle üle mõtlemiseks saab väljendada järgmiste lihtsustatud võrranditaoliste väidete kaudu. Võime öelda, et "P" soovib potentsiaalselt usaldada "R" konkreetse ülesande "X" täitmist:

See oleks järgmine, kui kaasatud on ainult inimesed:

  • Isik P usaldab isikut R ülesande X täitma.

Kui otsustame tugineda tehisintellektile, kujundatakse avaldus ümber järgmiselt:

  • Isik P usaldab AI eksemplari R-i ülesande X täitmisel.

Saame lisada tehisintellekti kaitseingli roboti, öeldes järgmist:

  • Isik P usaldab AI eksemplari-R ülesande X täitmist, kuna teda jälgib tehisintellekti kaitseingli roboti eksemplar-Z

Tehisintellekti kaitseingli bot hindab väsimatult ja järeleandmatult tehisintellekti, millele te toetute. Seetõttu võib teie käepärane tehisintellekti eestkostja teid hoiatada, et selle teise tehisintellekti usaldus on põhjendamatu. Või võib tehisintellekti eestkostja elektrooniliselt suhelda teise tehisintellektiga, et püüda tagada, et kõik kõrvalekalded usaldusväärsusest kõrvaldatakse kiiresti ja nii edasi (vt minu kajastust selliste üksikasjade kohta aadressil link siin).

Usaldusväärse usaldusreservuaari metafoor

Kuna arutleme usalduse erinevate tasemete üle, võite leida kasuliku metafoori usaldusväärsuse kohta, kui käsitlete usaldust teatud tüüpi reservuaarina.

Te usaldate teatud isikut või asja konkreetses olukorras teatud ajahetkel. Usalduse tase tõuseb või langeb, sõltuvalt sellest, mis selle konkreetse inimese või asjaga veel juhtub. Usaldus võib olla nulltasemel, kui teil puudub inimese või asja suhtes igasugune usaldus. Usaldus võib olla negatiivne, kui julgete selle inimese või asja suhtes umbusaldada.

Tehisintellektisüsteemide puhul suureneb või langeb teie usaldusreservuaar konkreetse tehisintellekti suhtes, millele te konkreetses olukorras tuginete, sõltuvalt sellest, kas te hindate tehisintellekti usaldusväärsust. Mõnikord võite olla teadlik sellest erinevast usalduse tasemest tehisintellekti suhtes, samas kui teistel juhtudel võite olla vähem teadlik ja seda rohkem, kui aimate usaldusväärsuse kohta hinnanguid teha.

AI usaldustaseme tõstmise viisid, mida me siin arutanud oleme, on järgmised:

  • AI eetika järgimine. Kui tehisintellekt, millele tuginete, töötati välja, püüdes järgida õigeid tehisintellekti eetika ettekirjutusi, kasutaksite seda arusaama tõenäoliselt selle konkreetse AI-süsteemi usaldusreservuaari taseme tõstmiseks. Vahemärkusena on ka võimalik, et võite üldistada ka teistele tehisintellektisüsteemidele nende usaldusväärsuse osas, kuigi see võib mõnikord olla eksitav vorm sellest, mida ma nimetan. AI usaldusaura levib (olge seda tehes ettevaatlik!).
  • Kasutage inimahelat. Kui tehisintellektil on in-the-loop inimene, võite positiivselt suurendada oma tajutavat usaldust tehisintellekti vastu.
  • Seadused ja määrused. Kui seda tüüpi tehisintellektiga on seotud seadused ja eeskirjad, võite samuti oma usaldustaset tõsta.
  • Kasutage tehisintellekti kaitseingli robotit. Kui teil on valmis tehisintellekti kaitseingli robot, tõstab ka see teie usalduse taset veelgi.

Nagu varem mainitud, võib usaldus olla üsna habras ja laguneda hetkega (st usaldusreservuaar jätab kiiresti ja ootamatult välja kogu tekkinud usalduse).

Kujutage ette, et viibite tehisintellektil põhinevas isejuhtivas autos ja tehisintellekt teeb ootamatult radikaalse parempöörde, põhjustades rataste krigisemist ja peaaegu sunnitud autonoomse sõiduki ohtlikule ümberminekule. Mis juhtuks teie usalduse tasemega? Näib, et isegi kui hoiaksite tehisintellekti varem kõrgendatud usalduse tasemel, langeksite oma usaldustaset dramaatiliselt ja järsult, seda mõistlikult.

Vean kihla, et selle kaaluka arutelu praegusel hetkel soovite täiendavaid illustreerivaid näiteid, mis võiksid näidata usaldusväärse AI olemust ja ulatust. Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Minu kui tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede, eksperdina palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi usaldusväärse AI poole püüdlemise kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on need, kus tehisintellekt juhib autot täiesti iseseisvalt ja juhtimisülesande täitmisel puudub inimabi.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

Tõelist isejuhtivat autot 5. tasemel veel ei ole ja me ei tea veel isegi, kas seda on võimalik saavutada või kui kaua selleni jõudmine aega võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja usaldusväärne tehisintellekt

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Usun, et see annab piisava hulga hoiatusi, mis on aluseks sellele, mida ma kavatsen seostada.

Oleme nüüd valmis sukelduma sügavalt isesõitvatesse autodesse ja usaldusväärsesse tehisintellekti.

Usaldus on kõik, eriti tehisintellektil põhinevate isejuhtivate autode puhul.

Näib, et ühiskond vaatab isejuhtivate autode ilmumisele ettevaatlikult. Ühest küljest on suur lootus, et tõeliste isejuhtivate autode tulek vähendab iga-aastaseid autodega seotud surmajuhtumeid. Ainuüksi Ameerika Ühendriikides sureb aastas umbes 40,000 2.5 autoavarii ja vigastada umbes XNUMX miljonit inimest, vaadake minu statistikakogu aadressilt link siin. Inimesed joovad ja sõidavad. Inimesed sõidavad hajameelselt. Autojuhtimise ülesanne näib seisnevat selles, et suudame korduvalt ja eksimatult keskenduda sõidule ning vältida autoavariidesse sattumist. Seetõttu võime unes loota, et tehisintellekti juhtimissüsteemid juhivad isejuhtivaid autosid korduvalt ja eksimatult. Isejuhtivaid autosid saab tõlgendada kahesuunalisena, mis hõlmab autoõnnetustes hukkunute ja vigastuste arvu vähendamist ning potentsiaalselt mobiilsuse palju laiemalt kättesaadavaks muutmist.

Kuid samal ajal kerkib mure ühiskonna arusaamade pärast, kas isejuhtivad autod on piisavalt turvalised, et olla meie avalikel teedel laiemalt.

Kui kasvõi üks isejuhtiv auto satub avariisse või kokkupõrkesse, mis põhjustab ühe surma või raske vigastuse, võite tõenäoliselt eeldada, et tänane usaldus nende tehisintellektil põhinevate juhita autode vastu langeb järsult. Nägime, et see juhtus, kui Arizonas juhtus nüüdseks kurikuulus juhtum, mis puudutas mõnevõrra (mitte tegelikult) isejuhtivat autot, mis sõitis otsa ja tappis jalakäija (vt minu kajastust aadressil see link siin).

Mõned asjatundjad märgivad, et on ebaõiglane ja kohatu rajada AI isejuhtivate autode usaldus sellele tahule, et ainult üks selline järgmine surma põhjustav õnnetus või kokkupõrge võib õõnestada niigi suhteliselt avariivabu avalike maanteede katseid. Lisaks on ebaausal alusel tõenäoline, et olenemata sellest, milline konkreetne AI isejuhtivate autode mark või mudel satub kurbasse juhtumisse, süüdistab ühiskond kahtlemata kõiki isejuhtivate autode marke.

Kõik isejuhtivad autod võidakse kokkuvõttes määrida ja kogu tööstus võib kannatada tohutu vastureaktsiooni all, mis võib viia kõigi avalike maanteede katsete katkestamiseni.

Sellise tagasilöögi soodustajaks on otsekohese isejuhtivate autode pooldajate mõttetud kuulutused, et kõik juhita autod on purunematud. See idee purunematust pole mitte ainult täiesti vale (vt link siin), seab see salakavalalt isejuhtivate autode tööstuse ellu täiesti ebasoodsate ootuste jaoks. Need veidrad ja kättesaamatud avaldused, et isejuhtivate autode tõttu ei juhtu surmajuhtumeid, õhutavad eksiarvamust, et kõik juhita autoavariid on kindel märk sellest, et kogu komplekt ja kaboodle on tühised.

On selge kurb tõdeda, et edusammud isejuhtivate autode suunas ja toll-korras ühiskonna usalduse kogunemine võivad hetkega minema lüüa. Sellest saab üks pagana näitus usalduse rabedusest.

Järeldus

Paljud autotootjad ja isejuhtivad tehnoloogiafirmad järgivad üldiselt tehisintellekti eetika põhimõtteid, püüdes luua ja luua usaldusväärset tehisintellekti ohutute ja usaldusväärsete AI-põhiste isejuhtivate autode osas. Pange tähele, et mõned neist ettevõtetest on tugevamad ja rohkem pühendunud eetilistele tehisintellekti põhimõtetele kui teised. Aeg-ajalt leidub ka isejuhtivate autodega seotud uusi või algajaid idufirmasid, mis näivad jätvat kõrvale suure osa tehisintellekti eetika nurgakividest (vt minu ülevaadet aadressil link siin).

Muudel rindel on uusi isejuhtivaid autosid käsitlevaid seadusi ja määrusi järk-järgult juurutatud. See, kas neil on nende toetamiseks vajalikke hambaid, on erinev asi, samuti see, kas nende seaduste jõustamist võetakse tõsiselt või jäetakse tähelepanuta (vt selleteemalisi analüüse minu veergudest).

Selles on ka kõrgtehnoloogiline nurk. Olen ennustanud, et järk-järgult näeme AI kaitseingli robotite variante, mis tõusevad autonoomsete sõidukite ja isejuhtivate autode areenil esile. Me ei ole veel kohal. See muutub levinumaks, kui isejuhtivate autode populaarsus muutub laiemaks.

See viimane punkt toob esile kuulsa joone usalduse kohta, mida te kahtlemata juba peast teate.

Usalda aga kontrolli.

Võime lubada endal oma usaldust laiendada, võib-olla heldelt. Samal ajal peaksime ka kulli kombel jälgima, et meie tekitatud usaldust kinnitaksid nii sõnad kui ka teod. Usaldagem tehisintellekti, kuid kontrollime lõputult, et usaldame end õigesti ja silmad pärani.

Võite mind selles usaldada.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/