AI eetika on skeptiline autonoomsetes tehisintellektisüsteemides kallutatud algoritmide väljakutsumiseks niinimetatud punase lipu AI seaduste kehtestamise suhtes

Räägime punase lipu seadustest.

Te teate kahtlemata, et punase lipu seaduste mõistet on viimasel ajal uudistes laialdaselt käsitletud. Teemat kajastavaid pealkirju on küllaga. Kired ja kirglikud arutelud sellistel teemadel on ühiskonna murekohana ja kaasavad praeguseid ja kiiresti esile kerkivaid punase lipu relvaseadusi.

Julgen siiski väita, et te ei pruugi olla kursis teiste 1800. aastate lõpus vastu võetud punase lipu seadustega, mis puudutavad mootorsõidukeid ja tänapäevaste igapäevaste moodsate autode eelkäijaid. Jah, see on õige, punase lipu seadused ulatuvad ajalukku, kuigi hõlmavad muid teemasid võrreldes tänapäevase fookusega. Neid nimetatakse tavaliselt punase lipu liiklusseadusteks.

Need nüüdseks sajandivanused ja täiesti kehtivuse kaotanud seadused nõudsid, et sel ajal pidi iga mootorvankri või aurujõul liikuva mootori ees olema täiskasvanud isik, kes kannab hoiatus eesmärgil punast lippu. Mõte seisnes selles, et kariloomad võivad saada ärevile need lärmakad ja ärevad riistad, mis aeglaselt ja ebaühtlaselt mööda pinnast või vähesel määral sillutatud teid vurasid, nii et kui keegi kõnnib konstruktsiooni ees ja samal ajal jõuliselt punast lippu lehvitab, võib loodetavasti õnnetusi vältida. Kui teil tekkis küsimus, arvati, et raudteed ja rongid on samade seaduste kohaldamisalast välja jäetud, kuna need olid rööbastega lahutamatult seotud sõidukid ja nende tegevust reguleerivad muud seadused.

Kujutage ette, et täna tuleb lehvitada punaseid lippe, mis on meie avalikel teedel sõitvatele autodele kohustuslik.

Näiteks peaks teie naabruskonna tänavat mööda sõitev tavaline autojuht tagama, et punast lippu lehvitav täiskasvanu oleks kohal ja astuks liikuva auto ette. See peaks toimuma iga teie tänaval mööduva sõiduki puhul. Võib-olla muutuksid inimestest punalipulised töötajad, kes palkasid möödasõitvaid autojuhte, kellel muidu poleks sõpra või sugulast, kes võiks ette minna ja ettenähtud lehvitada.

Tänapäeval kipume maanteedega seotud punase lipu lehvitamist maanteede ehitusplatsidega seostama. Kui jõuate üles kaevatud tee lähedale, hoiavad töötajad teie tähelepanu köitmiseks kõrgel punast lippu. See käsib teil aeglustada ja olla valvel. Võib juhtuda, et teie teele läheb buldooser. Ees võib olla hiiglaslik auk ja peate selle ümber ettevaatlikult liikuma.

Aga tuleme tagasi 1800. aastate punalippude kasutamise juurde.

Uskuge või mitte, aga punase lipu lehvitaja pidi olema tulevast mootoriga masinast vähemalt kaheksandik miili kaugusel. See tundub üsna pikk vahemaa. Siiski võib oletada, et sellel oli tol ajal väga mõtet. Mootori jahmatavast mürast ja võib-olla ainuüksi sõiduki nägemisest piisab, et loomad närvi ajada. Mõned selle ajastu punase lipu seadused nõudsid ka helkivat punast tuld öösiti kõrgel hoida, nii et visuaalselt nähtav punane ettevaatusabinõu oleks pimendatud kaugusest näha.

Üldiselt arvan, et on õiglane väita, et me ühiskonnana kipume seostama punast lippu teatud signaali või märgina, et miski võib olla valesti või vajab vähemalt meie pühendunud tähelepanu.

Olge valmis selle punase lipu fenomeni pisut muutma.

Levinud on väide, et tehisintellekti (AI) osas peaksime nõudma punase lipu sätteid.

See on pisut jahmatav ja üllatav kontseptsioon, mis paneb paljud pead kriimustama. Võite olla hämmingus, kuidas või miks peaks olema nn Punase lipu AI seadused. Pange tähele, et ma nimetan selle punase lipu AI seadusteks, et eristada seda asja punase lipu liiklusseadustest (näiteks 1800. aastate lõpu omadest) ja eristada neid ka teistest tänapäevastest enamlevinud punalipuliste relvaseadustest.

Kas meil on tegelikult vaja punase lipu AI seadusi, mis on selgelt ja ainult tehisintellekti puudutavatele küsimustele orienteeritud?

Need, kes pooldavad kavandatud lähenemisviisi, nõuavad, et vajame tingimata õigussätteid, mis aitaksid piirata AI-d, mis sisaldavad põhjendamatuid eelarvamusi ja tegutsevad diskrimineerivalt. Praegu sarnaneb tehisintellekti loomine ja kasutuselevõtt metsiku lääne olukorraga, kus kõik läheb. Halva tehisintellekti ohjeldamiseks tehtavad jõupingutused sõltuvad praegu tehisintellekti eetika juhiste sõnastusest ja vastuvõtmisest. Minu jätkuva ja ulatusliku AI eetika ja eetilise tehisintellekti katvuse kohta vt link siin ja link siin, Ainult mõned nimed.

Seadusi, mis piiravad halba tehisintellekti, töötatakse aeglaselt välja ja jõustatakse, vaadake minu kajastust aadressil link siin. Mõned muretsevad, et seadusandjad ei tegutse piisavalt kiiresti. Näib, et kallutatud tehisintellekti soodustamise väravad maailmas on praegu suures osas avatud. Käeväänamine ütleb, et selleks ajaks, kui uued seadused raamatutesse jõuavad, on kuri džinn juba pudelist väljas.

Mitte nii kiiresti, vastuargumendid lähevad. Muretsetakse, et kui seadused kehtestatakse liiga kiiresti, tapame justkui kuldhane, mistõttu tehisintellekti jõupingutused kuivavad ja me ei saa uutest tehisintellektisüsteemidest saadavat ühiskondlikku kasu. Tehisintellekti arendajad ja ettevõtted, kes soovivad AI-d kasutada, võivad ehmuda, kui föderaalsel, osariigi ja kohalikul tasandil kehtestatakse ootamatult hulk uusi tehisintellekti reguleerivaid seadusi, rääkimata rahvusvahelistest tehisintellektiga seotud seadustest, mis samuti edasi liiguvad.

Selle räpane afääriga kaasneb üleskutse Red Flag AI seaduste järele.

Enne kui hakkame põhjalikumalt käsitlema kavandatud Red Flag AI seaduse aluseks olevaid metsikuid ja viljuvaid kaalutlusi, paneme paika mõned täiendavad põhialused väga olulistel teemadel. Peame põgusalt sukelduma tehisintellekti eetikasse ja eriti masinõppe (ML) ja süvaõppe (DL) tulekusse.

Võib-olla olete ähmaselt teadlik, et tänapäeval üks valjemaid hääli tehisintellekti valdkonnas ja isegi väljaspool tehisintellekti valdkonda seisneb nõudmises eetilise tehisintellekti suurema väljanägemise poole. Vaatame, mida tähendab viidata tehisintellekti eetikale ja eetilisele tehisintellektile. Lisaks uurime, mida ma mõtlen masinõppest ja süvaõppest rääkides.

Üks konkreetne AI eetika segment või osa, mis on pälvinud palju meedia tähelepanu, koosneb tehisintellektist, millel on ebasoodsad eelarvamused ja ebavõrdsused. Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Seoses sellega pooldan ma AI kasutamist tehisintellekti hädade lahendamise osana, võitledes tulega sellisel mõtteviisil. Näiteks võime manustada eetilised tehisintellekti komponendid tehisintellektisüsteemi, mis jälgib, kuidas ülejäänud AI asju teeb ja võib seega reaalajas tabada mis tahes diskrimineerivaid jõupingutusi, vt minu arutelu aadressil link siin. Meil võiks olla ka eraldi AI-süsteem, mis toimiks teatud tüüpi tehisintellekti eetikamonitorina. Tehisintellekti süsteem toimib järelevaatajana, et jälgida ja tuvastada, millal mõni teine ​​tehisintellekt läheb ebaeetilist kuristikku (vt minu analüüsi selliste võimaluste kohta link siin).

Mõne hetke pärast jagan teiega mõningaid AI eetika üldpõhimõtteid. Selliseid nimekirju vedeleb siin-seal palju. Võib öelda, et universaalse veetluse ja üksmeele ainsat loetelu pole veel olemas. See on kahetsusväärne uudis. Hea uudis on see, et vähemalt AI eetika loendid on hõlpsasti kättesaadavad ja need kipuvad olema üsna sarnased. Kokkuvõttes viitab see sellele, et teatud tüüpi põhjendatud lähenemise kaudu leiame tee AI-eetika üldise sarnasuse poole.

Esiteks käsitleme lühidalt mõningaid üldisi eetilisi tehisintellekti ettekirjutusi, et illustreerida, mis peaks olema AI loomisel, väljatöötamisel või kasutajal ülioluline kaalutlus.

Näiteks nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimekust arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvatest ja auditeeritavatest metoodikatest, andmeallikatest ning kavandamisprotseduuridest ja dokumentatsioonist.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade väljaselgitamine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas kui tehisintellekti kodeerimisel peab olema tõeline kumm, mis teega kokku puutub, on olukord palju keerulisem.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendustegevust, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu varem öeldud, on tehisintellekti väljatöötamiseks ja väljatöötamiseks vaja küla, mille jaoks kogu küla peab olema kursis ja järgima tehisintellekti eetika ettekirjutusi.

Teeme ka kindlaks, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem (minu üliintelligentse tehisintellekti kui võimaluse uurimist vt. katvus siin).

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Pöördume tagasi punase lipu AI seaduste juurde.

Põhimõte seisneb selles, et inimesed saavad heisata punase lipu, kui nad usuvad, et tehisintellekti süsteem töötab põhjendamatult kallutatud või diskrimineerivalt. Te ei heiskaks iseenesest füüsilist lippu, vaid kasutaksite lihtsalt elektroonilisi vahendeid, et oma muredest teada anda. Skeemi või lähenemise punase lipu osa on pigem metafoor kui füüsiline kehastus.

Teeskle, et taotled kodulaenu. Laenu taotlemiseks otsustate kasutada Interneti-panga teenust. Pärast mõningate isikuandmete sisestamist ootate hetkeks AI-süsteemi, mis otsustab, kas olete laenu väärt või mitte. Tehisintellekt ütleb teile, et teile on laenu andmisest keeldutud. Kui soovite selgitust selle kohta, miks teid tagasi lükati, näib tekstiline narratiiv teile vihjavat, et tehisintellekt kasutas otsustusalgoritmi osana põhjendamatult kallutatud tegureid.

Aeg heisata AI kohta punane lipp.

Kus see punane lipp täpselt lehvima hakkab?

See on miljoni dollari küsimus.

Üks seisukoht on, et peaksime looma üleriigilise andmebaasi, mis võimaldaks inimestel märkida oma tehisintellektiga seotud punased lipud. Mõned ütlevad, et seda peaks reguleerima föderaalvalitsus. Föderaalsed agentuurid vastutaksid punaste lippude uurimise ja avalikkusele aitamise eest tõepärasuse osas ja tegeleksid arvatavasti "halva tehisintellektiga", mis tekitas punase lipu aruannete tulemusi.

Näib, et Kongress kehtestab riikliku punase lipu AI seaduse. Seadus täpsustaks, mis on tehisintellektiga seotud punane lipp. Seadus kirjeldaks, kuidas neid tehisintellekti närivaid punaseid lippe heisatakse. Ja nii edasi. Samuti võib juhtuda, et üksikud osariigid võivad otsustada koostada oma punase lipu AI seadused. Võib-olla teevad nad seda riikliku algatuse asemel või teevad nad seda selleks, et võimendada üksikasju, mis on nende konkreetse riigi jaoks eriti köitvad.

Föderaalse või mis tahes valitsuse toetatud Red Flag AI programmi kriitikud väidavad, et eratööstus saab sellega hakkama ja me ei vaja Big Brotheri esiletõstmist. Tööstus võiks luua veebihoidla, kuhu inimesed saavad AI-süsteemide kohta punaseid lippe registreerida. Tööstuse isereguleeruv tegevus aitaks neid probleeme piisavalt lahendada.

Väidetava tööstusharu lähenemisviisi suhtes on kahetsusväärne, et see näib lõhnavat võhiklikkuse järele. Kas ettevõtted oleksid nõus järgima mõnda eraviisiliselt hallatavat Red Flag AI andmebaasi? Paljud ettevõtted eiraksid oma tehisintellekti tähistavaid punaseid lippe. Ei oleks teravaid hambaid, et panna ettevõtted sisestatud punalippudega tegelema.

Kuule, erasektori lähenemise pooldajad kõlavad hästi, see oleks sarnane riikliku Yelpi-laadse teenusega. Tarbijad võiksid vaadata punaseid lippe ja otsustada ise, kas nad soovivad teha äri ettevõtetega, kes on kogunud hulga tehisintellektile orienteeritud punaseid lippe. Pank, mis sai oma tehisintellekti kohta palju punaseid lippe, peaks tähelepanu pöörama ja oma tehisintellektisüsteeme uuendama, nii et loogika on selline, muidu väldiksid tarbijad ettevõtet nagu katku.

See, kas kogu seda lähenemisviisi rakendab valitsus või tööstus, on vaid jäämäe tipp keerulistes küsimustes, mis seisavad silmitsi kavandatud Red Flag AI seaduste postulaadiga.

Pane end AI välja töötanud või seda kasutava ettevõtte olukorda. Võib juhtuda, et tarbijad heiskavad punased lipud, kuigi selleks polnud elujõulist alust. Kui inimesed saaksid vabalt tehisintellekti kohta punase lipu üles riputada, võib neil tekkida kiusatus seda teha kapriisist või kättemaksuks ettevõttele, kes muidu tarbijale midagi halba ei teinud.

Lühidalt öeldes võib AI kohta olla palju valepositiivseid punaseid lippe.

Teine kaalutlus on saadud punaste lippude tohutu suurus või ulatus. Kergesti võib heisata miljoneid ja miljoneid punaseid lippe. Kes hakkab jälgima kõiki neid punaseid lippe? Mis selle tegemine maksma läheks? Kes maksab punase lipu järelmeetmete eest? Jne.

Kui ütleksite, et igaüks, kes registreerib AI kohta punase lipu või teatab sellest, peab maksma lõivu, olete sattunud hämarasse ja salakavalasse valdkonda. Mure oleks selles, et punalippude heiskamist saaksid endale lubada vaid jõukad. See omakorda tähendab, et vaesunud inimesed ei saaks võrdselt osaleda punase lipu tegevustes ja neil puudub sisuliselt koht kahjuliku tehisintellekti eest hoiatamiseks.

Praeguseks on veel üks keerdkäik, nimelt see, et sellised punase lipu seadused või juhised tehisintellekti kohta näivad olevat pigem tagantjärele kui hoiatavad.

Tulles tagasi punase lipu liiklusseaduste juurde, oli punase lipu kasutamise rõhk selleks, et vältida õnnetust. Punane lipu lehvitaja pidi eesseisvast autost kõvasti ees olema. Sõiduki ees olles hoiataks kariloomi ja kariloomi valvanud isikud teaksid, et peagi saabuva häiriva allika tõttu peaksid nad võtma ettevaatusabinõusid.

Kui inimesed suudavad heisata vaid punase lipu tehisintellekti kohta, mis näiliselt on juba nende õigusi kahjustanud või õõnestanud, on vanasõna hobune juba laudast väljas. Näib, et sellega saavutatakse vaid see, et loodetavasti teavad teised inimesed nüüd, et on selle AI-süsteemi suhtes ettevaatlikud. Vahepeal on väidetavalt ülekohut teinud isik juba kannatanud.

Mõned arvavad, et võiksime lubada inimestel heisata AI kohta punaseid lippe kahtlusalune võivad olla kallutatud, isegi kui nad pole tehisintellekti kasutanud ega ole neid otseselt mõjutanud. Seega lehvitatakse punalippu enne kahju tekkimist.

Jah, te teete tehisintellektiga toimetuleku punased lipud tõesti täiesti juhitamatuks ja kaootiliseks afääriks. Kui keegi suudab mingil põhjusel AI-süsteemi kohta punase lipu heisata, hoolimata sellest, et ta pole selle AI-ga üldse midagi teinud, ujutatakse teid punaste lippudega üle. Mis veelgi hullem, te ei suuda sõkaldest nisu eristada. Kogu punase lipu lähenemine kukub kokku oma raskuse all, vähendades idee headust, lastes flotsamil ja riffraffil kogu laeva uputada.

Peadpööritav ja segadust tekitav.

Vean kihla, et selle kaaluka arutelu praegusel hetkel soovite mõnda illustreerivat näidet, mis võiksid seda teemat tutvustada. Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Näete, et tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede eksperdina, palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi punase lipu AI seaduste kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on need, kus tehisintellekt juhib autot täiesti iseseisvalt ja juhtimisülesande täitmisel puudub inimabi.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

Tõelist isejuhtivat autot 5. tasemel veel ei ole ja me ei tea veel isegi, kas seda on võimalik saavutada või kui kaua selleni jõudmine aega võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja punase lipu AI seadused

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Loodan, et see annab piisava hulga hoiatusi, et toetuda sellele, mida kavatsen käsitleda.

Visandame stsenaariumi, mis võib kasutada Red Flag AI seadust.

Istud tehisintellektil põhinevasse isejuhtivasse autosse ja soovid, et autonoomne sõiduk sind kohalikku toidupoodi sõidutaks. Suhteliselt lühikese teekonna jooksul valib tehisintellekt marsruudi, mis tundub teile mõnevõrra vale. Selle asemel, et minna kõige otsemat teed pidi, navigeerib tehisintellekt kõrvalistele tänavatele, mistõttu sõiduaeg on pikem, kui see tavaliselt võiks olla.

Mis toimub?

Eeldades, et maksate isejuhtiva auto kasutamise eest, võite kahtlustada, et tehisintellekt oli programmeeritud sõitma pikemat marsruuti, et proovida tõsta reisi hinda või maksumust. Igaüks, kes on kunagi kasutanud tavalist inimkäitavat kabiini, teab trikke, mis võib juhtuda, et mõõturile rohkem tainast saada. Muidugi, kui inimestel on kabiinis või samaväärses kohas sõites nutitelefonis GPS, võite hõlpsasti tabada inimjuhi, kes näib hiilivat tarbetult pikki marsruute.

Selgub, et teil on marsruudi valiku pärast veel üks mure, mis teid tõesti närib.

Oletame, et marsruutimine tehti selleks, et vältida teatud linnaosi rassiliste aspektide tõttu. On dokumenteeritud juhtumeid, kus inimestest juhid on tabatud selliste valikute tegemisel, vt minu arutelu aadressil link siin. Võib-olla on AI selle jaoks ebasoodsalt programmeeritud.

Otsustate heisata punase lipu.

Oletame arutelu huvides, et teie jurisdiktsiooni hõlmav Red Flag AI seadus on vastu võetud. See võib olla kohalik seadus, osariigi seadus, föderaalne või rahvusvaheline seadus. Analüüsi, mille koostasin koos Harvardi autonoomse sõidukipoliitika algatusega (AVPI), mis käsitleb kohaliku juhtimise kasvavat tähtsust, kui kogukonnad võtavad kasutusele isejuhtivad autod, vt. link siin.

Niisiis, lähete Internetis Red Flag AI andmebaasi. Juhtumite andmebaasi sisestad info isejuhtiva auto teekonna kohta. See hõlmab sõidu kuupäeva ja kellaaega ning isejuhtiva auto marki ja mudelit. Seejärel sisestate navigatsioonimarsruudi, mis tundus olevat kahtlane, ja vihjate või võib-olla väidate otse, et tehisintellekt töötati välja kallutatud või diskrimineeriva kavatsusega ja suutlikkusega.

Peaksime spekuleerima Red Flag AI seaduse muude üksikasjadega, mis selle konkreetse stsenaariumi korral edasi saab. Teoreetiliselt oleks ette nähtud, et keegi vaatab punase lipu üle. Eeldatavasti püüavad nad panna autotootjat või isesõitvat tehnoloogiafirmat sisselogitud punase lipu kohta oma seisukohta selgitama. Kui palju selliseid punaseid lippe veel registreeritud on? Milliseid tulemusi need punased lipud andsid?

Ja nii edasi läheks.

Järeldus

Naljakas, manitsevad mõned skeptikud.

Me ei vaja Red Flag AI seadusi, need rakendavad karmilt. Midagi sedalaadi tegemine muudab tehisintellekti tempo ja edenemise töid segamini. Kõik sellised seadused oleksid kohmakad. Looksite probleemi, mis probleemi ei lahenda. Tehisintellektiga toimetulemiseks on teisigi halbu viise. Ärge haarake pimesi õlgedest, et tulla toime kallutatud tehisintellektiga.

Me kõik teame käike vahetades, et härjavõitlejad kasutavad punaseid keebisid, et ilmselt äratada vihase härja tähelepanu. Kuigi punane on värv, mida me selle praktikaga kõige enam seostame, võite olla üllatunud, kui teate teadlaste sõnul, et pullid ei taju muleti punast värvi (nad on punase suhtes värvipimedad). Populaarne saade Müütide rikkujad tegi selle asja päris lõbusa uurimise. Võtmeelement on pigem keebi liikumine kui valitud värv.

Neile, kes jätavad kõrvale vajaduse Red Flag AI seaduste järele, on vastuväide, et vajame midagi dramaatilist ja eksimatult lainetavat, tagamaks, et tehisintellekti arendajad ja AI-d juurutavad ettevõtted hoiavad eemale kallutatud või halvast tehisintellektist. Kui mitte punane lipp, siis võib-olla lehviv keeb või põhimõtteliselt igasugune hoiatav lähenemine võib olla asjakohase tähelepanu alla.

Teame kindlalt, et halb AI on olemas ja meie suunas liigub palju rohkem halba AI-d. Väga oluline on leida viise, kuidas end kahjuliku tehisintellekti eest kaitsta. Sama oluline on ka kaitsepiirete seadmine, et takistada halva tehisintellekti sattumist maailma.

Ernest Hemingway on kuulsalt öelnud, et keegi ei ela oma elu lõpuni, välja arvatud härjavõitlejad. Peame tagama, et inimesed saaksid oma elu lõpuni elada, hoolimata sellest, milline AI kurjus või hullus meile on kuulutatud.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-nevezett-red-flag-ai-laws-for-calling-out- kallutatud-algoritmid-autonoomsetes-ai-süsteemides/