Tehisintellekti eetika heliseb häirekellasid tehisintellekti kallutatuste ähvardava spektri kohta massilises globaalses mastaabis, eriti toiteks looming täielikult autonoomsete süsteemide kaudu

Platon ütles kuulsalt, et hea otsus põhineb teadmistel, mitte arvudel.

See terav ülevaade tundub tänapäeva tehisintellekti (AI) kohta hämmastavalt ettenägelik.

Vaatamata räuskavatele pealkirjadele, mis praegu kuulutavad, et tehisintellekt on mingil moel saavutanud mõistuse ja kehastab inimteadmisi ja arutluskäiku, pidage meeles, et see ülehinnatud AI hüperbool on salakaval vääratus, kuna me toetume tänapäeva algoritmiotsuste tegemisel (ADM) ikka veel arvude kokkulangemisele. ) nagu tehisintellektisüsteemid. Isegi kiidetud masinõpe (ML) ja Deep Learning (DL) koosnevad arvutuslikust mustrite sobitamisest, mis tähendab, et arvud on endiselt ML/DL laialdase kasutamise keskmes.

Me ei tea, kas tehisintellekt on tundlikkuse saavutamine võimalik. Võib olla, võib mitte olla. Keegi ei saa kindlalt öelda, kuidas see võib tekkida. Mõned usuvad, et me täiustame järk-järgult oma arvutuslikke tehisintellekti tehtavaid jõupingutusi, nii et teatud teadvuse vorm tekib spontaanselt. Teised arvavad, et tehisintellekt võib sattuda omamoodi arvutuslikuks supernoovaks ja jõuda tundlikkuseni üsna iseenesest (mida tavaliselt nimetatakse singulaarsuseks). Lisateavet nende teooriate kohta tehisintellekti tuleviku kohta leiate minu kajastusest aadressil link siin.

Niisiis, ärgem tehkem nalja ja uskugem ekslikult, et tänapäeva tehisintellekt on võimeline mõtlema nagu inimesed. Ma arvan, et siis tõuseb esiplaanile küsimus Platoni märkuse kohta, kas meil on võimalik teha häid otsuseid, mis põhinevad pigem arvutuslikul tehisintellektil kui tundlikul tehisintellektil. Võite olla üllatunud, kui ma väidan, et igapäevased tehisintellektisüsteemid võivad tõepoolest teha häid otsuseid.

Selle mündi teine ​​pool on see, et meil võivad olla ka igapäevased AI-süsteemid, mis teevad halbu otsuseid. Mädad otsused. Otsused, mis on tulvil soovimatuid eelarvamusi ja ebavõrdsust. Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Minu ulatuslik AI eetika ja eetiline tehisintellekt on leitav aadressilt see link siin ja see link siin, Ainult mõned nimed.

Selle arutelu jaoks tahaksin tuua esile ühe eriti murettekitava aspekti tehisintellekti kohta, mida tehisintellekti eetika areenil olevad õigustatult kurdavad ja üritavad tõsta teadlikkust. Kainestav ja segadust tekitav asi on tegelikult üsna lihtne välja tuua.

Siin see on: AI-l on reaalne potentsiaal levitada AI-st läbi imbunud eelarvamusi murettekitavas globaalses mastaabis.

Ja kui ma ütlen "mastaabis", tähendab see ilmselgelt ülemaailmset massilist ulatust. Humoonia skaala. Kaal, mis läheb kaalult maha.

Enne kui ma sukeldun sellesse, kuidas see tehisintellektiga läbi imbunud eelarvamuste skaleerimine toimub, veendugem, et meil kõigil oleks nägemus sellest, kuidas tehisintellekt võib sisaldada põhjendamatuid eelarvamusi ja ebavõrdsust. Tuletage uuesti meelde, et see ei ole tundlik sort. See kõik on arvutusliku kaliibriga.

Võite olla hämmingus, kuidas AI võib tekitada samasuguseid ebasoodsaid eelarvamusi ja ebavõrdsust, mida inimesed teevad. Me kipume arvama, et tehisintellekt on täiesti neutraalne, erapooletu, lihtsalt masin, millel puudub igasugune emotsionaalne kõikumine ja halb mõtlemine, mis inimestel võib olla. Üks levinumaid viise, kuidas tehisintellekt kaldub eelarvamustesse ja ebavõrdsustesse, juhtub masinõppe ja süvaõppe kasutamisel, osaliselt tänu sellele, et tuginetakse kogutud andmetele selle kohta, kuidas inimesed otsuseid teevad.

Lubage mul veidi aega täpsustada.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmiotsuste tegemine ehk ADM on aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

See toob meid mastaabis tehisintellektist läbi imbunud eelarvamuste küsimuseni.

Kõigepealt vaatame, kuidas inimeste eelarvamused võivad ebavõrdsust tekitada. Hüpoteeklaenu andev ettevõte otsustab palgata hüpoteeklaenu agendi. Agent peaks läbi vaatama kodulaenu soovivate tarbijate taotlused. Pärast taotluse läbivaatamist teeb agent otsuse kas laenu anda või laenu andmisest keelduda. Lihtne.

Arutelu huvides kujutame ette, et inimlaenu agent suudab analüüsida 8 laenu päevas, kulutades ühe ülevaatuse kohta umbes tund. Viiepäevase töönädala jooksul teeb agent umbes 40 laenuülevaatust. Aastas teeb agent tavaliselt umbes 2,000 laenuülevaatust, anna või võta natuke.

Ettevõte soovib laenuülevaatuste mahtu suurendada, seetõttu palkab firma juurde 100 laenuagenti. Oletame, et neil kõigil on umbes sama tootlikkus ja see tähendab, et saame nüüd hakkama umbes 200,000 2,000 laenuga aastas (määraga XNUMX laenuülevaatust aastas agenti kohta). Näib, et oleme laenutaotluste menetlemist tõesti kiirendanud.

Selgub, et ettevõte töötab välja AI-süsteemi, mis suudab sisuliselt teha samu laenuülevaatusi kui inimagendid. AI töötab pilves asuvates arvutiserverites. Pilveinfrastruktuuri kaudu saab ettevõte hõlpsasti lisada rohkem arvutusvõimsust, et mahutada kõiki vajalikke laenuülevaateid.

Olemasoleva AI-konfiguratsiooniga saavad nad teha 1,000 laenuülevaatust tunnis. See võib juhtuda ka ööpäevaringselt. AI jaoks pole puhkust vaja. Lõunapause pole. AI töötab ööpäevaringselt, ilma ületöötamisest kriiskamata. Ütleme, et sellise ligikaudse tempoga suudab tehisintellekt aastas töödelda ligi 24 miljonit laenutaotlust.

Pange tähele, et meil oli 100 inimagendit, kes suudavad anda 200,000 9 laenu aastas, ja hüppasime palju kordi üle AI-süsteemi kaudu XNUMX miljonile arvustusele aastas. Oleme järsult suurendanud oma laenutaotluste töötlemist. Pole mitte mingit kahtlust.

Olge valmis löömaks, mis võib teid toolilt maha kukkuda.

Oletame, et mõned meie inimagendid teevad oma laenuotsuseid ebasoodsate eelarvamuste põhjal. Võib-olla annavad mõned laenuotsuse tegemisel võtmerolli rassilistele teguritele. Võib-olla kasutavad mõned sugu. Teised kasutavad vanust. Ja nii edasi.

Kui palju 200,000 10 iga-aastasest laenuülevaatest tehakse ebasoodsate eelarvamuste ja ebavõrdsuse väära pilgu all? Võib-olla 20,000%, mis on umbes 50 100,000 laenutaotlustest. Veelgi hullem, oletame, et see moodustab XNUMX% laenutaotlustest, mille puhul on aastas üsna murettekitav XNUMX XNUMX valesti otsustatud laenuotsust.

See on halb. Kuid me peame veel kaaluma veelgi hirmutavamat võimalust.

Oletame, et tehisintellektil on varjatud eelarvamus, mis koosneb sellistest teguritest nagu rass, sugu, vanus jms. Kui 10% iga-aastastest laenuanalüüsidest on selle ebameeldivuse all, on meil 900,000 100 laenutaotlust, mida käsitletakse valesti. See on palju rohkem kui see, mida inimagendid võiksid teha, peamiselt lihtsalt mahuaspektide tõttu. Kui need 200,000 agenti teeksid ebaõiglase ülevaatuse, saaksid seda teha maksimaalselt 9,000,000 XNUMX iga-aastase laenuülevaate puhul. Tehisintellekt võiks teha sama suures ulatuses XNUMX XNUMX XNUMX aastaülevaatest.

Yikes!

See on tõeliselt AI-st läbi imbunud erapoolik tohutul määral.

Kui tehisintellektisüsteemis peituvad ebasoodsad eelarvamused, pööratakse seesama skaleerimine, mis tundus kasulikuna, nüüd pea peale ja sellest saab koletult ahvatlev (ja häiriv) skaleerimise tulemus. Ühest küljest võib tehisintellekt kasulikult tõusta, et tulla toime rohkemate inimestega, kes taotlevad eluasemelaenu. Pealtnäha tundub see tohutu AI heaks. Peaksime endale õlale patsutama, sest arvatavasti suurendame inimeste võimalusi saada vajalikke laene. Vahepeal, kui tehisintellektil on manustatud eelarvamusi, on skaleerimine tohutult mäda tulemus ja me oleme kahetsusväärselt sattunud AI For Bad, tõeliselt massiliselt.

Vanasõna kahe teraga mõõk.

AI võib radikaalselt suurendada juurdepääsu otsuste tegemisele neile, kes otsivad soovitud teenuseid ja tooteid. Enam pole inimeste poolt piiratud tööjõu kitsaskohta. Väljapaistev! Mõõga teine ​​tera seisneb selles, et kui tehisintellekt sisaldab halba, näiteks varjatud ebavõrdsust, siis seesama massiivne skaleerimine levitab seda ebasoodsat käitumist kujuteldamatul määral. Ärritav, ülekohtune, häbiväärne ja me ei saa lubada, et ühiskond langeks sellisesse koledasse kuristikku.

Igaüks, kes on olnud hämmingus, miks me peame AI eetika olulisusest aru saama, peaksid nüüd mõistma, et tehisintellekti skaleerimise nähtus on eetilise tehisintellekti järgimise pagana oluline põhjus. Mõelgem lühidalt mõnele peamisele eetilisele tehisintellekti ettekirjutusele, et illustreerida, mis peaks olema kõigi tehisintellekti meisterdavate, väljatöötavate või kasutavate inimeste jaoks oluline.

Näiteks nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimeid arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvate ja auditeeritavate metoodikate, andmeallikate ning kavandamisprotseduuride ja dokumentatsiooniga.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade kindlaksmääramine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas on palju keerulisem olukord, kui AI kodeering peab olema tõeline kumm, mis teega kokku puutub.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendamise jõupingutusi, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti kehtestatud normide järgimise raames. See on oluline esiletõst, kuna tavaline eeldus on, et tehisintellekti eetika mõistetest peavad kinni pidama ainult kodeerijad või need, kes programmeerivad tehisintellekti. Pange tähele, et tehisintellekti väljatöötamiseks ja väljatöötamiseks on vaja küla. Selle nimel peab kogu küla tehisintellekti eetika osas käpuli hoidma.

Kuidas AI-Steep Biases skaleerimine töötab

Nüüd, kui olen jõudnud tabelisse, et AI võib sisaldada eelarvamusi, oleme valmis uurima mõningaid põhjuseid, miks AI skaleerimine on nii pealetükkiv.

Mõelge sellele kümne põhjuse nurgakivi loendile:

  1. Kergesti paljundatav
  2. Minimaalne mastaabikulu
  3. Kohutavalt järjekindel
  4. Eneserefleksiooni puudumine
  5. Pime kuulekus
  6. Ei kalluta kätt
  7. Saaja pahaaimamatu
  8. Ei kipu provokatsioonile õhutama
  9. Õigluse vale aura
  10. Raske ümber lükata

Uurin lühidalt kõiki neid olulisi punkte.

Kui proovite mastaapi suurendada inimtööga, on tõenäoline, et see on tohutult keeruline. Inimesed tuleb leida ja palgata. Peate neid töö tegemiseks koolitama. Sa pead neile maksma ja arvestama inimeste soovide ja vajadustega. Võrrelge seda AI-süsteemiga. Sa arendad selle välja ja võtad kasutusele. Peale tehisintellekti pideva hooldamise võite rahulikult istuda ja lasta sellel lõputult töödelda.

See tähendab, et tehisintellekti on lihtne kopeerida. Saate lisada rohkem arvutusvõimsust, kui ülesanne ja maht seda nõuavad (te ei võta tööle ega vallanda). Ülemaailmne kasutamine toimub ühe nupuvajutusega ja saavutatakse Interneti ülemaailmse kättesaadavuse kaudu. Suurendamine on minimaalne kulu võrreldes samalaadse inimtööga.

Inimtöö on kurikuulsalt ebajärjekindel. Kui teil on suured meeskonnad, on teil tõeline šokolaadikarp, kus te ei tea kunagi, mis teie käes võib olla. AI-süsteem on tõenäoliselt väga järjepidev. See kordab samu tegevusi ikka ja jälle, olles iga kord sisuliselt sama, mis eelmine.

Tavaliselt naudime AI järjepidevust. Kui inimestel on kalduvus eelarvamustele, on meil alati mingi osa inimtööst, mis eksib. Kui tehisintellekt oleks oma ehituses ja arvutustegevuses erapooletu, oleks see palju järjepidevam. Probleem on aga selles, et kui tehisintellektil on varjatud eelarvamusi, on järjepidevus praegu valusalt vastik. Tõenäosus on see, et erapoolik käitumine toimub järjekindlalt, ikka ja jälle.

Loodetavasti on inimestel eneserefleksiooni aimu ja nad võivad tabada end kallutatud otsuseid tegemas. Ma ei ütle, et kõik seda teeksid. Ma ei ütle ka, et need, kes end kätte saavad, parandavad oma vead tingimata. Igal juhul parandavad vähemalt mõned inimesed end mõnikord.

Tõenäoliselt ei ole AI-l arvutuslikku enesepeegeldust. See tähendab, et AI lihtsalt teeb seda, mida ta teeb. Näib, et tehisintellektil on null võimalus tuvastada, et see on omakapitaliga vastuolus. Sellest hoolimata olen kirjeldanud mõningaid jõupingutusi selle lahendamiseks, näiteks tehisintellekti eetika komponentide loomist tehisintellektis (vt link siin) ja tehisintellekti väljatöötamine, mis jälgib teisi tehisintellekti, et tuvastada ebaeetilisi tehisintellekti tegevusi (vt link siin).

Kuna tehisintellektil puudub igasugune eneserefleksioon, on AI tõenäoliselt ka põhimõtteliselt pimesi kuulekas kõigele, mida tal kästi teha. Inimesed ei pruugi olla nii sõnakuulelikud. On tõenäoline, et mõned ülesandeid täitvad inimesed seavad kahtluse alla, kas neid suunatakse ebavõrdsuse territooriumile. Nad kalduvad tagasi lükkama ebaeetilisi käske või valima vilepuhuja teed (vt minu kajastust aadressil see link siin). Ärge oodake, et igapäevane kaasaegne tehisintellekt seab selle programmeerimise kuidagi kahtluse alla.

Järgmisena pöördume nende poole, kes kasutavad AI-d. Kui otsiksite kodulaenu ja rääkisite inimesega, võite olla valvel selle suhtes, kas see inimene annab teile korraliku raputuse. AI-süsteemi kasutades tundub enamik inimesi vähem kahtlustavad. Nad eeldavad sageli, et tehisintellekt on õiglane ja seega ei satu nii kiiresti ärrituma. Näib, et tehisintellekt suigutab inimesi "see on lihtsalt masin" transi. Lisaks võib AI vastu protestimine olla keeruline. Seevastu protestimine selle vastu, kuidas inimagent teid kohtles, on palju lihtsam ja palju enam aktsepteeritud ning seda peetakse elujõuliseks.

Kokkuvõttes on eelarvamustest läbi imbunud tehisintellektil autu eelis eelarvamustest läbi imbunud inimeste ees, nimelt selles osas, et tehisintellekt suudab neid eelarvamusi tohutul määral rakendada, ilma et see nii kergesti vahele jääks või tarbijaid omaks. mõista, mis häirivalt toimub.

Vean kihla, et selle arutelu praegusel hetkel soovite veel mõnda näidet, mis võiksid paljastada tehisintellektiga läbi imbunud kallutatuse mastaabis.

Mul on hea meel, et sa küsisid.

Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Näete, et tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede eksperdina, palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi tehisintellekti mastaapsetest eelarvamustest ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on sellised, et tehisintellekt juhib autot täielikult omaette ja sõiduülesande täitmisel pole inimest vaja.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

5. tasemel pole veel tõelist isesõitvat autot, mida me veel ei tea, kas seda on võimalik saavutada ja kui kaua sinna sõitmine võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja tehisintellekti eelarvamused

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Usun, et see annab piisava hulga hoiatusi, mis on aluseks sellele, mida ma kavatsen seostada.

Oleme valmis nüüd põhjalikult uurima isejuhtivaid autosid ja eetilisi tehisintellekti võimalusi, mis hõlmavad tehisintellektiga seotud eelarvamuste uurimist, mida levitatakse laialdaselt.

Kasutame lihtsalt otsest näidet. AI-põhine isejuhtiv auto on teie naabruskonna tänavatel käimas ja tundub, et see sõidab ohutult. Algul olite erilist tähelepanu pööranud igale korrale, kui teil õnnestus isejuhtivale autole pilk peale visata. Autonoomne sõiduk paistis silma oma elektrooniliste andurite riiuliga, mis sisaldas videokaameraid, radariseadmeid, LIDAR-seadmeid ja muud sarnast. Pärast mitut nädalat isejuhtiva autoga teie kogukonnas ringi sõitmist märkate seda nüüd vaevu. Teie arvates on see lihtsalt üks auto niigi tiheda liiklusega avalikel teedel.

Et te ei arvaks, et isejuhtivate autode nägemisega on võimatu või ebausutav tutvuda, olen sageli kirjutanud sellest, kuidas isejuhtivate autode katsetamise piirkonnad on järk-järgult harjunud nägema ehitud sõidukeid, vaata minu analüüsi aadressil see link siin. Paljud kohalikud elanikud suundusid lõpuks suu lõhki haigutava ülbe pilgutamise asemel igavusest haigutama, et olla tunnistajaks nende looklevatele isejuhtivatele autodele.

Tõenäoliselt on praegu peamine põhjus, miks nad võivad autonoomseid sõidukeid märgata, ärrituse ja ärrituse tõttu. Raamatus olevad AI-juhtimissüsteemid tagavad, et autod järgivad kõiki kiiruspiiranguid ja liikluseeskirju. Traditsioonilistes inimeste juhitavates autodes kirglikud inimjuhid ärrituvad mõnikord, kui jääte kinni rangelt seaduskuulekate tehisintellektil põhinevate isejuhtivate autode taha.

See on midagi, millega meil kõigil võib olla vaja harjuda, kas õigustatult või valesti.

Tagasi meie loo juurde.

Selgub, et muidu kahjutute ja üldiselt teretulnud tehisintellektil põhinevate isejuhtivate autode pärast hakkavad tekkima kaks asjatut muret, täpsemalt:

a. Seal, kus tehisintellekt rändleb isejuhtivate autode vahel sõite valides, oli hääldatud mure.

b. See, kuidas tehisintellekt kohtleb ees ootavaid jalakäijaid, kellel pole eesõigust, tõusis päevakorda pakilise probleemina

Alguses rändas AI isejuhtivate autode vahel kogu linnas. Kõigil, kes soovisid isejuhtivas autos sõitu taotleda, oli põhimõtteliselt võrdne võimalus selle saamiseks. Järk-järgult hakkas tehisintellekt hoidma isejuhtivaid autosid rändluses vaid ühes linnaosas. See jaotis oli suurem raha teenija ja AI-süsteem oli programmeeritud proovima tulusid maksimeerida kogukonnas kasutamise osana.

Alevi vaesunud osade kogukonnaliikmetel oli väiksem tõenäosus isejuhtivast autost sõita. Põhjus oli selles, et isejuhtivad autod asusid kaugemal ja liikusid piirkonna suurema tuluga osas. Kui päring saabus linna kaugemast osast, saavad kõik lähemast asukohast päringud, mis olid tõenäoliselt linna „austatud” osas, kõrgema prioriteedi. Lõpuks oli isejuhtivate autode hankimine mujal kui linna rikkamas osas peaaegu võimatu, mis oli ärritav nende jaoks, kes elasid praegu loodusvarade näljas piirkondades.

Võiksite väita, et tehisintellekt langes üsna suures osas volitatud diskrimineerimise vormile (mida sageli nimetatakse ka kaudseks diskrimineerimiseks). AI ei olnud programmeeritud neid vaesemaid linnaosasid vältima. Selle asemel "õppis" seda tegema ML/DL-i kasutamise kaudu.

Asi on selles, et sõidujagavad inimjuhid olid tuntud selle poolest, et tegid sama asja, kuigi mitte tingimata ainult raha teenimise nurga tõttu. Mõned sõidujagavad inimjuhid olid linna teatud osades sõitjate pealevõtmise suhtes ebasoodsad. See oli mõnevõrra tuntud nähtus ja linn oli kehtestanud seiremeetodi, et tabada seda tegevaid juhte. Inimautojuhid võivad ebameeldivate valikutavade läbiviimisel hätta jääda.

Eeldati, et tehisintellekt ei lange kunagi samasugusesse vesiliivasse. Spetsiaalset seiret ei loodud, et jälgida, kuhu AI-põhised isejuhtivad autod liiguvad. Alles pärast seda, kui kogukonna liikmed hakkasid kaebama, said linnajuhid aru, mis toimub. Lisateavet seda tüüpi ülelinnaliste probleemide kohta, mida autonoomsed sõidukid ja isejuhtivad autod tutvustavad, vaadake minu kajastust aadressil see link siin ja mis kirjeldab Harvardi juhitud uuringut, mille kaasautor sellel teemal tegin.

See näide tehisintellektil põhinevate isejuhtivate autode rändlusaspektidest illustreerib varasemat viidet sellele, et inimestel võib esineda ebasoodsate eelarvamustega olukordi, mille jaoks on ette nähtud kontrolle ja et neid inimjuhte asendav tehisintellekt on jäetud kasutamata. tasuta. Kahjuks võib tehisintellekt järk-järgult takerduda sarnastesse eelarvamustesse ja teha seda ilma piisavate kaitsepiireteta.

See näitab ka tehisintellekti tugevat eelarvamust mastaabiprobleemi puhul.

Inimjuhtide puhul võis meil siin või seal olla mõni üksik, kes kasutas mingit ebavõrdsust. Tehisintellekti juhtimissüsteemi jaoks on see tavaliselt üks selline ühtne AI terve isejuhtivate autode pargi jaoks. Seega oleksime võinud alustada näiteks viiekümne isejuhtiva autoga linnas (kõik töötavad sama AI-koodiga) ja suurendanud järk-järgult näiteks 500 isejuhtiva autoni (kõiki juhivad sama AI-kood). Kuna kõiki neid viitsada isejuhtivat autot juhib sama tehisintellekt, kehtivad nende kõigi suhtes samad tehisintellektis sisalduvad eelarvamused ja ebavõrdsused.

Skaleerimine teeb meile sellega seoses haiget.

Teine näide hõlmab tehisintellekti otsustamist, kas peatuda jalakäijatele, kellel pole tänava ületamiseks eesõigust.

Olete kahtlemata sõitnud ja kohanud jalakäijaid, kes ootasid tänava ületamist, kuid neil ei olnud selleks eesõigust. See tähendas, et teil oli õigus otsustada, kas peatuda ja lasta neil üle minna. Võiksite jätkata ilma neid üle laskmata ja järgida siiski täielikult seaduslikke sõidureegleid.

Uuringud selle kohta, kuidas inimestest juhid otsustavad selliste jalakäijate jaoks peatuda või mitte peatuda, on näidanud, et mõnikord teevad inimjuhid valiku ebasoodsate eelarvamuste põhjal. Inimjuht võib jalakäijale silma jääda ja otsustada mitte peatuda, kuigi ta oleks peatunud, kui jalakäija oleks teistsuguse välimusega, näiteks rassi või soo alusel. Olen seda uurinud aadressil link siin.

Kujutage ette, et tehisintellektil põhinevad isejuhtivad autod on programmeeritud lahendama küsimust, kas peatada või mitte peatuda jalakäijatele, kellel pole eesõigust. Siin on, kuidas AI arendajad otsustasid selle ülesande programmeerida. Nad kogusid andmeid linna videokaameratest, mis on paigutatud üle linna. Andmed näitavad inimjuhte, kes peatuvad jalakäijatele, kellel pole eesõigust, ja inimjuhte, kes ei peatu. See kõik on koondatud suurde andmekogumisse.

Masinõpet ja süvaõpet kasutades modelleeritakse andmed arvutuslikult. Tehisintellekti juhtimissüsteem kasutab seda mudelit, et otsustada, millal peatuda või mitte. Üldiselt on idee selles, et olenemata sellest, millest kohalik komme koosneb, suunab tehisintellekt isejuhtivat autot just nii.

Linnajuhtide ja elanike üllatuseks otsustas tehisintellekt jalakäija välimuse, sealhulgas tema rassi ja soo põhjal ilmselt peatuda või mitte peatuda. Isejuhtiva auto andurid skaneeriksid ootavat jalakäijat, söödaksid need andmed ML/DL mudelisse ning mudel edastaks tehisintellektile, kas peatuda või jätkata. Kahetsusväärselt oli linnal juba selles osas palju inimjuhtide eelarvamusi ja tehisintellekt jäljendab nüüd sama.

See näide illustreerib, et AI-süsteem võib lihtsalt dubleerida inimeste juba olemasolevaid ebasoodsaid eelarvamusi. Lisaks teeb see seda ulatuslikult. Vahel võidi mõnda inimjuhti õpetada seda ebasoodsat valikuvormi tegema või võib-olla isiklikult valitud seda tegema, kuid on tõenäoline, et suurem osa inimjuhtidest ei tee seda tõenäoliselt massiliselt.

Vastupidiselt sellele teostab isejuhtivate autode juhtimiseks kasutatav tehisintellekti juhtimissüsteem tõenäoliselt kohutavalt järjekindlalt ja kindlalt tuletatud eelarvamusi.

Järeldus

On mitmeid viise, kuidas proovida ja vältida AI väljatöötamist, millel on ebasoodsad eelarvamused või mis aja jooksul kallutab. Nii palju kui võimalik, on mõte probleemidest aru saada enne, kui lülitate sisse kõrge käigu ja alustate skaleerimiseks. Loodetavasti ei pääse eelarvamused nii-öelda uksest välja.

Oletame, et tehisintellektis tekivad ühel või teisel viisil eelarvamused. Kui olete tehisintellektiga laialdaselt kasutusele võetud, ei saa te lihtsalt teha üht neist sageli kuulutatud tehnilistest ideedest "tulista ja unusta". Peate usinalt AI tegemistega kursis hoidma ja püüdma tuvastada kõik ebasoodsad eelarvamused, mis vajavad parandamist.

Nagu varem märgitud, hõlmab üks lähenemine selle tagamist, et tehisintellekti arendajad on AI eetikast teadlikud ja seega julgustavad neid olema AI programmeerimisel, et neid probleeme vältida. Teine võimalus seisneb selles, et tehisintellekti ise jälgib ebaeetiline käitumine ja/või mõni teine ​​AI osa, mis jälgib teisi tehisintellekti süsteeme potentsiaalselt ebaeetilise käitumise suhtes. Olen oma kirjutistes käsitlenud palju muid võimalikke lahendusi.

Hetkel viimane mõte. Olles alustanud seda arutelu Platoni tsitaadiga, oleks ehk paslik lõpetada diskursus veel ühe Platoni kavala sõnavõtuga.

Platon väitis, et hea asja kordamisest pole kahju.

Tehisintellektiga mastaabis käimise lihtsus on kindlasti elujõuline vahend sellise optimistliku püüdluse saavutamiseks, kui tehisintellekt on AI heaks mitmekesisus. Me naudime head asja kordamist. Kui AI on AI For Bad ja tulvil ebasoodsaid eelarvamusi ja ebavõrdsust, võime toetuda Platoni märkustele ja öelda, et halva asja kordamine toob palju kahju.

Kuulame tähelepanelikult Platoni tarku sõnu ja kujundame oma tehisintellekti vastavalt välja.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- globaalses mastaabis-eriti-fueled-looming-fuling-autonomous-systems/