AI eetika ja AI seadus liiguvad standardite poole, mis selgelt tuvastavad ja haldavad AI eelarvamusi

Kas olete kunagi mänginud viiekümne kahe kaardi väljavõtmist?

See ei ole mäng, mida tavaliselt meelsasti ette võtaksite. Siin on põhjus. Keegi pakub teile, et see on väidetavalt lõbus spordiala ja kui võtate magusa sööda, siis visatakse terve mängukaartide paki õhku ja kokkuvõttes põrandale. Seejärel naeratab inimene sulle nipsakas naeratuse ja käsib sul kaardid kätte võtta. See on kogu mäng.

Nukitsamees!

Mul on teilt selle kohta veidi läbimõeldud küsimus esitada.

Oletame, et üks kaartidest libises lähedalasuva diivani alla. Kui olete kõik kaardid ära korjanud, teate, et üks on puudu, sest teie käes on ainult viiskümmend üks.

Küsimus on selles, kas saaksite kindlaks teha, milline kaart puudu oli?

Olen kindel, et ütleksite kohe, et saate hõlpsalt aru, milline kaart teie käes ei olnud. Kõik, mida pead tegema, on tekk korda seada. Teate, et standardpakk koosneb neljast mastist ja igas mastis on kaardid nummerdatud ühest kümneni ning seejärel Jack, Queen ja King.

Teate seda, sest standardne mängukaartide pakk põhineb standardil.

Oo, see väide võib tunduda ühe neist täiesti ilmsetest väidetest. Noh, jah, muidugi, standardne mängutekk põhineb standardil. Me kõik teame seda. Minu mõte on see, et kui meil on standard, saame vajadusel standardile tugineda. Lisaks sellele, et saate järeldada, milline kaart kaardipakist puudu on, saate ka hõlpsasti teiste inimestega mängida miljoneid tuntud kaardimänge. Kui kellelegi on räägitud mängureeglid, saab ta otse mängida, sest ta teab juba täielikult, millest mängupakk koosneb. Sa ei pea neile selgitama, et pakis on neli masti ja erinevalt nummerdatud kaarte. Nad juba teavad, et see nii on.

Kuhu ma sellega lähen?

Püüan teid suunata teele, mis on oluline vahend tehisintellekti ja eriti tehisintellekti eetika ja eetilise tehisintellekti valdkonnas edusammude saavutamiseks. Näete, me peame proovima välja pakkuda laialt levinud ja kõigiti kokku lepitud standardid tehisintellekti eetika kohta. Kui suudame seda teha, hõlbustab see eetilise tehisintellekti kasutuselevõttu ja on ilmselgelt eesmärk täiustada tehisintellektisüsteeme, mis pidevalt turule paiskuvad (nagu nummerdamata ja järjestamata metsikkaartide komplekt). Minu jätkuva ja ulatusliku katvuse kohta tehisintellekti eetikast, eetilisest tehisintellektist ja tehisintellekti seadusest vt link siin ja link siin, Ainult mõned nimed.

Üks konkreetne AI eetika segment või osa, mis on pälvinud palju meedia tähelepanu, koosneb tehisintellektist, millel on ebasoodsad eelarvamused ja ebavõrdsused. Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Seoses sellega pooldan ma AI kasutamist tehisintellekti hädade lahendamise osana, võitledes tulega sellisel mõtteviisil. Näiteks võime manustada eetilised tehisintellekti komponendid tehisintellektisüsteemi, mis jälgib, kuidas ülejäänud AI asju teeb ja võib seega reaalajas tabada mis tahes diskrimineerivaid jõupingutusi, vt minu arutelu aadressil link siin. Meil võiks olla ka eraldi AI-süsteem, mis toimiks teatud tüüpi tehisintellekti eetikamonitorina. Tehisintellekti süsteem toimib järelevaatajana, et jälgida ja tuvastada, millal mõni teine ​​tehisintellekt läheb ebaeetilist kuristikku (vt minu analüüsi selliste võimaluste kohta link siin).

Mõne hetke pärast jagan teiega mõningaid AI eetika üldpõhimõtteid. Selliseid nimekirju vedeleb siin-seal palju. Võib öelda, et universaalse veetluse ja üksmeele ainsat loetelu pole veel olemas. See on kahetsusväärne uudis. Hea uudis on see, et vähemalt AI eetika loendid on hõlpsasti kättesaadavad ja need kipuvad olema üsna sarnased. Kokkuvõttes viitab see sellele, et teatud tüüpi põhjendatud lähenemise kaudu leiame tee AI-eetika üldise sarnasuse poole.

Toon selle välja, et anda alus oma siinsele arutelule, mis keskendub AI eetika laiema valdkonna konkreetsele segmendile või osale, nimelt, nagu varem mainitud, AI eelarvamuste konkreetsele elemendile. Ka põhjus, miks ma seda teemat teiega jagan, on see, et riikliku standardi- ja tehnoloogiainstituudi (NIST) välja antud dokument püüab meid suunata AI-i eelarvamusi iseloomustava standardi poole. Dokumendil on õigus Tehisintellekti eelarvamuste tuvastamise ja haldamise standardi poole autorid Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt ja Patrick Hall ning selle avaldas USA Kaubandusministeerium, NIST Special Publication 1270, 2022. aasta märtsis.

Me võtame lahti selle käepärase ja julgustava jõupingutuse, et teha kindlaks, mida me AI eelarvamuste all mõtleme. Vana ütlus ütleb, et te ei saa hakkama sellega, mida te ei saa mõõta. Kui teil on standard, mis sätestab erinevad tehisintellekti eelarvamused, saate hakata mõõtma ja hallata tehisintellekti eelarvamusi.

Esiteks käsitleme lühidalt mõningaid üldisi eetilisi tehisintellekti ettekirjutusi, et illustreerida, mis peaks olema AI loomisel, väljatöötamisel või kasutajal ülioluline kaalutlus.

Näiteks nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimeid arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvate ja auditeeritavate metoodikate, andmeallikate ning kavandamisprotseduuride ja dokumentatsiooniga.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade väljaselgitamine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas kui tehisintellekti kodeerimisel peab olema tõeline kumm, mis teega kokku puutub, on olukord palju keerulisem.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendustegevust, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaline eeldus on, et tehisintellekti eetika põhimõtetest peavad kinni pidama ainult kodeerijad või need, kes programmeerivad tehisintellekti. Nagu varem öeldud, on tehisintellekti väljatöötamiseks ja väljatöötamiseks vaja küla, mille jaoks kogu küla peab olema kursis ja järgima tehisintellekti eetika ettekirjutusi.

Paljude nende peamiste tehisintellekti eetika ettekirjutuste aluseks on AI eelarvamuste salakavalus.

Täpselt nagu kaardipakk, oleks kindlasti tore, kui suudaksime tehisintellekti eelarvamused kuidagi rühmitada ülikondadeks või kategooriateks. Tõepoolest, NIST-i dokument pakub soovitatud rühmitamist.

Pakutakse välja kolm peamist kategooriat:

1) Süsteemsed eelarvamused

2) Statistilised ja arvutuslikud eelarvamused

3) Inimlikud eelarvamused

Kindlasti tuleb kaaluda, kas kõik tehisintellekti eelarvamused sobivad hästi ühte neist kolmest kategooriast. Võite kindlalt väita, et mõned AI eelarvamused jagunevad korraga ühte, kahte või kõigisse kolme kategooriasse. Lisaks võite väita, et mainimist väärivad rohkem kategooriad, näiteks mõni neljas, viies, kuues või rohkem rühmituste seeriaid.

Loodan, et see on see, mida te mõtlete, sest me peame kaasama kõik nende standardite kujundamisse. Kui teid häirib viis, kuidas need standardid esmakordselt kujunevad, kutsun teid üles pöörama seda energiat meie teiste abistamiseks, et muuta need lootustandvad standardid nii tugevaks ja täielikuks, kui neid saab nikerdada.

Praegu saame lähemalt vaadelda pakutud kolme kategooriat ja näha, millise käega oleme seni tegelenud (jah, ma kasutan ka edaspidi analoogiat mängukaardipakiga, tehes seda kogu selle kirjutatud kirjatüki jooksul võite panustada oma alumise dollari sellele mitte nii varjatud teemaässale).

Mida mõeldakse süsteemsetele eelarvamustele viitamise all?

NIST-i dokument ütleb järgmist: "Süsteemilised eelarvamused tulenevad konkreetsete institutsioonide protseduuridest ja tavadest, mis toimivad viisil, mille tulemusel teatud sotsiaalsed rühmad on eelistatud või eelistatud ja teised ebasoodsasse olukorda või devalveerimine. See ei pea olema teadliku eelarvamuse või diskrimineerimise tagajärg, vaid pigem sellest, et enamus järgib kehtivaid reegleid või norme. Institutsionaalne rassism ja seksism on kõige levinumad näited” (pange tähele, et see on vaid lühike väljavõte ja lugejaid julgustatakse nägema põhjalikumat selgitust).

AI satub süsteemsete eelarvamuste hulka, pakkudes vahendeid nende eelarvamuste edastamiseks ja rakendamiseks tehisintellektil põhinevates rakendustes. Iga kord, kui kasutate tehisintellektiga seotud tarkvara, võib see, nagu teate, sisaldada hulga kõrvalekaldeid, mis on tehisintellekti loomiseni viinud ettevõtete ja tööstusharu tavade kaudu juba süsteemi sisestatud. NISTi uuringu kohaselt: "Need eelarvamused esinevad tehisintellektis kasutatavates andmekogumites ning institutsionaalsetes normides, tavades ja protsessides kogu tehisintellekti elutsükli jooksul ning laiemas kultuuris ja ühiskonnas."

Järgmisena kaaluge nihkete komplekti, mis on märgistatud kui statistilised ja arvutuslikud nihked.

NIST-i dokumendis on öeldud: „Statistilised ja arvutuslikud nihked tulenevad vigadest, mis tekivad siis, kui valim ei ole üldkogumi representatiivne. Need eelarvamused tulenevad süstemaatilisest, mitte juhuslikust veast ja võivad ilmneda eelarvamuste, erapooletuse või diskrimineeriva kavatsuse puudumisel. Tehisintellektisüsteemides esinevad need eelarvamused AI-rakenduste väljatöötamisel kasutatavates andmekogumites ja algoritmilistes protsessides ning need tekivad sageli siis, kui algoritme õpetatakse ühte tüüpi andmetele ja neid ei saa ekstrapoleerida nendest andmetest kaugemale.

Seda tüüpi statistilisi ja arvutuslikke eelarvamusi kasutatakse sageli tehisintellektisüsteemis, mis kasutab masinõpet (ML) ja süvaõpet (DL). Kaasaegse ML/DL-i kopsaka teema esiletõstmine eeldab sellega seotud kõrvalpuutet selle kohta, mis on AI ja mis on ML/DL.

Veenduge, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem (minu üliintelligentse tehisintellekti kui võimaluse uurimist vt. katvus siin).

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet ja süvaõpet, mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

See viib meid otse NIST-i kolme rühmituse komplekti kolmandasse kategooriasse, täpsemalt inimeste eelarvamuste rolli AI eelarvamuste ilmnemisel. NIST-i dokument näitas järgmist: „Inimeste eelarvamused peegeldavad süstemaatilisi vigu inimmõtlemises, mis põhinevad piiratud arvul heuristilistel põhimõtetel ja väärtuste ennustamisel lihtsamatele hinnanguoperatsioonidele. Need eelarvamused on sageli kaudsed ja kipuvad olema seotud sellega, kuidas üksikisik või rühm tajub teavet (nt automatiseeritud tehisintellekti väljundit), et teha otsus või täita puuduv või tundmatu teave. Need eelarvamused on kõikjal AI elutsükli institutsioonilistes, rühmades ja individuaalsetes otsustusprotsessides ning tehisintellekti rakenduste kasutamisel pärast kasutuselevõttu.

Olete nüüd saanud kolme kategooria kiire sissejuhatuse.

Tahaksin teiega jagada täiendavat mõtlemisainet, nagu on väljendatud NIST-i dokumendis. Nende narratiivis olev diagramm annab kasuliku kokkuvõtte peamistest küsimustest ja kaalutlustest, mis on kõigi kolme AI eelarvamuste komplekti aluseks. Loetlen need siin teie mugavuse ja täiustamise huvides.

#1: Süsteemsed eelarvamused

  • Keda loetakse ja keda ei loeta?

— latentsete muutujatega seotud probleemid

— Marginaliseeritud rühmade alaesindatus

— Ebavõrdsuse automatiseerimine

— Alaesindatus kasuliku funktsiooni määramisel

— Protsessid, mis soosivad enamust/vähemust

— kultuuriline eelarvamus eesmärgifunktsioonis (parim üksikisikutele vs parim rühmale)

  • Kuidas me teame, mis on õige?

— ebavõrdsuse suurenemine (AI suurem kasutamine mõjutab rühmi rohkem)

— Ennustavale politseitööle on negatiivsem mõju

— Sõidujagamise/isejuhtivate autode jms laialdane kasutuselevõtt. võib muuta poliitikat, mis mõjutab elanikkonda kasutuse põhjal

#2: Statistilised ja arvutuslikud eelarvamused

  • Keda loetakse ja keda ei loeta?

— valimi ja valiku nihe

— Puhvermuutujate kasutamine, kuna neid on lihtsam mõõta

— Automatiseerimise eelarvamus

— Likerti skaala (kategooriast järguni kardinalini)

- Mittelineaarne vs lineaarne

— Ökoloogiline eksitus

— L1 vs. L2 normi minimeerimine

— Üldised raskused kontekstuaalsete nähtuste kvantifitseerimisel

  • Kuidas me teame, mis on õige?

— Piisava ristvalideerimise puudumine

— ellujäämise eelarvamus

— Raskused õiglusega

#3: inimlikud eelarvamused

  • Keda loetakse ja keda ei loeta?

— vaatluse kallutatus (tänavavalguse efekt)

— Kättesaadavuse nihe (ankurdamine)

- McNamara eksitus

— Grupimõtlemine viib kitsaste valikuteni

— Rashomoni efekt toob kaasa subjektiivse propageerimise

— Eesmärkide kvantifitseerimise raskused võivad viia McNamara eksimuseni

  • Kuidas me teame, mis on õige?

— Kinnituse eelarvamus

— Automatiseerimise eelarvamus

Vean kihla, et selle kaaluka arutelu praegusel hetkel soovite mõningaid illustreerivaid näiteid, mis võiksid tutvustada AI eelarvamuste kolme kategooriat. Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Minu kui tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede, eksperdina palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi tehisintellekti eelarvamuste kolme kategooria kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on need, kus tehisintellekt juhib autot täiesti iseseisvalt ja juhtimisülesande täitmisel puudub inimabi.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

Tõelist isejuhtivat autot 5. tasemel veel ei ole ja me ei tea veel isegi, kas seda on võimalik saavutada või kui kaua selleni jõudmine aega võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja AI eelarvamused

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Usun, et see annab piisava hulga hoiatusi, mis on aluseks sellele, mida ma kavatsen seostada.

Oleme valmis nüüd põhjalikult uurima isejuhtivaid autosid ja eetilisi tehisintellekti võimalusi, mis hõlmavad kolme kategooria AI eelarvamusi.

Kujutage ette, et teie naabruskonna tänavatel liigub tehisintellektil põhinev isejuhtiv auto ja tundub, et see sõidab ohutult. Algul olite erilist tähelepanu pööranud igale korrale, kui teil õnnestus isejuhtivale autole pilk peale visata. Autonoomne sõiduk paistis silma oma elektrooniliste andurite riiuliga, mis sisaldas videokaameraid, radariseadmeid, LIDAR-seadmeid ja muud sarnast. Pärast mitut nädalat isejuhtiva autoga teie kogukonnas ringi sõitmist märkate seda nüüd vaevu. Teie arvates on see lihtsalt üks auto niigi tiheda liiklusega avalikel teedel.

Et te ei arvaks, et isejuhtivate autode nägemisega on võimatu või ebausutav tutvuda, olen sageli kirjutanud sellest, kuidas isejuhtivate autode katsetamise piirkonnad on järk-järgult harjunud nägema ehitud sõidukeid, vaata minu analüüsi aadressil see link siin. Paljud kohalikud elanikud suundusid lõpuks suu lõhki haigutava ülbe pilgutamise asemel igavusest haigutama, et olla tunnistajaks nende looklevatele isejuhtivatele autodele.

Tõenäoliselt on praegu peamine põhjus, miks nad võivad autonoomseid sõidukeid märgata, ärrituse ja ärrituse tõttu. Raamatus olevad AI-juhtimissüsteemid tagavad, et autod järgivad kõiki kiiruspiiranguid ja liikluseeskirju. Traditsioonilistes inimeste juhitavates autodes kirglikud inimjuhid ärrituvad mõnikord, kui jääte kinni rangelt seaduskuulekate tehisintellektil põhinevate isejuhtivate autode taha.

See on midagi, millega meil kõigil võib olla vaja harjuda, kas õigustatult või valesti.

Tagasi meie loo juurde.

Järgmisena kaalume, kuidas võivad süsteemsed eelarvamused selles isejuhtivate autode kontekstis mängida.

Mõned asjatundjad on väga mures, et isejuhtivad autod jäävad ainult jõukate ja eliidi pärusmaaks. Võib juhtuda, et isejuhtivate autode kasutamise kulud on ülemäära kallid. Kui teil pole suuri raha, ei pruugi te kunagi isejuhtiva auto sisemust näha. Väidetavalt peavad need, kes hakkavad kasutama isejuhtivaid autosid, olema rikkad.

Sellisena manitsevad mõned murettekitavalt, et tehisintellektil põhinevate isejuhtivate autode tulekut levib süsteemne eelarvamus. Üldine autonoomne sõidukite tööstussüsteem tervikuna hoiab isejuhtivad autod vaeste või vähem jõukate inimeste käest eemal. See ei pruugi olla ilmselge kavatsus ja lihtsalt selgub, et ainus usutav viis isejuhtivate autode leiutamisega kaasnevate koormavate kulude hüvitamiseks on küsida ennekuulmatult kõrgeid hindu.

Kui tõrjuda, et tänapäeval on sellised isejuhtivate autode katsetused, mis võimaldavad igapäevainimesel kasutada, seega tundub ilmne, et sa ei pea iseenesest rikas olema, siis vastuargumendiks on see, et tegemist on omamoodi kestamänguga. see oli. Autotootjad ja isejuhtivad tehnoloogiaettevõtted on väidetavalt valmis andma mulje, nagu ei oleks kulu sisuliseks takistuseks. Nad teevad seda praegu avalike suhete eesmärgil ja tõstavad hindu, kui kortsud selgeks saavad. Vandenõustaja võib isegi väita, et "katsejäneseid" kui igapäevast inimest kasutatakse kahjulikult selleks, et võimaldada rikastel lõpuks rikkamaks saada.

Seega, arvestades seda üsna vaidlusi tekitavat asja ja pannes oma kaks senti sellele totrale teemale, ei usu ma, et isejuhtivad autod igapäevaseks kasutamiseks ülehinnatakse. Ma ei lasku siin üksikasjadesse sellise väite esitamise aluse kohta ja kutsun teid vaatama minu tähelepanelikke arutelusid aadressil link siin ja ka kell link siin.

Edasi liikudes võime järgmisena käsitleda tehisintellektiga seotud statistiliste ja arvutuslike eelarvamuste küsimust.

Mõelge näiliselt ebaolulisele küsimusele, kus rändlevad isejuhtivad autod, et reisijaid peale võtta. See tundub olevat täiesti kahjutu teema. Kasutame lugu linnast, kus on isejuhtivad autod, et tuua esile tehisintellektiga seotud statistiliste ja arvutuslike eelarvamuste võib-olla üllatavalt potentsiaalne tont.

Alguses oletagem, et tehisintellekt rändas isejuhtivate autode vahel kogu linnas. Kõigil, kes soovisid isejuhtiva autoga sõitu taotleda, oli põhimõtteliselt võrdne võimalus selle saamiseks. Järk-järgult hakkas tehisintellekt hoidma isejuhtivaid autosid rändluses vaid ühes linnaosas. See jaotis oli suurem raha teenija ja AI-süsteem oli programmeeritud proovima tulusid maksimeerida kogukonnas kasutamise osana.

Alevi vaesunud osade kogukonnaliikmetel oli väiksem tõenäosus isejuhtivast autost sõita. Põhjus oli selles, et isejuhtivad autod asusid kaugemal ja liikusid piirkonna suurema tuluga osas. Kui päring saabus linna kaugemast osast, saavad kõik lähemast asukohast päringud, mis olid tõenäoliselt linna „austatud” osas, kõrgema prioriteedi. Lõpuks oli isejuhtivate autode hankimine mujal kui linna rikkamas osas peaaegu võimatu, mis oli ärritav nende jaoks, kes elasid praegu loodusvarade näljas piirkondades.

Võiksite väita, et tehisintellekt langes suures osas statistiliste ja arvutuslike eelarvamuste vormile, mis on sarnane puhverpõhise diskrimineerimise vormile (mida sageli nimetatakse ka kaudseks diskrimineerimiseks). AI ei olnud programmeeritud neid vaesemaid linnaosasid vältima. Selle asemel "õppis" seda tegema ML/DL-i kasutamise kaudu.

Eeldati, et tehisintellekt ei lange kunagi sellisesse häbiväärsesse vesiliivasse. Spetsiaalset seiret ei loodud, et jälgida, kuhu AI-põhised isejuhtivad autod liiguvad. Alles pärast seda, kui kogukonna liikmed hakkasid kaebama, said linnajuhid aru, mis toimub. Lisateavet seda tüüpi ülelinnaliste probleemide kohta, mida autonoomsed sõidukid ja isejuhtivad autod tutvustavad, vaadake minu kajastust aadressil see link siin ja mis kirjeldab Harvardi juhitud uuringut, mille kaasautor sellel teemal tegin.

Tehisintellektiga seotud eelarvamuste kolmanda kategooria puhul käsitleme näidet, mille kohaselt tehisintellekt otsustab, kas peatuda, et oodata jalakäijaid, kellel ei ole tänava ületamiseks eesõigust.

Olete kahtlemata sõitnud ja kohanud jalakäijaid, kes ootasid tänava ületamist, kuid neil ei olnud selleks eesõigust. See tähendas, et teil oli õigus otsustada, kas peatuda ja lasta neil üle minna. Võiksite jätkata ilma neid üle laskmata ja järgida siiski täielikult seaduslikke sõidureegleid.

Uuringud selle kohta, kuidas inimestest juhid otsustavad selliste jalakäijate jaoks peatuda või mitte peatuda, on näidanud, et mõnikord teevad inimjuhid valiku ebasoodsate eelarvamuste põhjal. Inimjuht võib jalakäijale silma jääda ja otsustada mitte peatuda, kuigi ta oleks peatunud, kui jalakäija oleks teistsuguse välimusega, näiteks rassi või soo alusel. Olen seda uurinud aadressil link siin.

Kujutage ette, et tehisintellektil põhinevad isejuhtivad autod on programmeeritud lahendama küsimust, kas peatada või mitte peatuda jalakäijatele, kellel pole eesõigust. Siin on, kuidas AI arendajad otsustasid selle ülesande programmeerida. Nad kogusid andmeid linna videokaameratest, mis on paigutatud üle linna. Andmed näitavad inimjuhte, kes peatuvad jalakäijatele, kellel pole eesõigust, ja inimjuhte, kes ei peatu. See kõik on koondatud suurde andmekogumisse.

Masinõpet ja süvaõpet kasutades modelleeritakse andmed arvutuslikult. Tehisintellekti juhtimissüsteem kasutab seda mudelit, et otsustada, millal peatuda või mitte. Üldiselt on idee selles, et olenemata sellest, millest kohalik komme koosneb, suunab tehisintellekt isejuhtivat autot just nii.

Linnajuhtide ja elanike üllatuseks otsustas tehisintellekt jalakäija vanusest lähtuvalt ilmselt peatuda või mitte peatuda. Kuidas see juhtuda sai?

Inimjuhi diskreetsuse videot lähemalt vaadates selgub, et paljud peatumata jätmise juhtumid hõlmasid jalakäijaid, kellel oli vanuri kepp. Näis, et autojuhid ei soovinud peatuda ja eakat inimest üle tänava lasta, arvatavasti seetõttu, et kellelgi võib reisimiseks kuluda aega. Kui jalakäija näis, et suudab kiiresti üle tänava joosta ja juhi ooteaega minimeerida, lubasid juhid inimese ülekäigurada paremini.

See mattus sügavalt AI juhtimissüsteemi. Isejuhtiva auto andurid skaneeriksid ootavat jalakäijat, söödaksid need andmed ML/DL mudelisse ning mudel edastaks tehisintellektile, kas peatuda või jätkata. Matemaatiliselt kasutati kõiki visuaalseid märke, et jalakäija võib ületada aeglaselt, näiteks jalutuskepi kasutamist, et teha kindlaks, kas tehisintellekti juhtimissüsteem peaks laskma ootaval jalakäijal ületada või mitte.

Võiks väita, et see tugines olemasolevale inimlikule eelarvamusele.

Järeldus

Mõned viimased mõtted praegu.

On levinud ütlus, et te ei saa jagatavaid kaarte vahetada ja selle asemel peate õppima, kuidas adekvaatselt mängida ükskõik millise käega, mis teile on antud.

Tehisintellekti eelarvamuste puhul, kui me ei hakka innukalt tegelema tehisintellekti eetika kehtestamisega kõikjal ja eriti ei tugevda tehisintellekti eelarvamuste iseloomustamist, on sellised käed, millega meiega tegeletakse, täis ebaeetilisust, ja võib-olla ebaseaduslik kiht. Alustuseks peame lõpetama nende kaartide jagamise. Julge eesmärk luua ja levitada eetilisi tehisintellekti standardeid on ülioluline vahend eelseisva kasvava tsunami vastu võitlemiseks. AI For Bad.

Võite kindlalt väita, et ohjeldamatu tehisintellekti erapoolik ja ebaeetiline tehisintellekt on nagu õhuke kaardimaja, mis laguneb enda peale ja on tõenäoliselt katastroofiline meile kõigile.

Mängime võidu nimel, tehes seda sobivalt eetilise tehisintellektiga.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/