Tehisintellekti eetika ütleb, et tehisintellekti tuleks eriti kasutada siis, kui inimeste eelarvamusi on palju

Inimene on õppinud tundma oma piiranguid.

Võib-olla mäletate samasugust kuulsat joont meie piirangute tundmise kohta, nagu tegelane Dirty Harry 1973. aasta filmis pealkirjaga. Magnum Force (näitleja Clint Eastwoodi öeldud sõnade järgi tema meeldejäävas rollis inspektor Harry Callahanina). Üldine arusaam on see, et mõnikord kipume oma piiridest mööda vaatama ja end vastavalt kuuma vette sattuma. Olenemata sellest, kas tegemist on ülbuse, egotsentrilisuse või lihtsalt oma võimete suhtes pimedaga, on ettekirjutus oma kalduvustest ja puudustest teadlik olla ja nendega selgesõnaliselt arvestada on igati mõistlik ja abivalmis.

Lisame targale nõuandele uue vindi.

Tehisintellekt (AI) on õppinud tundma oma piiranguid.

Mida ma selle austatud lööklause variandi all silmas pean?

Selgub, et esialgne kiirustamine tänapäevase tehisintellekti kasutuselevõtuks maailma probleemide lootusrikkaks lahendajaks on muutunud räpaseks ja üleni mudaseks arusaamisega, et tänapäeva tehisintellektil on mõned üsna tõsised piirangud. Me lahkusime meeliülendavatest pealkirjadest AI heaks ja oleme üha enam sattunud sellesse AI For Bad. Näete, paljud AI-süsteemid on välja töötatud ja välja töötatud kõikvõimalike ebasoodsate rassiliste ja sooliste eelarvamustega ning hulgaliselt muid selliseid kohutavaid ebavõrdsusi.

Minu ulatusliku ja jätkuva AI eetika ja eetilise tehisintellekti käsitlemise kohta vt link siin ja link siin, Ainult mõned nimed.

Nendes tehisintellektisüsteemides avastatud eelarvamused ei ole seda tüüpi "tahtlikud", mida me inimkäitumisele omistaksime. Mainin seda rõhutamaks, et tänapäeva tehisintellekt ei ole tundlik. Hoolimata nendest räuskavatest pealkirjadest, mis viitavad vastupidisele, pole lihtsalt ühtegi tehisintellekti, mis oleks mõistuse lähedal. Lisaks sellele ei tea me, kuidas AI tundlikkuse klassi saada, ja keegi ei saa kindlalt öelda, kas me kunagi saavutame tehisintellekti tundlikkuse. Võib-olla see kunagi juhtub või võib-olla mitte.

Niisiis, minu mõte on see, et me ei saa konkreetselt määrata kavatsust sellisele AI-le, mis meil praegu on. Nagu öeldud, saame AI-süsteemide loojatele ohtralt kavatsust omistada. Mõned tehisintellekti arendajad ei ole teadlikud tõsiasjast, et nad on välja töötanud AI-süsteemi, mis sisaldab ebameeldivaid ja võib-olla ebaseaduslikke eelarvamusi. Samal ajal mõistavad teised tehisintellekti arendajad, et imbuvad oma tehisintellektisüsteemidesse eelarvamusi, tehes seda potentsiaalselt sihipäraselt valesti.

Mõlemal juhul on tulemus siiski ebasobiv ja tõenäoliselt ebaseaduslik.

Tehakse suuri jõupingutusi tehisintellekti eetika põhimõtete levitamiseks, mis valgustavad tehisintellekti arendajaid ja annavad sobivaid juhiseid, kuidas vältida nende tehisintellektisüsteemidesse eelarvamusi. See aitab kahel viisil. Esiteks pole tehisintellekti loojatel enam valmis vabandust, et nad lihtsalt ei teadnud, milliseid ettekirjutusi tuleks järgida. Teiseks püütakse neid, kes kalduvad kõrvale eetilistest tehisintellekti tingimustest, kergemini tabada ja näidata, et nad hoiavad ära selle, mille tegemise ja tegemata jätmise eest neid hoiatati.

Mõelgem lühidalt mõnele peamisele eetilisele tehisintellekti ettekirjutusele, et illustreerida, millele tehisintellekti ehitajad peaksid mõtlema ja AI eetika seisukohast rangelt järgima.

Nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimeid arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvate ja auditeeritavate metoodikate, andmeallikate ning kavandamisprotseduuride ja dokumentatsiooniga.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade kindlaksmääramine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas on palju keerulisem olukord, kui AI kodeering peab olema tõeline kumm, mis teega kokku puutub.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendamise jõupingutusi, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti kehtestatud normide järgimise raames. See on oluline esiletõst, kuna tavaline eeldus on, et tehisintellekti eetika mõistetest peavad kinni pidama ainult kodeerijad või need, kes programmeerivad tehisintellekti. Pange tähele, et tehisintellekti väljatöötamiseks ja väljatöötamiseks on vaja küla. Selle nimel peab kogu küla tehisintellekti eetika osas käpuli hoidma.

Igatahes, nüüd, kui olen jõudnud järeldusele, et tehisintellekt võib sisaldada eelarvamusi, võime ehk kõik nõustuda nende kahe ilmse faktiga:

1. Inimestel võib olla palju ebasoodsaid eelarvamusi ja nad võivad neile reageerida

2. AI-l võib olla palju ebasoodsaid eelarvamusi ja see võib nendele eelarvamustele reageerida

Mulle ei meeldi selles kontekstis inimeste ja tehisintellekti kõrvutamine, kuna see võib kuidagi viidata sellele, et tehisintellektil on inimestega võrdne tundlikkus. See pole kindlasti nii. Naasen hetkeks AI antropomorfiseerimisega seotud kasvavate murede juurde veidi hiljem selles arutelus.

Kumb on hullem, kas inimesed, kellel on ebasoodsad eelarvamused, või tehisintellekt, kes seda teeb?

Julgen väita, et see küsimus on üks neist jaburatest valikutest. See on vanasõnaline kahest kurjast väiksem, võib vaielda. Soovime, et inimesed ei kehastaks ebasoodsaid eelarvamusi. Lisaks sooviksime, et isegi kui inimestel on ebasoodsaid eelarvamusi, nad ei tegutseks nende eelarvamuste alusel. Sama võib tabavalt öelda AI kohta. Soovime, et tehisintellekt ei manustaks ebasoodsaid eelarvamusi ja et isegi kui on selliseid sisemiselt kodeeritud eelarvamusi, siis tehisintellekt neile vähemalt ei reageeriks.

Soovid ei pruugi aga maailma juhtida (minu analüüsiks tõusva ja häiriva nn. AI soovide täitumine ühiskonnas laiemalt, vt link siin).

Okei, me ilmselgelt tahame, et inimesed teaksid oma piiranguid. On oluline ära tunda, kui teil on ebasoodsaid eelarvamusi. Sama oluline on püüda vältida nende ebasoodsate eelarvamuste imbumist teie tegevustesse ja otsustesse. Tänapäeval proovivad ettevõtted igasuguseid lähenemisviise, et hoida oma töötajaid ebasoodsate eelarvamuste sattumise eest. Töötajatele korraldatakse erikoolitust, kuidas oma tööd eetiliselt läbi viia. Protsessid on kujundatud töötajate ümber, et teavitada neid, kui nad näivad avaldavat ebaeetilisi kombeid. Ja nii edasi.

Teine vahend inimeste ja nende ebasoodsate eelarvamustega toimetulekuks oleks inimpõhise töö automatiseerimine. Jah, lihtsalt eemaldage inimene ahelast. Ärge lubage inimesel otsustusülesannet täita ja tõenäoliselt pole teil enam muret selle pärast, et inimene suhtub ebasoodsatesse eelarvamustesse. Inimene pole kaasatud ja seega näib inimeste võimalike eelarvamuste probleem olevat lahendatud.

Toon selle välja, kuna oleme tunnistajaks järkjärgulisele ja ulatuslikule üleminekule AI-le algoritmiotsuste tegemisel (ADM). Kui suudate inimtöölise AI-ga asendada, on tõenäoline, et sellest saab palju kasu. Nagu juba mainitud, ei muretseks te enam selle inimtöötaja (selle, kes seda tööd enam ei tee) inimlike eelarvamuste pärast. Tõenäoliselt on AI üldiselt odavam, võrreldes pikaajalise ajahorisondiga. Te loobute kõigist muudest raskustest, mis inimtöölistega kaasnevad. Jne.

Tundub, et populaarsust koguv ettepanek on järgmine: Kui proovite otsustada, kuhu tehisintellekti kõige paremini paigutada, vaadake esmalt seadeid, mis juba hõlmavad teie töötajate ebasoodsaid inimlikke eelarvamusi ja mille puhul need eelarvamused alandavad teatud otsustusülesandeid või muudavad need muul viisil liiga keeruliseks.

Kokkuvõte on see, et näib mõistlik koguda tehisintellekti investeerimisel oma raha eest kõige rohkem raha, võttes sihiks otseselt inimeste väga avatud otsustusülesanded, mida on ebasoodsate eelarvamuste infusiooni vaatenurgast raske kontrollida. Eemaldage seda rolli täitvad inimtöötajad. Asendage need AI-ga. Eelduseks on, et tehisintellektil ei oleks selliseid ebasoodsaid eelarvamusi. Seetõttu võite oma kooki süüa ja ka seda süüa, nimelt saate otsustamisülesanded ette võtta ja seda teha, jättes maha ebasoodsate eelarvamuste eetilise ja juriidilise varju.

Kui te seda kirjeldate, muudab ROI (investeeringutasuvus) tehisintellekti kasutuselevõtu tõenäoliselt lihtsaks valikuks.

Siin on, kuidas see tavaliselt välja näeb.

Vaadake kogu oma ettevõtet ja proovige tuvastada kliente mõjutavad otsustusülesanded. Millised neist tööülesannetest on kõige tõenäolisemalt sobimatult moonutatud, kui töötajad kehastavad ebasoodsaid eelarvamusi? Kui olete juba püüdnud neid eelarvamusi ohjeldada, siis võib-olla lasete asjadel nii seista. Teisest küljest, kui eelarvamused ilmnevad pidevalt ja nende kõrvaldamine on koormav, kaaluge mõne asjakohase tehisintellekti sellesse rolli jätmist. Ärge hoidke töötajaid segaduses, kuna nad võivad tehisintellekti alistada või lükata tehisintellekti otse tagasi ebasoodsate eelarvamuste kuristikku. Samuti veenduge, et tehisintellekt suudab ülesannet oskuslikult täita ja et olete töö tegemiseks vajalikke otsustusaspekte piisavalt tabanud.

Loputage ja korrake.

Ma mõistan, et see tundub otsekohene arusaam, kuigi mõistan, et on palju võimalusi, kuidas inimtöötajate asendamine tehisintellektiga võib kergesti viltu minna. Paljud ettevõtted olid innukad selliseid meetmeid võtma ega mõelnud, kuidas seda teha. Selle tulemusena ajasid nad sageli palju hullemat jama, kui neil alustuseks oli.

Tahan selgitada ja rõhutada, et AI ei ole imerohi.

Sellest rääkides on üks suur tõrge, mis puudutab näiliselt inimerapoolikute otsustajate väljaviskamist väidetavalt erapooletu tehisintellektiga. Probleem seisneb selles, et võite lihtsalt asendada ühe ebasoodsate eelarvamuste komplekti teisega. Varasemate näidustuste kohaselt võib tehisintellekt sisaldada soovimatuid eelarvamusi ja võib neid eelarvamusi arvesse võtta. Julgelt oletada, et erapoolikute inimeste vahetamine erapooletu tehisintellekti vastu ei ole veel kõik, mis seda on.

Lühidalt, siin on tehing, kui vaadata asja rangelt eelarvamuste tegurite põhjal:

  • AI-l pole ebasoodsaid eelarvamusi ja AI-põhine ADM on mugav kasutusele võtta
  • AI-l on samasugused ebasoodsad eelarvamused nagu asendatud inimestel ja seetõttu on tehisintellektil põhinev ADM murettekitav
  • Tehisintellekt toob kaasa uusi ebasoodsaid eelarvamusi, mis on lisaks asendatud inimeste omadele, ja tõenäoliselt halvendab olukordi vastavalt
  • Tehisintellekt näib algul korras olevat ja muutub siis järk-järgult ebasoodsateks eelarvamusteks
  • Muu

Saame need võimalused lühidalt lahti pakkida.

Esimene on idealiseeritud versioon sellest, mis võib juhtuda. AI-l pole ebasoodsaid eelarvamusi. Paned AI paika ja see teeb oma tööd suurepäraselt. Hea sulle! Muidugi võiks loota, et olete ka tehisintellekti kaasamisest tingitud inimtöötajate ümberasustamisega mingil osaval viisil hakkama saanud.

Teisel juhul panete paika tehisintellekti ja avastate, et tehisintellektil on samad ebasoodsad eelarvamused, mis inimtöötajatel. Kuidas see saab olla? Tavaline viis sellesse lõksu langemiseks on masinõppe (ML) ja Deep Learning (DL) kasutamine, mis põhineb kogutud andmetel selle kohta, kuidas selles rollis olevad inimesed varem oma otsuseid tegid.

Lubage mul üks hetk selgitada.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on seda tööd teinud aastaid, on kasutanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenel, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Modelleerimisel per se ei ilmne tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. Salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Kõik kokkuvõttes võite lõpuks tagasi pöörduda. Inimeste samad ebasoodsad eelarvamused peegelduvad nüüd tehisintellekti süsteemis arvutuslikult. Te pole eelarvamusi välja juurinud.

Mis veelgi hullem, võite vähem mõista, et tehisintellektil on eelarvamusi. Inimeste puhul võite tavaliselt olla valvel, et inimestel on ebasoodsaid eelarvamusi. See on põhiline ootus. AI kasutamine võib sundida juhte uskuma, et automatiseerimine on täielikult eemaldanud igasuguse inimliku eelarvamuse. Seega häälestavad nad end jalga tulistades. Nad vabanesid näiliselt teadaolevalt ebasoodsate eelarvamustega inimestest, asendades need tehisintellektiga, millel arvati, et selliseid eelarvamusi ei olnud, kuid on nüüdseks kasutusele võetud AI, mis on täis samu eelarvamusi, mis juba teadaolevalt eksisteerivad.

See võib asjadel päris risti-rästi minna. Võimalik, et olete eemaldanud muud inimtöölistega kasutatavad kaitsepiirded, mis olid loodud selleks, et tuvastada ja vältida nende juba eeldatavate inimeste eelarvamusi. AI-l on nüüd vabad käed. Miski pole paigas, et seda enne tegutsemist tabada. Tehisintellekt võib seejärel hakata teid juhtima kallutatud tegevuste tohutu kuhjumise kurvale teele.

Ja olete ebamugavas ja võib-olla vastutustundlikus asendis, mida teadsite kunagi eelarvamustest ja nüüd olete lubanud neil eelarvamustel kaost tekitada. Üks asi on võib-olla see, et te pole kunagi kohanud selliseid ebasoodsaid eelarvamusi ja siis ootamatult käivitab tehisintellekt need. Võite proovida seda välja vabandada "kes oleks arvanud" segajaga (võib-olla mitte eriti veenvalt). Kuid kui olete nüüd seadistanud tehisintellekti, mis teeb samu ebasoodsaid erapoolikuid toiminguid nagu varem, siis teie vabandused muutuvad üha hõredamaks ja vaesemaks.

Selle muutmine tähendab, et tehisintellekt ilmutab ebasoodsaid eelarvamusi, mida varem ei olnud, kui inimesed seda ülesannet täitsid. Võib öelda, et seda on võib-olla raskem ära hoida, kuna see koosneb "uutest" eelarvamustest, mida ettevõte varem ei otsinud. Lõppkokkuvõttes ei pruugi vabandused teile palju kergendust pakkuda. Kui AI-süsteem on sattunud nii ebaeetilisele kui ka ebaseaduslikule territooriumile, võib teie hani olla keedetud.

Veel üks aspekt, mida meeles pidada, on see, et tehisintellekt võib alguse saada suurepäraselt ja seejärel jõuda ebasoodsate eelarvamusteni. See on eriti tõenäoline, kui tehisintellekti ajakohasena hoidmiseks kasutatakse masinõpet või süvaõpet pidevalt. Olenemata sellest, kas ML/DL töötab reaalajas või teeb perioodiliselt värskendusi, tuleks tähelepanu pöörata sellele, kas tehisintellekt võib neelata andmeid, mis sisaldavad nüüd eelarvamusi ja mida varem ei olnud.

Juhtidele, kes arvavad, et saavad võluvitsaga vehkides kallutatud inimtööliste asendamiseks tehisintellektiga vehkides tasuta lõunasööki, ootab neid ees väga ebaviisakas ärkamine. Vaadake minu arutelu selle kohta, kui tähtis on anda juhtidele AI eetika ettekirjutustega õigusi, aadressil link siin.

Vean kihla, et selle arutelu praegusel hetkel soovite mõningaid reaalse maailma näiteid, mis võiksid näidata, kui keeruline on asendada (või mitte) inimeste ebasoodsad eelarvamused AI-põhiste ebasoodsate eelarvamustega.

Mul on hea meel, et sa küsisid.

Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Näete, et tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede eksperdina, palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi tehisintellekti ebasoodsate eelarvamuste kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on sellised, et tehisintellekt juhib autot täielikult omaette ja sõiduülesande täitmisel pole inimest vaja.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

5. tasemel pole veel tõelist isesõitvat autot, mida me veel ei tea, kas seda on võimalik saavutada ja kui kaua sinna sõitmine võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja ebasoodsate eelarvamustega tehisintellekt

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Usun, et see annab piisava hulga hoiatusi, mis on aluseks sellele, mida ma kavatsen seostada.

Oleme valmis nüüd põhjalikult uurima isejuhtivaid autosid ja eetilisi tehisintellekti võimalusi, mis hõlmavad tehisintellekti ja ebasoodsate eelarvamuste uurimist.

Kasutame lihtsalt otsest näidet. AI-põhine isejuhtiv auto on teie naabruskonna tänavatel käimas ja tundub, et see sõidab ohutult. Algul olite erilist tähelepanu pööranud igale korrale, kui teil õnnestus isejuhtivale autole pilk peale visata. Autonoomne sõiduk paistis silma oma elektrooniliste andurite riiuliga, mis sisaldas videokaameraid, radariseadmeid, LIDAR-seadmeid ja muud sarnast. Pärast mitut nädalat isejuhtiva autoga teie kogukonnas ringi sõitmist märkate seda nüüd vaevu. Teie arvates on see lihtsalt üks auto niigi tiheda liiklusega avalikel teedel.

Et te ei arvaks, et isejuhtivate autode nägemisega on võimatu või ebausutav tutvuda, olen sageli kirjutanud sellest, kuidas isejuhtivate autode katsetamise piirkonnad on järk-järgult harjunud nägema ehitud sõidukeid, vaata minu analüüsi aadressil see link siin. Paljud kohalikud elanikud suundusid lõpuks suu lõhki haigutava ülbe pilgutamise asemel igavusest haigutama, et olla tunnistajaks nende looklevatele isejuhtivatele autodele.

Tõenäoliselt on praegu peamine põhjus, miks nad võivad autonoomseid sõidukeid märgata, ärrituse ja ärrituse tõttu. Raamatus olevad AI-juhtimissüsteemid tagavad, et autod järgivad kõiki kiiruspiiranguid ja liikluseeskirju. Traditsioonilistes inimeste juhitavates autodes kirglikud inimjuhid ärrituvad mõnikord, kui jääte kinni rangelt seaduskuulekate tehisintellektil põhinevate isejuhtivate autode taha.

See on midagi, millega meil kõigil võib olla vaja harjuda, kas õigustatult või valesti.

Tagasi meie loo juurde.

Selgub, et muidu kahjutute ja üldiselt teretulnud tehisintellektil põhinevate isejuhtivate autode pärast hakkavad tekkima kaks asjatut muret, täpsemalt:

a. Koht, kus tehisintellekt rändleb isejuhtivate autode vahel sõite valides, on muutunud kogukonnas murettekitavaks probleemiks

b. Tõusev probleem on ka see, kuidas tehisintellekt kohtleb ees ootavaid jalakäijaid, kellel pole eesõigust

Alguses rändas AI isejuhtivate autode vahel kogu linnas. Kõigil, kes soovisid isejuhtivas autos sõitu taotleda, oli põhimõtteliselt võrdne võimalus selle saamiseks. Järk-järgult hakkas tehisintellekt hoidma isejuhtivaid autosid rändluses vaid ühes linnaosas. See jaotis oli suurem raha teenija ja AI-süsteem oli programmeeritud proovima tulusid maksimeerida kogukonnas kasutamise osana.

Alevi vaesunud osade kogukonnaliikmetel oli väiksem tõenäosus isejuhtivast autost sõita. Põhjus oli selles, et isejuhtivad autod asusid kaugemal ja liikusid piirkonna suurema tuluga osas. Kui päring saabus linna kaugemast osast, saavad kõik lähemast asukohast päringud, mis olid tõenäoliselt linna „austatud” osas, kõrgema prioriteedi. Lõpuks oli isejuhtivate autode hankimine mujal kui linna rikkamas osas peaaegu võimatu, mis oli ärritav nende jaoks, kes elasid praegu loodusvarade näljas piirkondades.

Võiksite väita, et tehisintellekt langes üsna suures osas volitatud diskrimineerimise vormile (mida sageli nimetatakse ka kaudseks diskrimineerimiseks). AI ei olnud programmeeritud neid vaesemaid linnaosasid vältima. Selle asemel "õppis" seda tegema ML/DL-i kasutamise kaudu.

Asi on selles, et sõidujagavad inimjuhid olid tuntud selle poolest, et tegid sama asja, kuigi mitte tingimata ainult raha teenimise nurga tõttu. Mõned sõidujagavad inimjuhid olid linna teatud osades sõitjate pealevõtmise suhtes ebasoodsad. See oli mõnevõrra tuntud nähtus ja linn oli kehtestanud seiremeetodi, et tabada seda tegevaid juhte. Inimautojuhid võivad ebameeldivate valikutavade läbiviimisel hätta jääda.

Eeldati, et tehisintellekt ei lange kunagi samasugusesse vesiliivasse. Spetsiaalset seiret ei loodud, et jälgida, kuhu AI-põhised isejuhtivad autod liiguvad. Alles pärast seda, kui kogukonna liikmed hakkasid kaebama, said linnajuhid aru, mis toimub. Lisateavet seda tüüpi ülelinnaliste probleemide kohta, mida autonoomsed sõidukid ja isejuhtivad autod tutvustavad, vaadake minu kajastust aadressil see link siin ja mis kirjeldab Harvardi juhitud uuringut, mille kaasautor sellel teemal tegin.

See näide tehisintellektil põhinevate isejuhtivate autode rändlusaspektidest illustreerib varasemat viidet sellele, et inimestel võib esineda ebasoodsate eelarvamustega olukordi, mille jaoks on ette nähtud kontrolle ja et neid inimjuhte asendav tehisintellekt on jäetud kasutamata. tasuta. Kahjuks võib tehisintellekt järk-järgult takerduda sarnastesse eelarvamustesse ja teha seda ilma piisavate kaitsepiireteta.

Teine näide hõlmab tehisintellekti otsustamist, kas peatuda jalakäijatele, kellel pole tänava ületamiseks eesõigust.

Olete kahtlemata sõitnud ja kohanud jalakäijaid, kes ootasid tänava ületamist, kuid neil ei olnud selleks eesõigust. See tähendas, et teil oli õigus otsustada, kas peatuda ja lasta neil üle minna. Võiksite jätkata ilma neid üle laskmata ja järgida siiski täielikult seaduslikke sõidureegleid.

Uuringud selle kohta, kuidas inimestest juhid otsustavad selliste jalakäijate jaoks peatuda või mitte peatuda, on näidanud, et mõnikord teevad inimjuhid valiku ebasoodsate eelarvamuste põhjal. Inimjuht võib jalakäijale silma jääda ja otsustada mitte peatuda, kuigi ta oleks peatunud, kui jalakäija oleks teistsuguse välimusega, näiteks rassi või soo alusel. Olen seda uurinud aadressil link siin.

Kujutage ette, et tehisintellektil põhinevad isejuhtivad autod on programmeeritud lahendama küsimust, kas peatada või mitte peatuda jalakäijatele, kellel pole eesõigust. Siin on, kuidas AI arendajad otsustasid selle ülesande programmeerida. Nad kogusid andmeid linna videokaameratest, mis on paigutatud üle linna. Andmed näitavad inimjuhte, kes peatuvad jalakäijatele, kellel pole eesõigust, ja inimjuhte, kes ei peatu. See kõik on koondatud suurde andmekogumisse.

Masinõpet ja süvaõpet kasutades modelleeritakse andmed arvutuslikult. Tehisintellekti juhtimissüsteem kasutab seda mudelit, et otsustada, millal peatuda või mitte. Üldiselt on idee selles, et olenemata sellest, millest kohalik komme koosneb, suunab tehisintellekt isejuhtivat autot just nii.

Linnajuhtide ja elanike üllatuseks otsustas tehisintellekt jalakäija välimuse, sealhulgas tema rassi ja soo põhjal ilmselt peatuda või mitte peatuda. Isejuhtiva auto andurid skaneeriksid ootavat jalakäijat, söödaksid need andmed ML/DL mudelisse ning mudel edastaks tehisintellektile, kas peatuda või jätkata. Kahetsusväärselt oli linnal juba selles osas palju inimjuhtide eelarvamusi ja tehisintellekt jäljendab nüüd sama.

Hea uudis on see, et see tõstatab probleemi, mille olemasolust ei teadnud peaaegu keegi varem. Halb uudis oli see, et kuna tehisintellekt sellega vahele jäi, sai see suurema osa süüst. See näide illustreerib, et AI-süsteem võib lihtsalt dubleerida inimeste juba olemasolevaid ebasoodsaid eelarvamusi.

Järeldus

On mitmeid viise, kuidas vältida tehisintellekti väljamõtlemist, mille puhul kas väljaspool väravat on ebasoodsaid eelarvamusi või mis aja jooksul tuvastab eelarvamusi. Üks lähenemisviis hõlmab selle tagamist, et tehisintellekti arendajad on sellest teadlikud ja hoiavad neid seetõttu oma varvastel, et programmeerida AI probleemi ärahoidmiseks. Teine võimalus seisneb selles, et tehisintellekt jälgib ennast ebaeetilise käitumise suhtes (vt minu arutelu aadressil link siin) ja/või teil on mõni muu tehisintellekt, mis jälgib teisi tehisintellekti süsteeme potentsiaalselt ebaeetilise käitumise suhtes (seda olen käsitlenud aadressil link siin).

Kokkuvõtteks peame mõistma, et inimestel võib olla ebasoodsaid eelarvamusi ja nad peavad mingil moel teadma oma piiranguid. Samuti võib AI-l olla ebasoodsaid eelarvamusi ja millegipärast peame teadma nende piiranguid.

Neile teist, kes innukalt AI eetikat omaks võtate, tahaksin kohe lõpetada veel ühe kuulsa joonega, mida kõik juba teadma peavad. Nimelt palun jätkake eetilise tehisintellekti kasutamist ja jagage selle tähtsust. Ja seda tehes ütleksin ma jultunult järgmist: "Minge edasi, tehke mu päeva paremaks."

Allikas: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/