Vastutustundlik AI naudib silmapaistvat tõuget tehisintellekti eetikakuulutuse kaudu, mille on esitanud tippprofessionaalide selts ACM

Kas nägite või kuulsite uudist?

Äsja kuulutati välja veel üks AI eetika ettekirjutusi.

Tore aplaus, kui palun.

Siis jälle võid mitte on seda märganud tänu sellele, et nii palju teisi tehisintellekti eetika dekreete on juba mõnda aega hõljunud. Mõned ütlevad, et eetiliste tehisintellekti kuulutuste näiliselt lakkamatu levimine on muutumas pisut tuimaks. Kui palju me vajame? Kas keegi suudab nende kõigiga sammu pidada? Milline neist on parim? Kas me läheme ehk tehisintellekti eetika põhimõtetega liiale? Ja nii edasi.

Noh, sel konkreetsel juhul ütlen, et peaksime eriti tervitama seda klubi viimast täiendust.

Selgitan hetke pärast läbinägelikult, miks.

Esiteks, selgituseks pean ma silmas tehisintellekti eetika ettekirjutust, mis on nüüd ametlikult tuntud kui "Vastutustundlike algoritmiliste süsteemide põhimõtete avaldus” mille ACM tehnoloogiapoliitika nõukogu avaldas hiljuti, 26. oktoobril 2022. Kiitus ekspertide meeskondadele, kes selle hinnatud dokumendi kokku panid, sealhulgas kaasautorid Jeanna Matthews (Clarksoni ülikool) ja Ricardo Baeza-Yates (Universitat Pompeu Fabra) ).

Teadjamad võivad tähelepanelikul uurimisel mõista, et see dokument tundub veidi tuttav.

Hea silm!

See viimane kehastus on sisuliselt varasema ühise „Algoritmi läbipaistvust ja vastutust käsitleva avalduse” uuendatud ja laiendatud variant, mille ACM USA tehnoloogiapoliitika komitee ja ACM Euroopa tehnoloogiapoliitika komitee kuulutasid välja 2017. aastal. Minu veergude ustavad lugejad võivad meenutada, et Olen aeg-ajalt maininud 2017. aasta dekreeti oma veerus, mis käsitleb tehisintellekti eetika ja tehisintellekti seaduse põhiaspekte.

Minu ulatusliku ja jätkuva AI eetika ja tehisintellektiseaduse hindamise ja trendide analüüside kohta vt link siin ja link siin, Ainult mõned nimed.

See ACM-i viimane avaldus on eriti oluline mitmel olulisel põhjusel.

Sellepärast

ACM, mis on mugav akronüüm Arvutite masinate liit, peetakse maailma suurimaks andmetöötlusele keskenduvaks ühenduseks. Hinnanguliselt 110,000 1947 liikmest koosnev ACM on andmetöötluse valdkonnas pikaajaline teerajaja. ACM toodab mõningaid tipptasemel teaduslikke uuringuid andmetöötluse valdkonnas ning pakub ka professionaalseid võrgustikke ja pöördub ka arvutipraktikute poole. Sellisena on ACM oluline hääl, mis esindab üldiselt kõrgtehnoloogilisi hääli ja on visalt püüdnud arvutivaldkonda edendada (ACM asutati XNUMX. aastal).

Ma võin lisada selle kohta ka isikliku märkuse. Kui ma keskkoolis esimest korda arvutite juurde jõudsin, liitusin ACM-iga ja osalesin nende haridusprogrammides, eriti põnevas võimaluses võistelda nende iga-aastasel arvutiprogrammeerimise võistlusel (sellised võistlused on tänapäeval laialt levinud ja tavaliselt tähistatud kui hackathonid). Jätkan ACM-iga kolledžis õppimise ajal kohaliku ülikooli peatüki kaudu ja sain võimaluse õppida juhtimist, saades üliõpilaste peatüki ametnikuks. Tööstusse sisenedes liitusin professionaalse peatükiga ja asusin taas juhtrolli. Hiljem pärast seda, kui minust sai professor, töötasin ACM-i komiteedes ja toimetuskolleegiumides ning sponsoreerisin ülikoolilinnaku üliõpilaste peatükki. Olen siiani aktiivne ACM-is, sealhulgas teenin ACM-i USA tehnoloogiapoliitika komitees.

Mulle meeldib ACM-i armastav ja kestev visioon elukestvast õppest ja karjääriarengust.

Igal juhul on uusima tehisintellekti eetika avalduse seisukohalt tõsiasi, et selle on välja andnud ACM, omajagu kaalu. Võite põhjendatult väita, et eetilised tehisintellekti ettekirjutused on ülemaailmse andmetöötlusprofessionaalide rühma tervik või kollektiivne hääl. See ütleb seal midagi.

Samuti on see aspekt, et teised arvutivaldkonnas tegutsejad saavad inspiratsiooni end elavdada ja kuulata, võttes nõuetekohaselt arvesse seda, mida nende arvutikaastöötajad deklareerivad. Seega, isegi need, kes ei ole ACM-is või ei tea austatud grupist midagi, on loodetavasti huvitatud väitega seotud asjadest.

Vahepeal need, mis on väljaspool Arvutusvaldkonnast pärit avaldus võib tõmmata tähelepanu kui omamoodi telgitagune siseringvaade sellele, mida arvutihuvilised eetilise AI kohta räägivad. Tahan siiski rõhutada, et avaldus on mõeldud kõigile, mitte ainult arvutikogukonna liikmetele, ja seetõttu pidage meeles, et tehisintellekti eetika ettekirjutused on justkui kõikvõimalikud.

Lõpuks on veel üks pööre, mida vähesed kaaluksid.

Mõnikord tajuvad kõrvalseisjad andmetöötluse seoseid tehnoloogias põlvini ja ei ole eriti teadlikud arvutite ja tehisintellekti ühiskondlikest mõjudest. Teil võib tekkida kiusatus eeldada, et sellised professionaalsed üksused hoolivad ainult uusimatest ja kuumimatest läbimurdest riist- või tarkvara vallas. Avalikkus tajub neid lihtsalt jämedalt öeldes tehniliste nohikutena.

Et asi selgeks teha, olen andmetöötluse sotsiaalsetesse mõjudesse sukeldunud juba sellest ajast peale, kui arvutitega tutvusin, samuti on ka ACM selliste teemadega väga tegelenud.

Kõigile, kes on üllatunud, et ACM koostas ja avaldas selle AI eetika ettekirjutuste avalduse, ei pööra nad tähelepanu nendes küsimustes toimuvale pikaajalisele uurimistööle ja tööle. Samuti soovitaksin huvilistel ACM-iga korralikult tutvuda Eetikakoodeks, karm kutse-eetika koodeks, mis on aastate jooksul arenenud ja rõhutab, et süsteemiarendajad peavad olema teadlikud oma ettevõtmiste ja toodete eetilistest tagajärgedest, neid järgima ja nende suhtes valvsad.

Tehisintellekt on andnud arvutieetikast teadlikuks saamisel tuld.

Eetiliste ja juriidiliste kaalutluste nähtavus arvutusvaldkonnas on tänapäeva tehisintellekti esilekerkimisega tohutult tõusnud. Selle elukutse esindajaid teavitatakse ja mõnikord antakse neile trumm, et nad pööravad piisavalt tähelepanu tehisintellekti eetikale ja tehisintellekti seadustele. Seadusandjad on üha enam teadlikud tehisintellekti eetika ja AI seaduste aspektidest. Ettevõtted mõistavad, et nende väljatöötatav või kasutatav tehisintellekt on nii kasulik kui ka mõnikord avab tohutuid riske ja võimalikke varjukülgi.

Pakime lahti, mis on viimastel aastatel toimunud, et saaks luua sobiva konteksti, enne kui asume selle uusima tehisintellekti eetika ettekirjutuste juurde.

Kasvav teadlikkus eetilisest tehisintellektist

AI hiljutist ajastut peeti algselt selliseks AI heaks, mis tähendab, et saame kasutada tehisintellekti inimkonna paremaks muutmiseks. Kannul AI heaks tuli arusaam, et meiegi oleme süvenenud AI For Bad. See hõlmab tehisintellekti, mis on välja töötatud või ise muudetud diskrimineerivaks ja teeb arvutuslikke valikuid, mis tekitavad põhjendamatuid eelarvamusi. Mõnikord on tehisintellekt niimoodi ehitatud, teistel juhtudel aga kaldub see sellele ebasoodsale territooriumile.

Tahan olla täiesti kindel, et oleme tänapäeva AI olemusega ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui tahaksime metsikult spekuleerida tundliku tehisintellekti üle, võib see arutelu minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib olla inimestest targem (minu võimalust uurida üliintelligentse tehisintellekti kohta vt. katvus siin).

Soovitan tungivalt hoida asjad maa peal ja kaaluda tänapäeva arvutuslikku mittetundlikku tehisintellekti.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

Olge tänapäeva tehisintellekti antropomorfiseerimisega väga ettevaatlik.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste kõrvaldamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad katsetavad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Sellel kõigel on märkimisväärne mõju tehisintellekti eetikale ja see pakub tehisintellekti seadusandlusel kasulikku akent saadud õppetundidesse (isegi enne, kui kõik õppetunnid juhtuvad).

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Nad hoiatavad ette, et kui me mõne neist tehisintellekti seadustest kehtestame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid.

Eelmistes veergudes olen käsitlenud erinevaid riiklikke ja rahvusvahelisi jõupingutusi tehisintellekti reguleerivate seaduste koostamiseks ja jõustamiseks, vt. link siin, näiteks. Olen käsitlenud ka erinevaid tehisintellekti eetika põhimõtteid ja juhiseid, mida erinevad riigid on tuvastanud ja vastu võtnud, sealhulgas näiteks ÜRO jõupingutusi, nagu UNESCO tehisintellekti eetika kogum, mille on kasutusele võtnud peaaegu 200 riiki, vt. link siin.

Siin on kasulik AI-süsteemide eetiliste kriteeriumide või omaduste nurgakivi loend, mida olen varem põhjalikult uurinud:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Tehisintellekti arendajad peaksid tõsiselt kasutama neid tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendamise jõupingutusi, ja isegi neid, kes lõpuks AI-süsteeme kasutavad ja hooldavad.

Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavapärane eeldus on, et tehisintellekti eetika põhimõtetest peavad kinni pidama ainult kodeerijad või need, kes programmeerivad tehisintellekti. Nagu siin eelnevalt rõhutatud, on AI väljatöötamiseks ja kasutuselevõtuks vaja küla, mille jaoks kogu küla peab olema kursis tehisintellekti eetika ettekirjutustega ja järgima neid.

Uurisin hiljuti ka AI Bill of Rights mis on ametlik pealkiri USA valitsuse ametlikule dokumendile pealkirjaga "AI Bill of Rights: automaatsete süsteemide töötamine Ameerika inimeste heaks" ametlik pealkiri, mis on teadus- ja tehnoloogiapoliitika büroo (OSTP) aastapikkuse jõupingutuse tulemus. ). OSTP on föderaalne üksus, mis nõustab Ameerika presidenti ja USA täitevametit mitmesugustes riikliku tähtsusega tehnoloogilistes, teaduslikes ja inseneriaspektides. Selles mõttes võite öelda, et see AI Bill of Rights on dokument, mille on heaks kiitnud ja mille on heaks kiitnud olemasolev USA Valge Maja.

Tehisintellekti õiguste seaduses on viis nurgakivikategooriat:

  • Turvalised ja tõhusad süsteemid
  • Algoritmiline diskrimineerimiskaitse
  • Andmete privaatsus
  • Märkus ja selgitus
  • Inimlikud alternatiivid, kaalumine ja tagavara

Olen need ettekirjutused hoolikalt läbi vaadanud, vt link siin.

Nüüd, kui olen loonud kasuliku aluse nendele seotud tehisintellekti eetika ja tehisintellekti seaduse teemadele, oleme valmis hüppama hiljuti välja antud ACM-i "Statement On Principles for Responsible Algorithmic Systems" (muide, kuna dokumendi pealkiri viitab vastutav algoritmilised süsteemid, võiksite heita pilgu minu hinnangule selle kohta, millest rääkida Usaldusväärne AIVt link siin).

Valmistuge teekonnaks selle uusima tehisintellekti eetika põhimõtete kogumi juurde.

Kaevub tähelepanelikult ACM-i deklareeritud tehisintellekti eetika ettekirjutustesse

ACM-i avaldus eetilise AI kohta koosneb järgmistest üheksast nurgakivist:

  • Legitiimsus ja pädevus
  • Kahju minimeerimine
  • Turvalisus ja privaatsus
  • läbipaistvus
  • Tõlgendatavus ja seletatavus
  • Hooldatavus
  • Vaieldavus ja auditeeritavus
  • Vastutus ja vastutus
  • Keskkonnamõjude piiramine

Kui võrrelda seda viimast komplekti teiste eriti saadaolevate komplektidega, on nende vahel palju sarnasusi või sarnaseid vastavusi.

Ühest küljest võite seda võtta hea märgina.

Võime üldiselt loota, et AI eetikapõhimõtete hulk, mis hõljub, ühineb sama üldise katvuse suunas. Nähes, et üks komplekt on mõnel määral võrreldav teise komplektiga, annab teile justkui kindlustunde, et need komplektid asuvad samas palliplatsil, mitte aga kuidagi mõistatuslikus vasakpoolses väljas.

Mõned võivad ette heita, et need erinevad komplektid näivad olevat enam-vähem samad, mis võib tekitada segadust või vähemalt jahmatust, sest meil ei tohiks olla arvukalt näiliselt dubleerivaid loendeid. Kas ei saa olla ainult üks nimekiri? Probleem on muidugi selles, et pole lihtsat viisi, kuidas kõiki selliseid loendeid ühtlaselt täpselt ühesuguseks muuta. Erinevad rühmad ja erinevad üksused on sellele lähenenud erineval viisil. Hea uudis on see, et peaaegu kõik on jõudnud samale üldisele järeldusele. Võime tunda kergendust, et komplektidel pole suuri erinevusi, mis võib-olla teeks meid rahutuks, kui puudub üldine konsensus.

Vastupidine võib manitseda, et nende nimekirjade ühtsus on segadust tekitav, väites, et võib-olla toimub grupimõte. Võib-olla mõtlevad kõik need erinevad rühmad ühtemoodi ega suuda vaadata normist kaugemale. Me kõik langeme identsesse lõksu. Nimekirjad kinnitavad näiliselt meie mõtlemist ja me ei näe oma ninast kaugemale.

Oma ninast kaugemale vaatamine on kahtlemata väärt põhjus.

Olen kindlasti avatud kuulma, mida vastased ütlevad. Mõnikord saavad nad tuult millestki, millel on Titaanlik suundumas hiiglasliku jäämäe poole. Võiksime kasutada mõnda kotkasilma-vaatlust. Kuid nende tehisintellekti eetika ettekirjutuste osas ei ole vastased selgelt sõnastanud midagi, mis näib ilmselgelt alahinnavat või tekitavat muret toimuva üleliigse ühtsuse pärast. Ma arvan, et meil läheb hästi.

Selles ACM-i komplektis on mõned eriti tähelepanuväärsed või silmapaistvad punktid, mis minu arvates väärivad erilist tähelepanu.

Esiteks meeldib mulle tipptasemel sõnastus, mis on tavapärasest mõnevõrra erinev.

Näiteks viidates legitiimsust ja pädevust (esimene täppidega element) tekitab näiliselt tehisintellektiga seotud disaineri- ja juhtimisoskuste tähtsust. Lisaks on legitiimsus lööklause viib meid AI eetikasse ja AI seaduste valdkond. Ma ütlen seda seetõttu, et paljud tehisintellekti eetika ettekirjutused keskenduvad peaaegu täielikult eetilistele tagajärgedele, kuid näivad jätvat tähelepanuta ka õiguslikud tagajärjed. Õigusvaldkonnas peetakse eetilisi kaalutlusi sageli "pehme õiguseks", samas kui raamatute seadusi tõlgendatakse kui "raske seadusi" (see tähendab, et neil on õiguskohtute kaal).

Kuulus õigusteadlane Earl Warren lausus ühe mu kõigi aegade lemmikütluse: "Tsiviliseeritud elus hõljub seadus eetika meres."

Peame tagama, et tehisintellekti eetika ettekirjutused hõlmaksid ja rõhutaksid ka asjade ranget külge, nagu tehisintellekti seaduste koostamisel, kehtestamisel ja jõustamisel.

Teiseks hindan seda, et nimekiri sisaldab vaidlustatavus ja auditeeritavus.

Olen korduvalt kirjutanud sellest, kui väärtuslik on võimalus AI-süsteemile alludes konkureerida või punase lipu heisata, vt. link siin. Lisaks näeme üha sagedamini uusi seadusi, mis sunnivad tehisintellekti süsteeme auditeerima, mida olen pikalt rääkinud New York City (NYC) seadusest, mis käsitleb töötajate palkamisel ja edutamisel kasutatavate AI-süsteemide eelarvamuste auditeerimist, vt. link siin. Kahjuks ja nagu ma avalikult kritiseerin NYC uut seadust, tekitavad need kontrollitavuse seadused vigadega tõenäoliselt rohkem probleeme kui lahendavad.

Kolmandaks on järk-järguline ärkamine, et tehisintellekt võib tekitada jätkusuutlikkuse probleeme, ja mul on hea meel näha, et keskkonna- teema sai nendes tehisintellekti eetika ettekirjutustes tipptasemel arvelduse (vt nimekirja viimast täppi).

Ainuüksi AI-süsteemi loomine võib kulutada palju arvutusressursse. Need arvutusressursid võivad otseselt või kaudselt olla jätkusuutlikkuse anastajad. Tehisintellekti pakutavate eeliste ja tehisintellektiga kaasnevate kulude osas tuleb kaaluda kompromissi. Viimane ACM-i täppidega üksus võtab teadmiseks tehisintellektiga kaasnevad jätkusuutlikkuse ja keskkonnakaalutlused. Tehisintellektiga seotud süsinikujalajäljega seotud probleemide kohta vt minu ülevaadet link siin.

Nüüd, kui oleme ACM-i tehisintellekti eetika ettekirjutuste loendi taevani vaadanud, paneme järgmiseks varbad sügavamale vette.

Siin on iga kõrgetasemelise tehisintellekti eetika ettekirjutuse ametlik kirjeldus (tsiteeritud ametlikust avaldusest):

1. "Legitiimsus ja pädevus: Algoritmsüsteemide projekteerijatel peaks olema halduspädevus ja selge luba selliste süsteemide ehitamiseks ja juurutamiseks. Samuti peavad neil olema rakendusvaldkonnas teadmised, teaduslik alus süsteemide kavandatud kasutamiseks ning süsteemist mõjutatud sidusrühmad peavad neid laialdaselt sotsiaalselt legitiimseteks. Õiguslikud ja eetilised hinnangud tuleb läbi viia, et kinnitada, et kõik süsteemiga kaasnevad riskid on proportsionaalsed lahendatavate probleemidega ning et kõik asjaomased sidusrühmad mõistavad kõiki kasu ja kahju kompromisse.

2. "Kahju minimeerimine: Algoritmsüsteemide juhid, disainerid, arendajad, kasutajad ja muud sidusrühmad peaksid olema teadlikud nende kavandamise, rakendamise ja kasutamisega kaasnevatest võimalikest vigadest ja eelarvamustest ning võimalikust kahjust, mida süsteem võib üksikisikutele ja ühiskonnale põhjustada. Organisatsioonid peaksid korrapäraselt läbi viima oma kasutatavate süsteemide mõjuhinnanguid, et teha kindlaks, kas süsteem võib tekitada kahju, eriti diskrimineerivat kahju, ning rakendada asjakohaseid leevendusmeetmeid. Võimaluse korral peaksid nad õppima tegeliku tulemuslikkuse mõõtmistest, mitte ainult varasemate otsuste mustritest, mis võisid ise olla diskrimineerivad.

3. "Turvalisus ja privaatsus: Pahatahtlike osapoolte riski saab maandada turvalisuse ja privaatsuse parimate tavade kasutuselevõtuga süsteemide elutsükli igas faasis, sealhulgas tugevate kontrollide abil, et leevendada algoritmiliste süsteemide kontekstis tekkivaid uusi haavatavusi.

4. "Läbipaistvus: Süsteemiarendajaid julgustatakse selgelt dokumenteerima viisi, kuidas konkreetsed andmestikud, muutujad ja mudelid arendamiseks, koolituseks, valideerimiseks ja testimiseks valiti, samuti konkreetsed meetmed, mida andmete ja väljundi kvaliteedi tagamiseks kasutati. Süsteemid peaksid näitama oma usalduse taset igas väljundis ja inimesed peaksid sekkuma, kui usaldus on madal. Samuti peaksid arendajad dokumenteerima lähenemisviisid, mida kasutati võimalike eelarvamuste uurimiseks. Süsteemide puhul, millel on kriitiline mõju elule ja heaolule, tuleks nõuda sõltumatuid kontrolli- ja valideerimisprotseduure. Andmete ja mudelite avalik kontroll annab maksimaalse võimaluse parandusteks. Seega peaksid arendajad hõlbustama kolmandate osapoolte testimist avalikes huvides.

5. "Tõlgendatavus ja seletatavus: Algoritmisüsteemide juhte julgustatakse tootma teavet nii protseduuride kohta, mida kasutatavad algoritmid järgivad (tõlgendatavus) kui ka konkreetsete otsuste kohta, mida nad teevad (seletatavus). Seletatavus võib olla sama oluline kui täpsus, eriti avaliku korra kontekstis või mis tahes keskkonnas, kus on muret selle pärast, kuidas algoritme saab kallutada, et ühele rühmale teisele kasu saada, ilma seda tunnustamata. Oluline on teha vahet selgitustel ja tagantjärele tehtud ratsionaliseerimisel, mis ei peegelda selgitatavale järeldusele jõudmiseks kasutatud tõendeid ega otsustusprotsessi.

6. "Hooldatavus: Tõendeid kõigi algoritmiliste süsteemide töökindluse kohta tuleks koguda nende elutsükli jooksul, sealhulgas dokumenteerida süsteeminõudeid, muudatuste kavandamist või rakendamist, katsejuhtumeid ja tulemusi ning leitud ja parandatud vigade logi. Nõuetekohane hooldus võib nõuda uute koolitusandmetega ümberõppesüsteemide kasutamist ja/või kasutatud mudelite väljavahetamist.

7. "Vaieldavus ja auditeeritavus: Reguleerivad asutused peaksid julgustama selliste mehhanismide vastuvõtmist, mis võimaldavad üksikisikutel ja rühmadel seada tulemuste kahtluse alla ja otsida hüvitist algoritmipõhiselt põhjendatud otsustest tulenevate kahjulike mõjude eest. Juhid peaksid tagama andmete, mudelite, algoritmide ja otsuste salvestamise, et neid saaks auditeerida ja tulemusi korrata juhtudel, kui kahju kahtlustatakse või väidetakse. Auditeerimisstrateegiad tuleks avalikustada, et üksikisikud, avaliku huvi organisatsioonid ja teadlased saaksid üle vaadata ja soovitada parandusi.

8. "Vastutus ja vastutus: Avalik-õiguslikud ja eraasutused peaksid vastutama nende poolt kasutatavate algoritmide abil tehtud otsuste eest, isegi kui ei ole võimalik üksikasjalikult selgitada, kuidas need algoritmid oma tulemusi andsid. Sellised asutused peaksid vastutama tervete süsteemide eest, nagu need on nende konkreetses kontekstis kasutusele võetud, mitte ainult konkreetse süsteemi moodustavate üksikute osade eest. Kui automatiseeritud süsteemides avastatakse probleeme, peaksid nende süsteemide juurutamise eest vastutavad organisatsioonid dokumenteerima konkreetsed meetmed, mida nad probleemi lahendamiseks võtavad, ja millistel asjaoludel tuleks selliste tehnoloogiate kasutamine peatada või lõpetada.

9. "Keskkonnamõjude piiramine: Algoritmsüsteemid tuleks välja töötada nii, et need annaksid hinnanguid keskkonnamõjude, sealhulgas nii koolituse kui ka tööarvutuste käigus tekkivate süsinikuheitmete kohta. Tehisintellektisüsteemid tuleks kavandada nii, et nende süsinikdioksiidi heitkogused oleksid mõistlikud, arvestades nende kasutuselevõtu kontekstis nõutavat täpsust.

Usun, et loete kõik need olulised tehisintellekti eetika ettekirjutused hoolikalt ja omaaegselt läbi. Palun võtke need südamesse.

Järeldus

ACM-i avalduses on peen, kuid sama oluline osa, mida paljud võivad minu arvates kogemata kahe silma vahele jätta. Lubage mul kindlasti sellele teie tähelepanu juhtida.

Ma vihjan osale, mis käsitleb piinavat mõistatust, mis on seotud tehisintellekti eetika ettekirjutustega seotud kompromisside kaalumisega. Näete, enamik inimesi noogutab eetilisi tehisintellekti põhimõtteid lugedes sageli meeletut pead ja eeldab, et kõik ettekirjutused on kaalult võrdsed ning kõikidele ettekirjutustele antakse alati sama optimaalne austus ja väärtus.

Päris maailmas mitte.

Kui kumm kohtub teega, paneb igasugune vähegi keerukas tehisintellekt vastikult proovile tehisintellekti eetika ettekirjutused selle osas, kas mõned elemendid on teiste põhimõtetega võrreldes piisavalt saavutatavad. Ma mõistan, et võite valjuhäälselt hüüda, et kogu tehisintellekt peab maksimaalselt järgima kõiki tehisintellekti eetika ettekirjutusi, kuid see pole eriti realistlik. Kui soovite seda seisukohta võtta, siis julgen öelda, et tõenäoliselt peaksite ütlema enamikule või peaaegu kõigile tehisintellekti tegijatele ja kasutajatele, et nad sulgeksid kaupluse ja paneksid AI üldse ära.

Tehisintellekti uksest väljumiseks tuleb teha kompromisse. Sellegipoolest ei poolda ma tehisintellekti eetika eeskirju rikkuvate nurkade lõikamist ega vihja sellele, et need peaksid rikkuma tehisintellekti seadusi. Täita tuleb konkreetne miinimum, millest kõrgemal on eesmärk rohkem pingutada. Lõpuks tuleb tasakaal hoolikalt hinnata. Seda tasakaalustavat tegevust tuleb teha tähelepanelikult, selgesõnaliselt, seaduslikult ning tehisintellekti eetikat kui heauskset ja siirast veendumust (võiksite näha, kuidas ettevõtted kasutavad tehisintellekti eetikanõukogusid, et püüda seda pühalikku lähenemist koguda, vt. link siin).

Siin on mõned punktid, mida ACM-i deklaratsioon mainib kompromisside keerukuse kohta (tsiteeritud ametlikust dokumendist):

  • "Lahendused peaksid olema proportsionaalsed lahendatava probleemiga, isegi kui see mõjutab keerukust või kulusid (nt keelduda avaliku videovalve kasutamisest lihtsa ennustamisülesande jaoks)."
  • "Arvesse tuleks võtta mitmesuguseid jõudlusmõõdikuid ja neid võib sõltuvalt rakenduse domeenist erinevalt kaaluda. Näiteks mõnes tervishoiurakenduses võivad valenegatiivsed tulemused olla palju hullemad kui valenegatiivsed, samas kui kriminaalõiguses võivad valepositiivsete tulemuste tagajärjed (nt süütu inimese vangistamine) olla palju hullemad kui valenegatiivsed. Kõige soovitavam operatsioonisüsteemi seadistus on harva maksimaalse täpsusega.
  • „Mure privaatsuse, ärisaladuste kaitsmise või analüütika paljastamise pärast, mis võivad lubada pahatahtlikel osalejatel süsteemi mängida, võivad õigustada juurdepääsu piiramist kvalifitseeritud isikutele, kuid neid ei tohiks kasutada selleks, et õigustada kolmanda osapoole kontrolli piiramist või arendajate kohustusest vabastamist. vigade tunnistamiseks ja parandamiseks.
  • „Läbipaistvus peab olema seotud vastutuse protsessidega, mis võimaldavad algoritmilise süsteemi poolt mõjutatud sidusrühmadel otsida tekitatud kahjude eest sisukat hüvitist. Läbipaistvust ei tohiks kasutada süsteemi seadustamiseks ega vastutuse teistele osapooltele üleandmiseks.
  • „Kui süsteemi mõju on suur, võib eelistada paremini seletatavat süsteemi. Paljudel juhtudel ei ole seletatavuse ja täpsuse vahel kompromissi. Mõnes kontekstis võivad aga ebaõiged selgitused olla isegi hullemad kui selgituste puudumine (nt tervishoiusüsteemides võib sümptom vastata paljudele võimalikele haigustele, mitte ainult ühele).

Need, kes arendavad või kasutavad AI-d, ei pruugi mõista, milliseid kompromisse nad silmitsi seisavad. Ettevõtte tippjuhid võivad naiivselt eeldada, et tehisintellekt vastab kõigi tehisintellekti eetika põhimõtete maksimumidele. Nad kas usuvad seda, sest neil pole tehisintellekti aimugi, või tahavad nad seda uskuda ja teevad ehk pilguheite, et tehisintellekti hõlpsasti kasutusele võtta.

On tõenäoline, et kui kompromissidele sisuliselt ja avalikult vastu ei astuta, tekib tehisintellekt, mis hakkab kahjustama. Tõenäoliselt avavad need kahjud ettevõtte potentsiaalselt ulatuslikele kohustustele. Lisaks sellele võivad tehisintellektiga seotud võimalike kuritegude puhul kehtida tavapärased seadused, samuti uuemad tehisintellektile keskendunud seadused. Tonn telliseid ootab nende peade kohal, kes arvavad, et suudavad kompromissidest mööda hiilida või kes pole sügavalt teadlikud, et kompromissid on olemas (neile langeb paratamatult muserdav arusaam).

Annan praegu selle teema kohta viimase sõna ACM-i avalduse lõppaspektile, kuna arvan, et see teeb tugeva töö selgitamaks, mida need eetilised tehisintellekti ettekirjutused makroskoopiliselt püüavad esile tuua:

  • „Eelnimetatud soovitused keskenduvad algoritmiliste süsteemide vastutustundlikule kavandamisele, arendamisele ja kasutamisele; vastutus tuleb kindlaks määrata seaduse ja avaliku korraga. Algoritmsüsteemide kasvav võimsus ja nende kasutamine elutähtsates ja elutähtsates rakendustes tähendab, et nende kasutamisel tuleb olla väga ettevaatlik. Need üheksa instrumentaalset põhimõtet on mõeldud inspireerima arutelude algatamist, uuringute algatamist ja juhtimismeetodite väljatöötamist, et tuua kasu paljudele kasutajatele, edendades samal ajal usaldusväärsust, ohutust ja vastutust. Lõppkokkuvõttes määrab konkreetne kontekst algoritmilise süsteemi õige ülesehituse ja kasutamise koostöös kõigi mõjutatud sidusrühmade esindajatega” (tsiteeritud ametlikust dokumendist).

Nagu tarkussõnad meile nutikalt ütlevad, algab tuhandemiiline teekond esimesest sammust.

Ma palun teil tutvuda tehisintellekti eetika ja tehisintellekti seadustega, astudes mis tahes esimese sammu, mis teid käima paneb, ja seejärel aidata neid olulisi ettevõtmisi edasi viia. Ilus on see, et me oleme alles lapsekingades, kuidas tehisintellektiga hakkama saada ja ühiskondlikult toime tulla, seega pääsete sisse esimesel korrusel ja teie jõupingutused võivad teie ja meie kõigi tulevikku selgelt kujundada.

Tehisintellekti teekond on just alanud ja olulised esimesed sammud on alles käimas.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- ametiühing-acm/