Poliitikakujundajad peavad tegelema tõeliste tehisintellekti väljakutsetega

Tehisintellektist väljasuremisohule keskendumine on ohtlik tähelepanu kõrvalejuhtimine.

Eelmisel nädalal avaldas Silicon Valley rahastatud rühm nimega Center for AI Safety ühelauselise avalduse: "AI-st väljasuremise riski vähendamine peaks olema ülemaailmne prioriteet koos muude ühiskondlike riskidega, nagu pandeemiad ja tuumasõda." Sellele kirjutasid alla paljud tööstusharu juhid ja lugupeetud tehisintellekti teadlased ning see sai ajakirjanduses ulatuslikku kajastust.

Laiem reaktsioon avaldusele oli karm. Oxfordi ülikooli professor Sandra Wachter ütles, et see oli lihtsalt reklaamitrikk. Mõned mõistlikumad allakirjutanud, näiteks turvaekspert Bruce Schneier, avaldasid allkirjastajatele kiiresti kahetsust. "Ma tegelikult ei usu, et tehisintellekt ohustab inimeste väljasuremist," ütles Schneier.

Teised arvasid, et avaldus oli tõesti raha kogumise trikk. Duke'i ülikooli sotsioloogiaprofessor Kieren Healy postitas pilatud parafraasi: "Mina ja mu sõbrad nõuame absoluutset autotäit toetusraha, et leevendada sõna otseses mõttes liigitasandil eksistentsiaalseid ohte, mis on seotud selle asjaga, mida me väidetavalt tekitame."

Marietje Schaake, endine EL-i parlamendisaadik, kes töötab praegu Stanfordi ülikooli küberpoliitika keskuses, arvas, et avalduse alltekst seisnes selles, et poliitikakujundajad peaksid tegelema eksistentsiaalse riskiga, samal ajal kui ettevõtete juhid määravad AI kasutamise tegelikud reeglid. Kuigi tehisintellekt võib olla uudne, ütles ta, et see kaudne argument, et tehisintellekti tööstuse juhid "on kõige paremad võimalused reguleerida just neid tehnoloogiaid, mida nad toodavad", ei olnud muud kui kõnepunktid, mis on taaskasutatud nende varasemast kasutamisest sotsiaalmeedias ja krüptovaluutade vaidlustes.

Minu arvates juhivad apokalüptilised hoiatused tehisintellekti teadliku ja sõltumatu tegutsemise saavutamise kohta tähelepanu kõrvale tõelistest tehisintellekti väljakutsetest, mis nõuavad regulaatoritelt kehtivate seaduste jõustamist ja poliitikakujundajatelt kaalumist õiguslünkade lahendamiseks.

AI abil toime pandud pettus on ebaseaduslik, nagu ütles föderaalse kaubanduskomisjoni esimees Lina Khan. Agentuur on juba hoiatanud tehisintellekti kasutamise eest video- ja telefonipettuste sooritamiseks inimeste kehastamiseks. Hiina on sama asja märganud ja tõrjub AI-põhiseid pettusi. Ei ole selge, kas siin on uusi juriidilisi probleeme, kuid selle eelseisva tehisintellektipettuste tulva ohjamiseks on vaja tohutuid jõupingutusi. Agentuuri 590 miljoni dollari suuruse eelarvetaotluse täielik rahastamine oleks avaliku raha palju produktiivsem kasutamine kui tehisintellekti eksistentsiaalsete riskide uurimine.

Kõik on korralikult mures tehisintellekti loodud desinformatsiooni pärast, nagu hiljutine võlts Putini teade, et Venemaad on rünnatud. Märgistamine võib nende riskide vähendamisel palju kaasa aidata. Vabariikliku rahvuskomitee reklaam, mis järgnes Bideni teadaandele tema presidendikandidaadiks kandideerimisest, kasutas tehisintellekti, et luua pilte sellest, mis võib juhtuda uue Bideni eesistumise ajal, kuid see märgiti selliseks ja see vähendas väärinfo riski.

Tehisintellekti läbipaistvus on madalal tasemel poliitikavili, millest poliitikakujundajad peaksid kinni haarama, nagu mõned näivad tegevat. Sel nädalal kutsus Euroopa Komisjoni asepresident Vera Jourova tehnoloogiaettevõtteid üles märgistama tehisintellekti loodud sisu. USA-s tutvustab esindaja Ritchie Torres (DN.Y.) peagi õigusakte, mis nõuavad selliste teenuste nagu ChatGPT avalikustamist, et selle väljund on "tehisintellekti poolt loodud".

Autoriõigus ja tehisintellekt on veel üks väljakutse. Teatavat selgust on vaja autoriõiguste omanikele nende materjalide kasutamise eest tehisintellekti koolituseks. Veebruaris kaebas Getty USA-s kohtusse Stability AI, öeldes, et tehisintellekti ettevõte on kopeerinud 12 miljonit Getty pilti ilma loata oma Stable Diffusion AI kujutiste genereerimise tarkvara koolitamiseks. Eelmisel nädalal palus ta Londoni kohtul blokeerida Ühendkuningriigis Stability AI, kuna tehisintellekti ettevõte oli oma süsteemi koolitamisel rikkunud Getty autoriõigusi.

Need juhtumid lahendatakse kohtus. Kuid on korralik argument, et autoriõiguste omanikele ei pea üldse hüvitist saama kas õiglase kasutamise tõttu või seetõttu, et tehisintellekti koolituseks ammutatakse ainult kaitsmata fakte ja ideid. Veelgi enam, Euroopa Liidu 2019. aasta autoriõiguse direktiiv digitaalsel ühtsel turul sisaldab erandit, mis lubab veebipõhise autoriõigusega kaitstud materjali teksti- ja andmekaevandamist, välja arvatud juhul, kui autoriõiguse omanik loobub, kasutades skannimise takistamiseks tehnoloogilisi kaitsevahendeid, näiteks päise blokeerijat. See võib hõlmata AI koolitusandmeid.

Praegune Euroopa Liidu tehisintellekti seaduse eelnõu nõuab tehisintellektisüsteemide koolitamisel kasutatavate autoriõigustega kaitstud teoste avalikustamist. Tundub, et selle eesmärk on võimaldada autoriõiguste omanikel kasutada oma õigust tehisintellekti koolitusel teksti- ja andmekaevandamisest loobuda. Kuid see võib olla ka samm millegi edasise poole. See võib kaasa tuua kohustusliku litsentsirežiimi, mis takistaks autoriõiguste omanikel tehisintellekti koolitust blokeerimast, kuid annaks neile teatud hüvitise nende intellektuaalomandi kasutamise eest. Nende autoriõigustega seotud probleemide lahendamine nõuab poliitikakujundajatelt keskendunud tähelepanu.

EL-i AI seadus nõuab ka riskantsete tehisintellektisüsteemide sertifitseerimisprotsessi läbimist, mille eesmärk on tagada, et riske on piisavalt hinnatud ja võetud mõistlikud leevendusmeetmed. Praeguses eelnõus käsitletakse selliseid põhimudeleid nagu ChatGPT kui riskantseid süsteeme, mis peavad olema sertifitseeritud. See on potentsiaalne koormus, mis ilmselt ajendas Open AI juhti Sam Altmani ütlema, et ta eemaldab ChatGPT Euroopast, kui ta seda järgida ei suuda. Pärast seda on ta selle ähvarduse tagasi saatnud, öeldes, et tal pole plaanis lahkuda.

Ometi on tal mõte. Poliitikakujundajad, kes otsivad konkreetset probleemi, mida närida, peaksid endalt küsima, kuidas saaks üldotstarbelist AI-süsteemi, nagu ChatGPT, sertifitseerida kui "turvalist", kui paljud riskid ilmnevad alles süsteemi praktikas rakendamisel.

Need on vaid mõned tehisintellekti põhiprobleemid, mis peaksid poliitikakujundajaid puudutama. Teised hõlmavad üha võimekamate tehisintellektisüsteemide mõju tööhõivele, privaatsusprobleeme, kui koolitusandmed sisaldavad isiklikku teavet, koondumise tendentsi, mis on põhjustatud tehisintellekti tarkvara väljaõppe tohututest kuludest ja võrgumõjudest, jaotise 230 vastutuseeskirjade kohaldamist ja seadused, mis keelavad laenude, elamispindade ja tööhõive erapooletuse, kui tehisintellekt juhib abikõlblikkuse hindamist.

Poliitikakujundajad ei pea ega tohiks eksida udustesse piirkondadesse, kus autonoomsed AI-programmid väljuvad kontrolli alt ja ohustavad inimeste ellujäämist. Neil on reaalses maailmas tehisintellekti paljude väljakutsetega silmitsi seismiseks palju tööd.

Allikas: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/