AI-hüpe Cry Wolfi hetk pole kasulik

Kuigi olen inimene, kes uurib inimkonna lõpu stsenaariume, usun, et 6-kuulist tehisintellekti moratooriumi soovitav „ekspertkiri” või värskem väide, et tehisintellekti risk on pandeemia ja tuumariski tasemel, on mõlemad üleliigne. Veelgi pöörasem arvamus, et peame tehisintellekti sulgema, on vastutustundetu. Igasugune mure peab olema proportsionaalne meie ees seisvate riskidega. Praegu ei ohusta meid tehisintellekt.

Praegused tehisintellektid ei suuda ühiskonda üle võtta. Neil ei ole tundeid ja nad ei vääri kaitset nii nagu inimelud. Nad ei ole üliintelligentsed ega ületa inimesi üldiselt. Tegelikult nad ei mõtle üldse. Praegu saavad tehisintellektid, kui neile antakse rohkelt andmeid, väga hästi konkreetsetes ülesannetes, nagu arvutamine ja ennustamine. See ei ole murettekitav, need on funktsioonid, mis neil süsteemidel on. Tehisintellekti lubadus hõlmab vähi lahendamist, tööstusliku tootmise ümberkujundamist, tulevikustsenaariumide modelleerimist ja keskkonnaprobleemide haldamist. Sellest hoolimata on õigustatud põhjuseid kritiseerida praegusi tehisintellekti ressursside kasutamise, läbipaistvuse, eelarvamuste, küberjulgeoleku ja selle tulevase mõju pärast tööhõivele.

Tehisintellektid on arvutuslikult kallid – see tähendab, et need on nappi fossiilse energia suur raiskamine. Sellega tuleb viivitamatult tegeleda. Aga see pole eksistentsiaalne küsimus, see on ressursside ratsionaalse kasutamise küsimus. Tõsine probleem on tõsiasi, et tehisintellektid, mis tuginevad suurtele ja ebatõhusatele andmemudelitele, muutuvad liiga kulukaks, et neid saaks jälgida ja uurida akadeemiliste ringkondade või valitsuse poolt. Kuid see on kohe parandatav. Eliitakadeemiliste asutuste või valitsuste konsortsiumid võiksid koos käia ja jagada arvutusressursse nii, nagu nad on teinud superarvutite puhul.

Suured keelemudelid (LLM) on tehisintellekti mudelid, mis suudavad suurtest andmemahtudest luua loomulikus keeles tekste. Üheks probleemiks on see, et need tekstid pärinevad otseselt teiste inimeste ausatest intellektuaalsetest panustest. Need on tegelikult varastatud. Generatiivne tehisintellekt ühendab eelkõige nii tarbija- kui ka organisatsiooniandmeid ning loomingulist sisu, rikkudes järsult autoriõigusi. See on tõsine, kuid mitte eksistentsiaalne, ja pealegi on EL, Hollywoodi lobistid ja "suure viisiku" raamatukirjastajad juba asjaga tegelemas. Oodake, et see aeglustab tehisintellekti jõudlust. Praeguse kiirusega saavad tehisintellektid head treeningandmed tühjaks palju enne, kui need lähenevad tundlikkusele.

Algoritmid, mida juba kasutati meie maksude arvutamiseks, veebikanalite valimiseks või inimeste vanglasse panemiseks, on silmatorkavalt läbipaistmatud. See on aga nii olnud aastaid ja sellel pole viimaste tehisintellekti arendustega mingit pistmist. AI eelarvamus on funktsioon, mitte viga. Stereotüüpimine on tegelikult peamine lähenemisviis, mille kaudu sellised mudelid töötavad. Välja arvatud see, et eelarvamus on peidetud masinliku arutluskäigu läbimatutesse kihtidesse, mis on inimestele tabamatud, olenemata sellest, kas eksperdid või mitte. Peaksime kahtluse alla seadma selliseid süsteeme välja töötanud arendajate tarkuse, mitte nende loodud süsteemi võimekuses, mis on iseenesestmõistetav. Süsteemid on harva paremad kui nende inimeste tarkus või kavatsused, kes neid ehitavad või juhivad.

Tehisintellekti koolitusandmed peegeldavad ühiskonnas, millest need andmed koguti, esinevaid eelarvamusi. Halbade koolitusandmete taaskasutamine on murettekitav tava, mis saastab juba tehisintellekti mudeleid. Praegused AI-meetodid lihtsalt võimendavad eelarvamusi, et kiiresti tulemuseni jõuda. See on muidugi vastupidine sellele, mida me tahame. Me tahame kasutada tehnoloogiat, et kaitsta inimlikke eksimusi. Masina vigade pärast muretsemine on inimliku intelligentsuse raiskamine.

Vaatamata "närvivõrgu" metafoorile ei sarnane praegused tehisintellektid mingilgi määral ajudele. Praegused AI-süsteemid ei saa mõelda analoogia põhjal nagu inimesed. See on hea. Me ei pruugi tegelikult soovida sellist tehisintellekti joondamist, mida innukad propageerivad ja üritavad jäljendada. Masinad peaksid erinema inimestest. Nii saame üksteise tugevaid külgi maksimeerida. Ja kuidas me saame hoida masinaid eristatuna ja lahus. Masinatel ei tohiks olla huvisid joondada.

Tehisintellekt kujutab kurjategijate ja vaenulike riikide jaoks üha enam olulist küberjulgeoleku ohtu. Kuid küberjulgeolek on küps tööstusharu, kus on palju eksperte, kes on selle väljakutsega hästi varustatud. Küberjulgeoleku hirmude tõttu pole tehisintellekti sulgemiseks põhjust.

Tööhõive häired tehisintellekti tõttu on olnud poliitiline probleem juba aastaid, algul robotite, nüüd tarkvarapõhiste AI-süsteemide puhul. See tähendab, et valitsused on valmis sellega tegelema. MIT Work of The Future uuringus leiti, et mure robotitest tingitud tööpuuduse pärast on ülehinnatud. Inimene on alati leidnud viise, kuidas töötada ja leiab seda ka edaspidi. Kas tootmist muudab AI? See juba toimub, kuid üsna kontrollitult.

Aeg-ajalt kannatab AI üleliigsete lubaduste käes praeguse funktsionaalsuse või tulevase ulatuse kohta. Esimesed tehisintellekti talved algasid aastatel 1974–1980, kui USA valitsus tõmbas oma rahastamist. Teine oli aastatel 1987–1993, kuna kulud kasvasid ja tehisintellekt ei suutnud oma kõrgeid lubadusi täita.

Uute paradigmade saabumist oodates, perioodil 2025–2030, jõuame tõenäoliselt kolmandasse AI-talvesse. Vähemalt võrreldes kuuma AI suvega meile lubatakse. Põhjuseks on see, et vaatamata reklaamile ja kõikidel ülaltoodud põhjustel on suured keelemudelid saavutamas oma maksimaalset kasulikkust ja lõpuks tuleb need asendada arvutuslikult elegantsemate ja läbipaistvamate lähenemisviisidega.

Üks selline kandidaat on hüperdimensiooniline andmetöötlus, mis muudaks masinad tõhusamaks, kuna need annavad masinatele semantilise mõistmise, võime töödelda tähendust ja konteksti tegeliku teabe taga. Praegu ei mõista AI-süsteemid sõnade ja fraaside vahelisi seoseid, nad oskavad lihtsalt hästi oletada. See on ebapiisav. Lõpuks vajame kehastatud tehisintellekti, sest mõtlemine on seotud ruumi tajumisega. See on kindlasti nii tootmises, mis on väga füüsiline mäng. Vajame ka tehisintellekti, mis on võimeline kasutama inimese mälu funktsioone, nagu prioriteedid teatud teabe esiplaanil ja muu teabe taustal. Unustamine on tööriist, mida inimesed kasutavad abstraktseks mõtlemiseks, vananenud organisatsioonipraktikatest edasi liikumiseks, otsuste tegemiseks ja hetkes püsimiseks ning see pole lihtsalt viga. Ükski masin ei suuda seda veel väga hästi teha.

Vahepeal peame küll reguleerima, kuid mitte seda teist. Ja kui me reguleerime, teeme seda paremini. AI halb reguleerimine muudab olukorra tõenäoliselt hullemaks. Reguleerijate äratamine sellele väljakutsele võib olla kasulik, kuid ma ei ole kindel, kas praegune regulaatorite põlvkond on valmis sellisteks ulatuslikeks muudatusteks, mida oleks vaja, et seda hästi teha. See tooks kaasa võimsate ettevõtete (võimalik, et kõik börsil noteeritud ettevõtted) piiramise, tehisintellekti kasutamise piiramise juhtimises ja tähendaks tohutuid muutusi tarbijaturgude praeguses toimimises. Sisuliselt peaksime ühiskonna ümber juhtima. See viiks meid allakasvu paar aastakümmet varem, kui võiksime soovida. Tehisintellektiga seotud läbipaistvuse väljakutse võib olla suurem kui kontrollmuutujad, mille pärast kõik tunduvad nii mures, muidugi mitte, et need pole omavahel seotud.

Pealegi ei saa me olla võrdselt mures iga kord, kui tehisintellekti etalon saavutatakse. Peame säästma oma energiat tõeliselt suurteks kaskaadriski hetkedeks. Nad tulevad ja ausalt öeldes pole me valmis. Minu kavandatud tulevikustsenaariumid (vt väljasuremisstsenaariumid 2075. aastaks) hõlmavad tohutuid andmerikkumisi, mis hoiavad terved riigid kuude jooksul oma protsessidest eemal. Samuti muretsen tehisintellektide pärast, mida aitavad kaasa kuritegelikud rühmitused või riiklikud osalejad. Kõige enam muretsen ma tehisintellekti, nanotehnoloogia, sünteetilise bioloogia ja kvanttehnoloogia kombinatsioonide pärast – peaaegu nähtamatu, peaaegu orgaanilise ja tundmatu võimega luure, võib-olla vaid mõne aastakümne kaugusel, mis juhtub just siis, kui kliima kaskaadsed mõjud maailma neelavad. muuta.

Praegused AI mudelid ei tööta veel piisavalt hästi, et inimkonda ohustada. Enne kui saame kaaluda nende sulgemist, vajame paremaid tehisintellekti. Veelgi enam, me vajame targemaid arendajaid, tundlikumaid kodanikke ja paremini informeeritud poliitikakujundajaid. Meil on vaja ka kontseptsiooni KUIDAS AI reguleerida. Kuid seda saab teha ilma midagi aeglustamata. Sellest saab õpetlik teekond kõigile. GPT 4 (2023) puudutav moratooriumikiri on hundi hetk, millel on vaid nõrk sarnasus kaskaadsete riskidega, millega inimkond järgmistel aastakümnetel silmitsi seisab. Tehisintellekti riski seadmine pandeemiariski ja tuumaohu tasemele 2023. aastal on ennatlik. Kas me jõuame sinna? Võib-olla. Aga hundi nutmisel on tagajärjed. See imeb hapniku välja tulevastest aruteludest tõeliste hirmude üle.

Allikas: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/