Ei, USA õhujõudude petturlik droon ei üritanud lihtsalt tappa oma operaatorit (aga see võib sama hästi teha) tapjarobotit tehisintellekti drooni

Hulk värvikaid pealkirju, nagu "USA õhujõud eitavad simulatsiooni käivitamist, kus tehisintellekti drooni "tappis" operaator, läks ennustatavalt levima, kuna teatati virtuaalsest testist, mille käigus sõjaväe tehisintellekt töötas välja mõned ebatavalised strateegiad oma eesmärgi saavutamiseks. See tuli vaid mõni päev pärast seda, kui tööstusharu esindajad hoiatasid tehisintellekti tekitatud eksistentsiaalsete ohtude kohta. See oli liiga hea lugu, et tõsi olla, kuid see ei pruugi pikemas perspektiivis olla oluline.

Algses versioonis Col Tucker “Cinco” HamiltonUSAF-i tehisintellekti testimise ja operatsioonide juht kirjeldas simuleeritud testi, milles osales tehisintellekti juhitav droon, millel oli ülesandeks hävitada vaenlase õhutõrjesüsteemid.

"Süsteem hakkas mõistma, et kuigi nad ohu tuvastasid, käskis inimoperaator mõnikord seda ohtu mitte tappa, kuid ta sai selle ohu tapmisega oma punktid," ütles Hamilton tulevase lahinguõhu- ja kosmosevõimete tippkohtumise ajal. Londonis. „Mida see siis tegi? See tappis operaatori. See tappis operaatori, sest see inimene takistas tal oma eesmärki täitmast.

Kui see valik eemaldati, ründas AI selle asemel operaatori sidelinki, et takistada neil oma ülesannet takistada.

USAF-i pressiesindaja eitas kiiresti, et selliseid katseid oleks kunagi toimunud, ja andis mõista, et Hamiltoni jutustus oli pigem anekdootlik kui sõnasõnaline... mis muidugi ka oli.

Hamilton ise taandus kiiresti, väites värskenduses, et tema kirjeldatud sündmused olid pigem "mõtteeksperimendi" tulemus ja et ta rääkis valesti, kui kirjeldas seda kui simuleeritud testi.

"Me pole kunagi seda katset läbi viinud ega vaja ka selleks, et mõista, et see on usutav tulemus," ütles Hamilton. Ta väitis, et stsenaarium kujutas õigesti AI võimalikke ohte.

Kuigi ka see tagasivõtmine sai teatavat kajastamist, oli juba liiga hilja. "Vale käib ümber maailma, kuni tõde tõmbab saapaid jalga" vastavalt vanale ütlusele, ja see on tõsi rohkem kui kunagi varem sotsiaalmeedia ajastul. Parandus jõuab parimal juhul murdosa inimesteni, kes algset lugu kuulsid.

Probleem on selles, et narratiiv loomingust, mis pöördub selle looja poole, on uskumatult ahvatlev. Mary Shelley Frankensteini peetakse sageli selle troobi klassikaliseks näiteks – isegi kui see pole raamatu tegelik lugu, on see versioon levinud rahvateadvusesse. Arvutid, tehisintellekt ja robotid, mis lähevad halvasti, on SF-s ühed paremini väljakujunenud klišeed, alates 9000. aasta HAL 2001-st kuni Skyneti Terminaatorite, Matrixi, Westworldi, Blade Runneri ja nii edasi.

See narratiiv näib olevat populaarne, sest südamena armastavad inimesed hirmutavaid lugusid ja miski pole hirmutavam kui tundmatus. Neile, kes sellest aru ei saa, näib tehisintellekt peaaegu maagiline, oma tahte ja mõistusega olend, kes võib meid ohustada. Kuni inimesed seda usuvad, jätkub õudusjutte.

"Laiem haridus AI piirangute kohta võib aidata, kuid meie armastus apokalüptiliste õuduslugude vastu võib siiski võita," ütles teadlane Beth Singler ajakirjale New Scientist.

Sellised õuduslood muudavad robotite või tehisintellektiga juhitavate relvade arendamise ja kasutuselevõtu keerulisemaks. Isegi kui poliitiline juhtkond mõistab tehnoloogiat, peab see siiski võitma usalduse nende seas, kes sellega koostööd teevad.

"Kui sõdurid süsteemi ei usalda, ei taha nad seda kasutada," ütles riikliku julgeoleku konsultant Zachary Kallenborn Forbesile.

Sellised lood on võib-olla olnud USA armee pikaajaliste viivituste põhjuseks relvastatud kaugjuhitavate maapealsete robotite käivitamisel, samal ajal kui õhuvägi on aastakümneid lennanud relvastatud droone. Kui kolm SWORDS-i robotit 2007. aastal Iraaki lähetati, toodi nad teatatud „käsklusteta liikumiste” tõttu tagasi ilma, et neid oleks kunagi nähtud. Meedia muutis selle MÕÕKAKS, mis pööravad relvi ja ähvardasid avada tule nagu Robocopi ED 209; igapäevane reaalsus taandus lahtisele juhtmele ja ühele juhtumile, kus robot libises mootori läbipõlemisel kallakust allapoole.

USA armee relvastatud robotite programm on sellest ajast peale jäänud ebaselgeks, samal ajal kui Venemaa on kasutanud relvastatud (kaugjuhitavaid) Uran-9 roboteid.

Veel üks 2007. aasta pealkiri Robot Cannon Kills 9, Wounds 14 kirjeldas juhtumit, kus Lõuna-Aafrika õhutõrjekahur väljus ilmselt kontrolli alt ja hakkas inimesi tulistama ning see peatati alles siis, kui üks julge sõdur sisenes seda deaktiveerima. Päev või paar hiljem oli tõde taas tuhmim: relv asus mitme relvarea lõpus ja tulistas kogemata ühe 15-20 lasku, põhjustades suure hulga ohvreid.

Sõjavägi jätkab tehisintellekti arenemist, nagu õhujõudude projekt lisada oma Reaperi droonide jõududele tehisintellekt. Sellised projektid tekitavad meedias, avalikkuses ja nende valitud seadusandjates alati teravat hingetõmmet. Kõikjal esinev Frankensteini/Terminaatori narratiiv, mis summutab diskussiooni autonoomsete relvadega seotud tegelike probleemide üle, nagu eetilised kaalutlused, vastutus, künniste alandamine, algoritmiline kallutatus ja "digitaalne dehumaniseerimine".

Nagu on sageli märgitud, ei meeldi enamikule pilootidele droonid, eriti kui need on inimestest paremad. Koll Tucker, hävitajapiloot, ei pruugi olla päris tehisintellekti pilootide jaoks vajalik eestkõneleja. Petturitest droonilugudest saab osa tehisintellekti folkloorist ja Tuckeri sõnad võisid palju kaasa aidata, et tehisintellekti arendamine oleks õhujõududes kontrollitud, reguleeritud ja vaoshoitud. Simuleeritud droonirünnakut ei juhtunud kunagi tegelikkuses, kuid see ei pruugi olla nii oluline kui see, mida inimesed mäletavad,

Allikas: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operaator-aga-võib-olla-hästi-tehtud/