Mis on Pentagoni uuendatud tapjarobotite poliitika?

Pentagon on välja andnud ajakohastada oma direktiivi 3000.09, mis hõlmab nende mõistet Autonoomia relvasüsteemides ja teised helistavadtapjarobotid.' Praegused droonid nagu õhuvägi ja CIA Niidumasinad MQ-9 mida juhitakse kaugjuhtimispuldiga: inimene istudes videoekraani ees tuvastab sihtmärgid maapinnal tuhandete miilide kaugusel, asetab need risti ja vabastab Hellfire rakett või muu relv. Autonoomsed relvad on erinevad: nad valivad oma sihtmärgid ise ilma inimese sekkumiseta. Vaja on selgeid eeskirju selle kohta, millal ja kuidas neid kasutada, ning uus direktiiv toob need sammu võrra lähemale.

Kümme aastat tagasi, kui 3000.09 esimene versioon välja anti, nägid autonoomsed relvad välja nagu ulme. Nüüd on nad väga tõelised. ÜRO väitis seda Türgi tarnitud droonid ründasid sihtmärke autonoomselt 2020. aastal Liibüas ja Venemaa paigutab praegu Ukrainasse loositavat laskemoona autonoomne võime.

Paljud aktivistid, nagu Kampaania Killer Robotide peatamiseks, soovivad autonoomsete relvade täielikku keelustamist, nõudes, et kõik kaugrelvad jääksid alla mõtestatud inimkontroll alati. ÜRO on arutanud, kuidas seda teha kontrollida selliseid relvi aastaid.

Kuid nagu uuest direktiivist selgub, järgib Pentagon teistsugust joont.

"DoD on järjekindlalt vastu seisnud "mõttelise inimkontrolli" poliitikastandardile, mis puudutab nii autonoomseid süsteeme kui ka AI-süsteeme. Gregory Allen, tehisintellekti juhtimise projekti direktor Strateegiliste ja rahvusvaheliste uuringute keskus, ütles mulle. "Eelistatud DoD kunstitermin on "inimliku otsustusvõime asjakohane tase", mis peegeldab tõsiasja, et mõnel juhul – näiteks autonoomsed seirelennukid ja teatud tüüpi autonoomsed küberrelvad – võib inimese kontrolli sobiv tase olla väike või olematu. .”

Millised autonoomsed relvad oleks millistel tingimustel lubatud? Allen usub, et direktiivi eelmine versioon oli nii ebaselge, et takistas selle valdkonna arengut.

"Segadus oli nii laialt levinud – sealhulgas mõnede DoD kõrgemate juhtide seas –, et ametnikud hoidusid välja töötamast mõningaid süsteeme, mis ei olnud mitte ainult poliitikaga lubatud, vaid ka selgelt vabastatud kõrgemate ülevaatuste nõudest," ütleb Allen.

Kümne aasta jooksul pärast selle avaldamist ei ole originaalis 3000.09 sätestatud autonoomsete relvade läbivaatamisprotsessi esitatud ühtegi relva.

Allen kirjutas an essee selle kohta kirjeldas eelmisel aastal CSIS-i jaoks nelja valdkonda, mis vajasid tööd – autonoomsete relvasüsteemide ametlik määratlemine, öeldi, mida tähendab poliitika jaoks „AI-toega”, kuidas läbivaatamisprotsess käsitleb masinõppe mudelite ümberõpet ja selgitab, millist tüüpi relvi on vaja läbima vaevarikka ülevaatusprotsessi.

"DoD on need kõik rakendanud, " ütleb Allen.

Põhimõtteliselt peaks see tagama, mida kaitseministeerium nimetab "tugevaks ja jätkuvaks kohustuseks olla läbipaistev ülemaailmne juht autonoomsete süsteemide sõjalise kasutamise vastutustundliku poliitika väljatöötamisel".

Siiski on mõningaid täiendusi, mida võib pidada lünkadeks, näiteks erand kõrgema läbivaatuse nõudest autonoomsete relvade kaitseks, mis ei sihita inimesi (“materiaalsed relvad”), kuid millel oleks lubatud sihtida rakette ja muid droone. ja potentsiaalselt muud süsteemid.

"Sõna "kaitsmine" teeb palju tööd," Zak Kallenborn, ütles mulle George Masoni ülikooli Schari poliitika ja valitsuse kooli poliitikateadlane. "Kui droon tegutseb vaenlase territooriumil, võib peaaegu iga relva tõlgendada kui platvormi "kaitsvat"."

Kallenborn märgib ka, et kuigi tõhusalt autonoomseid relvi, nagu maamiinid, on kasutatud juba üle sajandi, muutub maastik AI ja konkreetse masinõppe edusammude tõttu kiiresti. Need on loonud süsteemid, mis on väga võimekad, kuid tehniliselt rabe – kui nad ebaõnnestuvad, ebaõnnestuvad nad suurejooneliselt viisil, mida näiteks ükski inimene ei teeks kilpkonna segi ajamine vintpüssiga.

"AI-autonoomia AI kaudu väärib kindlasti rohkem muret, arvestades praegu domineerivate lähenemisviiside rabedust ja seletamatust," ütleb Kallenborn.

Värskendus ei ole suur. Kuid see näitab Pentagoni jätkuvat pühendumust tõhusate autonoomsete relvade väljatöötamisele ja usku, et need suudavad täita rahvusvahelise humanitaarõiguse — eristada tsiviilisikuid sõjaväelastest, püüda vältida tsiviilisikute kahjustamist ning kasutada ainult proportsionaalset ja vajalikku jõudu.

Kampaania läbiviijad usuvad, et tehisintellektil ei ole sõja ajal moraalseid hinnanguid andmiseks vajalikku mõistmist ja see võib luua maailma, kus sõda on automatiseeritud ja inimesed ei ole enam kontrolli all. Teised usuvad, et USA sõjavägi saab olema ületanud autonoomsete relvadega vastased välja arvatud juhul, kui tehisintellekt on taktikalisel tasandil kaasatud ja see on liiga suur inimeste osalus aeglustab sõjaväeroboteid.

Tõenäoliselt jätkub vaidlus isegi siis, kui hakkavad ilmuma autonoomsed relvad, ja tulemusi jälgitakse tähelepanelikult. Mõlemal juhul tundub, et tapjarobotid on tulemas.

Allikas: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/