Tehisintellekti eetika võitleb nii tehisintellektil põhinevate autonoomsete relvasüsteemide tulise üks-kaks löökidega kui ka AI-põhiste autonoomsete süsteemide ärakasutamisega, mis on kuradilikult relvastatud

Need hämmastavad tantsivad neljajalgsed robotid.

Olen kindel, et olete näinud neid viiruslikke videoid neljajalgsetest robotsüsteemidest, mis tantsivad ja tantsivad näiliselt veetleval ja koeralikul viisil. Näib, et meile meeldib näha neid tehisintellektiga juhitud roboteid, kui nad ronivad üle takistuste ja paistavad saavutavat õrna pidepunkti, kui nad istuvad kastide otsas või pärast seda, kui nad on ebakindlalt asetatud kappide otsadele. Nende inimkäitlejad torkavad või tõukavad vahel hullavaid neljajalgseid roboteid, mis tundub ärritavalt ebaõiglane ja võib kergesti vihastada nende peamiste humanoidide jõhkra kohtlemise peale.

Ma mõtlen siiski, kas olete näinud täiesti erineva kaliibriga mitte-nii-viiruslikke videoid.

Valmistage ennast ette.

Laialdaselt on postitatud videoid, mis näitavad sama tüüpi neljajalgseid roboteid, mis on varustatud üht või teist tüüpi tugevate relvadega.

Näiteks on kuulipilduja või sarnane tulirelv paigaldatud muidu tuttava tantsiva-tantsuva roboti otsa. Neljajalgse roboti ja relva laskemehhanismi vahel on elektrooniline side. Nüüdseks relvastatud arvutiga kõndivat varustust näidatakse liikumas kohale, kus on asetatud sihikule, ja kuulipildujast tulistatakse raevukalt sihtmärki. Pärast osaliselt hävitatud sihtmärgi löömist tantsib ja hüppab neljajalgne robot ümber lähedal asuvate takistuste ning rivistub, et korrata sama tegevust ikka ja jälle teiste värskete sihtmärkide juures.

Mitte päris see, mida oleks võinud näha. See võtab kindlasti kergemeelsuse ja suhtelise rõõmu, kui vaatame avameelselt neid kaisutavaid neljajalgseid roboteid oma asja tegemas. Tere tulemast näilise karmi reaalsusesse kahjutu autonoomsed süsteemid muudetakse või muudetakse järsult relvastatud. Suure vaevaga saate üleöö lasta "relvavaba" autonoomsele süsteemile ümberehitada, et see sisaldaks täisrelvi.

Mõnel juhul on see peaaegu lihtne.

Ma arutan seda ägedalt vastuolulist teemat ja katan üles kerkivaid üsna kopsakaid tehisintellekti eetika probleeme. Teeme teekonna autonoomsete süsteemide, tehisintellekti, autonoomsete sõidukite, relvastuse ja paljude nendega seotud eetilise tehisintellektiga seotud probleemide juurde. Minu jätkuva ja ulatusliku AI eetika ja eetilise tehisintellekti katvuse kohta vt link siin ja link siin, Ainult mõned nimed.

Alustame mõne põhilise nurgakiviga.

Arutelu huvides nõustuge, et relvadega relvastatud autonoomsete süsteemide kategoriseerimiseks on kaks peamist viisi:

1) autonoomsed relvasüsteemid (disaini järgi)

2) autonoomsed süsteemid, mis on relvastatud (tagantjärele)

Nende kahe kategooria vahel on oluline erinevus.

Esmalt määratleme an autonoomne relvasüsteem olema algusest peale arvutipõhine looming, mis on sihikindlalt mõeldud relvaks. Arendajad pidasid silmas, et nad tahtsid välja mõelda relva. Nende selge eesmärk on toota relv. Nad teadsid, et suudavad ühendada relvastuse uusimate autonoomsete süsteemide tehnoloogiatega. See on relv, mis sõidab kõrgtehnoloogia lainel, mis saavutab autonoomse liikumise ja autonoomse tegevuse (täpsemalt kirjeldan seda varsti).

Vastupidiselt sellele, teisel juhul käsitleme autonoomsete süsteemide küsimust, millel puudub igasugune eriline kalduvus relvastusele. Need on autonoomsed süsteemid, mida arendatakse muudel eesmärkidel. Kujutage ette autonoomset sõidukit, näiteks isejuhtivat autot, mida kasutatakse kõigi jaoks liikuvuse tagamiseks ja abiks tuhandete iga-aastaste surmajuhtumite vähendamisel, mis juhtuvad inimeste juhtimisel ja juhitavatel autodel (vt minu põhjalikku ülevaadet juures link siin). Näib, et nende optimistlike ühiskondlike jõupingutustega inimesi rooli tagant välja toomiseks ja tehisintellekti juhiistmele istutamiseks ei võeta arvesse relv.

Kuid neid kahjutuid autonoomseid süsteeme saab relvastada, kui inimesed seda soovivad.

Viitan sellele teisele kategooriale siis kui autonoomsed süsteemid, mis on relvastatud. Autonoomne süsteem loodi algselt ja pühendunult arvatavasti mitterelvaliseks otstarbeks. Sellele vaatamata lööb unistava altruistliku lootuse keegi kuskil kummuli, kellel tekib veenev idee, et seda väljamõeldisi võib relvastada. Järsku on autonoomsest süsteemist, mis tundus kaisus, muutunud surmavaks relvaks, märgistades mingisuguseid relvavõimalusi (näiteks varem mainitud neljajalgsed koerataolised robotid, mille omadustele on lisatud kuulipilduja või sarnane tulirelv) .

Kahjuks jõuavad need kaks kategooriat mõnevõrra samasse kohta, nimelt võimaldavad kasutada autonoomseid süsteeme relvastuses potentsiaalselt surmaval alusel.

Selle lõpp-punktini jõudmise protsess on tõenäoliselt erinev.

Relvadena seostatud täiesti relvastatud autonoomsete süsteemide puhul on relvastuse aspektid tavaliselt ees ja keskel. Võib öelda, et autonoomse süsteemi tahud on mähitud ümber nurgakivi, mis tahes relva, mida kaalutakse. Arendajate mõtlemisprotsess on mõnevõrra sarnane sellele, kuidas relv saab autonoomsete süsteemide tulekut ära kasutada.

Teine vaatenurk ei ole tavaliselt üldse selle mõtteviisiga. Arendajad tahavad tuletada tipptasemel autonoomse süsteemi, võib-olla inimkonna paremaks muutmiseks. Need arendajad panid autonoomse süsteemi loomisesse oma siirama südame ja hinge. See on nende leiutise tuum. Nad ei pruugi arvata, et keegi usub või õõnestab nende imeliselt kasulikku seadet. Nad on õndsalt vaimustatud ühiskondlikest hüvedest, mis on seotud autonoomse süsteemi kujundamise ja tootmisega.

Mingil hetkel oletame, et kolmandad osapooled mõistavad, et autonoomse süsteemi saab relvastamiseks ümber kujundada. Võib-olla petavad nad arendajaid, et nad lubaksid neil omada autonoomset süsteemi väidetavalt kõrgetel eesmärkidel. Suletud uste taga otsustavad need kurjategijad autonoomsele süsteemile varjatult relvastusvõimet lisada. Voila, süütus muutus otseseks relvaks.

Asjad ei pea niimoodi edasi minema.

Võib-olla öeldi arendajatele, et nad arendavad süütut autonoomset süsteemi, kuid rahastajatel või jõupingutusi suunavatel oli muid eesmärke. Võib-olla algas autonoomse süsteemi püüdlus tõepoolest süütult, kuid siis, kui arveid tuli maksta, katkestas juhtkond tehingu rahastamisallikaga, kes soovib autonoomseid süsteeme alatutel põhjustel. Teine võimalus on see, et arendajad teadsid, et hilisem kasutamine võib olla relvastamiseks, kuid nad arvasid, et nad ületavad selle ahistava silla siis, kui see kunagi tekib. Jne.

Selle kõige toimimiseks on palju ja palju erinevaid teid.

Teid võib huvitada see, mida olen eelnevates veergudes kirjeldanud, et tehisintellekti eetika teadlikkus seoses kahesuguse kasutusega kaasaegse AI elemendid, vt link siin. Lubage mul teid lühidalt tutvustada.

Heaks kavandatud AI-süsteem võib mõnikord olla halva piiril, võib-olla mõne üsna lihtsa muudatuse kaudu, ja vastavalt sellele peetakse seda kahesuguse kasutusega süsteemiks. Hiljuti avaldati uudistes AI-süsteem, mis loodi avastama kemikaale, mis võivad olla tapjad ja mille arendajad tahtsid olla kindlad, et suudaksime selliseid halvasti läbimõeldud kemikaale vältida või olla nende suhtes ettevaatlikud. Selgub, et tehisintellekti saab mõnevõrra hõlpsasti kohandada, et need tapjakemikaalid pühendunult paljastada ja seega võimaldada pahalastel teada, milliseid kemikaale oma kurjade plaanide jaoks valmis valmistada.

Autonoomsed süsteemid sobivad ilmselgelt sellesse kahesuguse kasutusega keskkonda.

Teatud määral on seetõttu AI eetika ja eetiline tehisintellekt nii oluline teema. AI eetika ettekirjutused panevad meid valvsaks jääma. Tehisintellekti tehnoloogid võivad mõnikord olla hõivatud tehnoloogiaga, eriti kõrgtehnoloogia optimeerimisega. Nad ei pea tingimata arvestama suuremate ühiskondlike tagajärgedega. Asjakohase tehisintellekti loomiseks, sealhulgas (võib-olla üllataval või iroonilisel kombel) hinnata, kuidas tehisintellekti eetikat ettevõtted omaks võtavad, on oluline omada AI-eetikat ja teha seda tehisintellekti arendamise ja kasutamisega lahutamatult.

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Tegelikult hoiatavad nad ette, et kui me mõne nendest tehisintellekti seadustest vastu võtame, alistame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid.

Autonoomia ja relv kui kaks ettekirjutust

Mõned kasutavad lööklauset, et hoiatada igasuguste relvastatud autonoomsete süsteemide eest, mis on ühiselt loodud kui taparobotid.

See toob esile täiendava aspekti, mille üle peaksime mõtlema.

Kas autonoomne relvasüsteem ja/või autonoomne süsteem, mis on relvastatud, peab olema surmava või tapjarobotite ülekaalus?

Mõned väidavad, et oleksime võinud kindlalt mittesurmav ka relvastatud autonoomsed süsteemid. Seega näib sellest vaatenurgast äärmiselt kohatu kasutada selliseid väljendeid nagu taparobotid või tapjarobotid. Mittesurmav variant oleks arvatavasti võimeline alistama või tekitama kahju, mis ei ole surmav. Sellised süsteemid ei tapa, vaid on väiksema vigastuste tekitamisvõimega. Ärge ületähtsutage oma võimeid, ütlevad need, kes nõuavad, et me ei pea olema hõivatud otsese tapamasinaga.

Seega võib meil olla see:

  • Surmavad autonoomsed relvasüsteemid
  • Surmavad autonoomsed süsteemid, mis on relvastatud
  • Mittesurmavad autonoomsed relvasüsteemid
  • Mittesurmavad autonoomsed süsteemid, mis on relvastatud

Muidugi on vastuargument, et mis tahes autonoomsel süsteemil, mis on relvastatud, näib olevat potentsiaali libiseda letaalsuse valdkonda, isegi kui seda väidetavalt kasutatakse ainult mittesurmaval alusel. Kahe järkjärguline samm mittesurmavalt surmava poole liikumiseks tehakse kiiresti, kui olete autonoomses süsteemis juba relva kätte saanud. Teil oleks raske anda raudkindlat garantiid, et mittesurmavad inimesed ei pääse surmavale areenile (kuigi mõned üritavad seda teha, matemaatilises mõttes).

Enne kui jõuame sellesse autonoomsete süsteemide ja relvastamise üldise teema juurde, võib olla kasulik juhtida tähelepanu veel millelegi, mis võib-olla ilmselgelt ei pruugi olla nähtav.

Siin see on:

  • On AI aspekt, mis on autonoomse süsteemi lahutamatu osa
  • Selles võrrandis on relvade aspekt
  • AI võib olla ka relvadega omavahel seotud

Pakime selle lahti.

Eeldame, et tänapäeva autonoomsed süsteemid nõuavad tehisintellekti kui autonoomsete tahkude esiletoomise aluseks olevat arvutipõhist vahendit. Mainin seda sellepärast, et võiksite väita, et võime kasutada autonoomsete süsteemide loomiseks tehisintellektiga mitteseotud tehnoloogiaid ja tehnikaid, mis küll tõsi on, näib üha vähem tõenäoline. Põhimõtteliselt kipub AI võimaldama suuremat autonoomia taset ja enamik kasutab vastavalt tehisintellekti kõrgtehnoloogiat.

Olgu, meil on tehisintellektil põhinev võimalus, mis on mingil moel sisestatud autonoomsesse süsteemi ning juhib ja kontrollib autonoomset süsteemi.

Hoidke see rusikareeglina teie käeulatuses.

Näib ilmselgelt, et meil on vaja ka mingisugust relvastust, muidu miks me siin arutame autonoomsete süsteemide teemat ja relvad. Nii et jah, ilmselgelt on olemas üht- või teist tüüpi relv.

Ma ei hakka süvenema kasutatavate relvade tüüpidesse. Võite lihtsalt asendada mis tahes relvaga, mis teile meelde tuleb. Seal võib olla täpseid relvi. Võib olla massile suunatud hävitavat relvastust. See võib olla midagi kuulide või mürskudega. See võib olla midagi, mis sisaldab kemikaale või lenduvaid aatomikomponente. Nimekiri on lõputu.

Täiendav kaalutlus on see, kas tehisintellekt on relvadega seotud või mitte. Tehisintellekt võib lihtsalt relvi kaasa võtta. Püssi tulistanud neljajalgse roboti puhul võib juhtuda, et relva laseb inimene, kellel on relva päästikuga ühendatud pult. Koerataoline robot navigeerib stseenil ja seejärel on kauge inimese ülesanne päästikule vajutada.

Teisest küljest võib AI olla justkui päästiku tõmbaja. AI võis olla loodud mitte ainult navigeerimiseks ja manööverdamiseks, vaid ka relva aktiveerimiseks. Selles mõttes teeb tehisintellekt kõike A-st Z-ni. Asjade relvastuse teostamine ei sõltu kaugest inimesest. AI on selle asemel programmeeritud seda tegema.

Selgitamaks seda konkreetset relvastatud autonoomsete süsteemide kasutusjuhtumit, on meil järgmised võimalused:

  • Autonoomne süsteem: AI juhib autonoomset süsteemi täiesti iseseisvalt
  • Autonoomne süsteem: AI juhib autonoomset süsteemi, kuid sekkuda võib ka ahelas olev inimene
  • Relvad: Kauginimene juhib relvi (AI mitte)
  • Relvad: Tehisintellekt juhib relvi, kuid sekkuda võib ka ahelas olev inimene
  • Relvad: AI juhib relvi täiesti iseseisvalt

Olen varem käsitlenud inimese ahelas olemise variatsioone autonoomsete süsteemide ja autonoomsete sõidukite kohta, vt. link siin.

Kui vaatate neid lõbusaid videoid tantsivatest ja hüppavatest neljajalgsetest robotitest, siis arvatakse, et need on robotid, mida juhib eranditult tehisintellekt (see on tavaks või peetakse sobivaks etiketiks nende seas, mis on sügavalt meelestatud). nendesse asjadesse). Seda võite ka õigusega eeldada. Muidugi, sa ei tea seda kindlalt. Võib juhtuda, et roboteid juhib kaugoperaator. On ka võimalus, et AI teeb osa juhendamisest ja ka kaugoperaator teeb seda, võib-olla abistab tehisintellekti, kui robot satub raskesse asendisse ega suuda arvutuslikult välja arvutada elujõulist vahendit enda vabaks vingerdamiseks.

Sisu on selles, et tehisintellekti ja autonoomsete süsteemide ja relvastuse omavaheliseks segamiseks on palju erinevaid maitseid. Mõnel on AI, mis juhib autonoomset süsteemi, kuid ei käita relvi. Võib-olla juhib inimene relvi eemalt. Teine nurk on see, et relvastus võib olla eelnevalt aktiveeritud ja autonoomne süsteem toimetab aktiveeritud relva, mistõttu AI ei osalenud otseselt relva kui sellise käivitamises ja tegutses selle asemel kohaletoimetajana. Ja võib juhtuda, et tehisintellekt on vanasõna jack-of-all-tehniline ja tegeleb ka relvade kasutamisega autonoomse süsteemi aspektide ulatuses.

Tee oma valik.

Samal ajal pidage meeles, et selleteemaliste arutelude puhul on ahelas olev inimene suur tegur.

Mõnede eraldusjoon seisneb selles, et kui tehisintellekt teeb sihtimist ja tulistamist (või mis iganes relv kaasa toob), on kogu komplekt ja kabood läinud üle ilmale. Näib, et see erineb tavapärastest tuli-ja unusta relvadest, millel on inimese poolt eelnevalt sihitud valik, näiteks patrullivast droonist, mille rakett on valmis tulistamiseks sihtmärgi pihta juba inimese poolt valitud.

Mõned imestavad, miks relvastatud autonoomsed süsteemid ei sisalda alati ahelas inimest kogu protsessi vältel, mil autonoomne süsteem on aktiivselt käimas. Näib, et meil võib olla parem, kui karm nõue oleks, et kõigil sellistel relvastatud autonoomsetel süsteemidel peab olema in-the-loop, kas autonoomse süsteemi või relvastuse (või mõlema) käitamiseks. . Eeldatavalt kindla ja püsiva inimkäe hoidmine selles tehisintellekti segus võib tunduda täiesti kaval.

Olge valmis pikaks loeteluks põhjustest, miks see pole tingimata teostatav.

Mõelge nendele raskustele:

  • Inimene ei pruugi olla õigeaegseks reageerimiseks piisavalt kiire
  • Inimesel ei pruugi olla piisavalt teavet, et kohusetundlikult vastata
  • Inim-in-the-loop ei pruugi vajalikul ajal saadaval olla
  • Inimene-in-the-loop võib olla otsustamatu ega tegutse siis, kui vaja
  • Inimene võib teha "vale" otsuse (suhteliselt)
  • Inimene-in-the-loop ei pruugi olla süsteemist vajalikul ajal juurdepääsetav
  • Inimene võib sattuda segadusse ja olla ülekoormatud
  • Jne

Teil on kahtlemata kiusatus vaadata seda inimlike nõrkuste ja piirangute loendit ning jõuda seejärel pühalikule järeldusele, et silmuses olev inimene on ilmselt mõttekas välja lõigata ja alati selle asemel kasutada tehisintellekti. See võib välistada inimese ahelas või lasta tehisintellektil alistada sissejuurdunud inimese ahelas disaini. Vaadake minu analüüsi selle kohta, kuidas AI ja in-the-loop inimese vahelised erimeelsused võivad põhjustada ebakindlaid olukordi, mida käsitletakse aadressil link siin.

Tihti jäetakse selliste reaalajas inimesele keskendunud varjukülgede halvustav loetelu omaette ja jätab püsiva mulje, et tehisintellekt peab olema kuidagi hüplik ja targem valik kui inimese loomine. . Ärge langege sellesse reetlikku lõksu. Sellega kaasnevad kainestavad kompromissid.

Mõelge AI järgmistele tagajärgedele:

  • AI võib ilmneda tõrkega, mis põhjustab selle eksimise
  • AI võib olla ülekoormatud ja lukustuda reageerimata
  • AI võib sisaldada arendaja vigu, mis põhjustavad ebakorrektset käitumist
  • AI võib olla rikutud siirdatud kurjategija viirusega
  • Küberhäkkerid võivad tehisintellekti reaalajas üle võtta
  • AI-d võib keerukuse tõttu pidada ettearvamatuks
  • AI võib arvutuslikult teha "vale" otsuse (suhteliselt)
  • Jne

Usun, et näete, et inimese ahelas kasutamise ja ainult tehisintellektile tuginemise vahel on kompromisse. Kui teil on kiusatus soovitada, et valmis lahendus on kasutada mõlemat, tahaksin lihtsalt rõhutada, et saate mõlemast maailmast parima, kuid võite saada ka mõlemast maailmast halvima. Ärge arvake, et see on alati ja kindlasti mõlema maailma parim.

Teid võib olla mõnevõrra üllatunud üks ülalloetletud AI miinustest, täpsemalt see, et tehisintellekt võib olla prognoosimatu. Oleme harjunud uskuma, et AI peaks olema rangelt loogiline ja matemaatiliselt täpne. Seetõttu võite eeldada, et tehisintellekt on täielikult prognoositav. Me peaksime täpselt teadma, mida AI teeb. Periood, loo lõpp.

Vabandust, et see õhupall lõhkes, kuid see ennustatavuse müüt on vale nimetus. Tänapäeva tehisintellekti suurus ja keerukus on sageli hägune, mis trotsib olla täiesti etteaimatav. Seda on näha eetilise tehisintellekti käradest, mis puudutavad mõningaid tänapäevaseid masinõppe (ML) ja süvaõppe (DL) kasutusviise. Selgitan veidi lähemalt.

Samuti võiksite vaadata minu viimast analüüsi tulevaste suundumuste kohta, mille eesmärk on tagada kontrollitavad ja matemaatiliselt tõestatavad AI-süsteemid uusima tehisintellekti ohutuse kaudu, aadressil link siin.

Liiklusreeglite järgi mäletsemine

Olen maininud sihtmärkide ja sihtimise mõistet, mis on üsna koormatud terminoloogia, mis väärib teravat tähelepanu.

Võime selle üle mõelda:

  • Sihtmärgid, mis on inimesed
  • Sihtmärgid, kes pole inimesed, vaid elusolendid
  • Sihtmärgid, mida tõlgendatakse varana

Oletame, et meil on autonoomne süsteem, mis on relvastatud. AI-d kasutatakse autonoomse süsteemi juhtimiseks ja relvastuse jaoks. Tehisintellekt teeb kõike A-st Z-ni. Inimese ahelas ei ole ette nähtud. Sihtimise osas valib AI sihtmärgid. Inimeste poolt kindlaks määratud eelsihtimist pole. Selle asemel on AI programmeeritud üldiselt kindlaks tegema, kas on inimesi, keda sihikule võtta (võib-olla vaenulike tegude otsimine, teatud tüüpi vormirõivad jne).

Minuga selles siiani?

See stsenaarium põhjustab relvastatud autonoomsete süsteemide kohta kõige rohkem pahameelt.

Mure seisneb selles, et AI teeb (vähemalt) kolme asja, mida tal ei tohiks lubada:

  • Inimeste kui sihtmärkide sihtimine
  • Sihtimine ilma inimese ahelas kasutamata
  • Võimalik, et käitub ettearvamatultly

Pange tähele, et seal on teravalt mainitud muret tehisintellekti ettearvamatuse pärast. Võib juhtuda, et kuigi tehisintellekt oli programmeeritud sihtima teatud tüüpi inimesi, pole tehisintellekti programmeerimine see, mida me arvasime, ja AI sihib lisaks neile, mida tehisintellekt pidi vaenulikena tõlgendama, "sõpru". ” (või võib-olla selle asemel). Lisaks võib tehisintellekti ettearvamatus tähendada, et kui tehisintellekt peaks ahelas oleva inimesega suhtlema, siis isegi kui otsustame lisada ahelas oleva inimese sätte. nii ja tegutseb ilma inimese sekkumiseta.

Teile võib huvi pakkuda see, et Rahvusvaheline Punase Risti Komitee (ICRC) on pakkunud autonoomsete relvasüsteemide kohta kolmepunktilise üldise seisukoha, mis käsitleb seda tüüpi probleeme (ICRC veebisaidil):

1. „Ettearvamatud autonoomsed relvasüsteemid tuleks selgelt reguleerida välja, eelkõige nende valimatu mõju tõttu. Seda oleks kõige parem saavutada autonoomsete relvasüsteemide keelustamisega, mis on kavandatud või kasutatud viisil, et nende mõju ei ole võimalik piisavalt mõista, ennustada ega selgitada.

2. „Eetilisi kaalutlusi silmas pidades kaitsta inimkonda ja järgida rahvusvahelise humanitaarõiguse eeskirju tsiviilisikute ja võitlejate kaitseks hors de combat, autonoomsete relvasüsteemide kasutamine inimeste sihtimiseks tuleks välistada. Seda oleks kõige parem saavutada autonoomsete relvasüsteemide keelamisega, mis on kavandatud või mida kasutatakse inimeste vastu jõu rakendamiseks.

3. „Tsiviilelanike ja tsiviilobjektide kaitsmiseks, rahvusvahelise humanitaarõiguse reeglite järgimiseks ja inimkonna kaitsmiseks tuleks reguleerida autonoomsete relvasüsteemide väljatöötamist ja kasutamist, mis ei oleks keelatud, sealhulgas järgmiste kombinatsioonide kaudu: sihtmärkide tüüpide piirangud, näiteks piirates neid objektidega, mis on oma olemuselt sõjalised eesmärgid; kasutusaja, geograafilise ulatuse ja ulatuse piirangud, sealhulgas selleks, et võimaldada inimeste otsustusvõimet ja kontrolli seoses konkreetse rünnakuga; kasutusolukordade piirangud, näiteks piirates neid olukordadega, kus tsiviilisikuid või tsiviilobjekte ei viibi; rnõuded inimese ja masina interaktsiooniks, eelkõige selleks, et tagada inimeste tõhus järelevalve ning õigeaegne sekkumine ja deaktiveerimine.

Seoses sellega seoses kehtestas ÜRO Genfis sõlmitud teatavate tavarelvade konventsiooni (CCW) kaudu üksteist mittesiduvat juhtpõhimõtet surmavate autonoomsete relvade kohta vastavalt veebis avaldatud ametlikule aruandele (hõlmab viiteid asjakohasele rahvusvahelisele humanitaarabile). Seadus või IHL-i sätted):

a) rahvusvahelist humanitaarõigust kohaldatakse jätkuvalt täielikult kõigi relvasüsteemide, sealhulgas surmavate autonoomsete relvasüsteemide võimaliku väljatöötamise ja kasutamise suhtes;

b) Inimvastutus relvasüsteemide kasutamist puudutavate otsuste eest tuleb säilitada, kuna vastutust ei saa üle kanda masinatele. Seda tuleks arvesse võtta kogu relvasüsteemi elutsükli jooksul;

(c) Inimese ja masina interaktsioon, mis võib esineda erinevates vormides ja mida rakendatakse relva elutsükli eri etappidel, peaks tagama, et surmavate autonoomsete relvasüsteemide valdkonnas on uutel tehnoloogiatel põhinevate relvasüsteemide potentsiaalne kasutamine võimalik. kohaldatava rahvusvahelise õiguse, eelkõige IHLi järgimine. Inimese ja masina vahelise suhtluse kvaliteedi ja ulatuse kindlaksmääramisel tuleks arvesse võtta mitmeid tegureid, sealhulgas operatsiooni kontekst ning relvasüsteemi kui terviku omadused ja võimalused;

d) CCW raames tuleb tagada vastutus kõigi uute relvasüsteemide väljatöötamise, kasutuselevõtu ja kasutamise eest kooskõlas kohaldatava rahvusvahelise õigusega, sealhulgas selliste süsteemide kasutamise kaudu vastutustundliku inimkäsu- ja kontrolliahela raames;

e) Vastavalt riikide rahvusvahelisest õigusest tulenevatele kohustustele tuleb uue relva, sõjapidamise vahendi või meetodi uurimisel, arendamisel, hankimisel või kasutuselevõtul otsustada, kas selle kasutamine oleks mõnel või kõigil asjaoludel rahvusvahelise õigusega keelatud;

f) uute relvasüsteemide väljatöötamisel või hankimisel, mis põhinevad uutel tehnoloogiatel surmavate autonoomsete relvasüsteemide, füüsilise turvalisuse, asjakohaste mittefüüsiliste kaitsemeetmete (sealhulgas küberjulgeolek häkkimise või andmete võltsimise vastu), terrorirühmituste omandamise oht. kaaluda tuleks massihävitusrelvade leviku ohtu;

g) riskianalüüsid ja leevendusmeetmed peaksid olema osa uute tehnoloogiate kavandamise, arendamise, katsetamise ja kasutuselevõtu tsüklist mis tahes relvasüsteemides;

h) Rahvusvahelise humanitaarõiguse ja muude kohaldatavate rahvusvaheliste õiguslike kohustuste täitmise tagamiseks tuleks kaaluda uute tehnoloogiate kasutamist surmavate autonoomsete relvasüsteemide valdkonnas;

i) võimalike poliitiliste meetmete väljatöötamisel ei tohiks surmavate autonoomsete relvasüsteemide valdkonnas tekkivaid tehnoloogiaid antropomorfiseerida;

j) CCW raames võetavad arutelud ja võimalikud poliitilised meetmed ei tohiks takistada intelligentsete autonoomsete tehnoloogiate rahumeelset kasutamist ega juurdepääsu sellele;

k) CCW pakub sobivat raamistikku surmavate autonoomsete relvasüsteemide valdkonnas tekkivate tehnoloogiate probleemi lahendamiseks konventsiooni eesmärkide ja eesmärkide kontekstis, mille eesmärk on leida tasakaal sõjalise vajaduse ja humanitaarkaalutluste vahel.

Keda, milles me leiame

Need erinevad sõjaseadused, relvakonfliktide seadused või IHL (rahvusvahelised humanitaarseadused) on oluliseks ja paljulubavaks juhendiks, mille abil mõelda, mida võiksime teha autonoomsete süsteemide tulekuga, mis on relvastatud, olgu siis nurgakivi kujunduse või tagantjärele meetoditega.

Võime siiralt soovida, et surmava relvastatud autonoomsete süsteemide keelustamist järgitaks rangelt ja kuulekalt. Probleem on selles, et mis tahes siiraima keelu sees leitakse kavalalt palju vingerdamisruumi. Nagu öeldakse, reeglid on mõeldud rikkumiseks. Võite kihla vedada, et seal, kus asjad on laisad, tõmbab riffraff lüngad välja ja püüab reeglitest mööda pilgutada.

Siin on mõned võimalikud lüngad, mida tasub kaaluda:

  • Mittesurmavad väited. Tegema mittesurmav autonoomsed relvasüsteemid (näiliselt korras, kuna see on väljaspool keelupiiri), mida saate seejärel peenraha pärast surmavaks muuta (keelust jõuate alles viimasel minutil).
  • Ainult autonoomse süsteemi nõuded. Järgige keeldu, jättes surmavatele autonoomseid süsteeme tegemata, samal ajal tehke sama palju edusamme igapäevaste autonoomsete süsteemide väljatöötamisel, mis ei ole (veel) relvastatud, kuid mida saate mõne peenraha pärast relvastada.
  • Nõuded, mis ei ole integreeritud ühena. Looge autonoomseid süsteeme, mis pole üldse relvastatud, ja kui aeg saabub, tehke relvastus nii, et võite püüda ägedalt väita, et need on kaks eraldi elementi ja seetõttu väita, et need ei kuulu kõik-ühes rubriiki. autonoomne relvasüsteem või selle nõbu.
  • Väidab, et see pole autonoomne. Tehke relvasüsteem, mis ei tundu olevat autonoomse võimsusega. Jätke sellesse arvatavasti mitteautonoomsesse süsteemi ruumi tehisintellektil põhineva autonoomia kaotamiseks. Vajadusel ühendage autonoomia vooluvõrku ja oletegi valmis veerema (seni näiliselt te keeldu ei rikkunud).
  • Muu

Surmavate autonoomsete relvasüsteemide otsese keelustamise katsel on palju muid väljendatud raskusi. Ma käsitlen neist veel mõnda.

Mõned asjatundjad väidavad, et keeld ei ole eriti kasulik ja selle asemel peaksid olema regulatiivsed sätted. Idee seisneb selles, et need vahendid on lubatud, kuid rangelt kontrollitud. Välja on toodud rida seaduslikke kasutusviise koos seaduslike sihtimisviiside, seaduslike võimeliikide, seadusliku proportsionaalsuse ja muu sarnasega.

Nende arvates on otsene keeld sama, mis pistaks pea liiva ja teeskleks, et toas olevat elevanti pole olemas. See vaidlus paneb aga vere keema nendes, kes on vastu argumendile, et keelu kehtestamisega saate järsult vähendada muidu kiusatust seda tüüpi süsteeme järgida. Muidugi, mõned uhkeldavad keeluga, kuid vähemalt loodetavasti enamik ei tee seda. Seejärel saate keskenduda oma tähelepanu eputamistele ega pea oma tähelepanu kõigile killustama.

Need arutelud käivad ringi ja ümber.

Teine sageli märgitud mure on see, et isegi kui head peavad keelust kinni, ei tee seda halvad. See paneb hea närusesse poosi. Halbadel on sellised relvastatud autonoomsed süsteemid ja headel mitte. Kui selgub, et halbadel on need olemas, on headel juba hilja järele jõuda. Lühidalt, ainus nutikas asi, mida teha, on valmistuda tulega võitlemiseks.

On ka klassikaline heidutusvaidlus. Kui hea valik on teha relvastatud autonoomseid süsteeme, saab seda kasutada selleks, et takistada halbu inimesi tüli sattumast. Kas head on paremini relvastatud ja seega heidutavad halvad või on head valmis siis, kui halvad võivad paljastada, et nad on neid süsteeme kogu aeg vargsi välja töötanud.

Nende loendurite vastu on see, et relvastatud autonoomsete süsteemide loomisega korraldate võidurelvastumist. Teine pool püüab saada sama. Isegi kui nad tehnoloogiliselt ei suuda selliseid süsteeme uuesti luua, saavad nad nüüd varastada "heade" plaane, pöördprojekteerida kõrgtehnoloogilisi sisikondi või matkida kõike, mida nad näivad olevat proovitud ja tõesed. viis töö tegemiseks.

Ahaa, mõned repliigid, see kõik võib viia konfliktide vähenemiseni vastastikuse näiliselt. Kui pool A teab, et poolel B on need surmavad autonoomse süsteemi relvad, ja pool B teab, et poolel A on need olemas, võivad nad istuda pingul ega tabada lööke. Sellel on selge vastastikku tagatud hävitamise (MAD) aura.

Ja nii edasi.

AI autonoomias

Veenduge, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem (minu üliintelligentse tehisintellekti kui võimaluse uurimist vt. katvus siin).

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

Olge tänapäeva tehisintellekti antropomorfiseerimisega väga ettevaatlik.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Selle lisatud alustaustaga pöördume taas autonoomsete süsteemide ja relvastuse teema juurde. Varem nägime, et AI siseneb autonoomsesse süsteemikomponenti ja võib siseneda ka relvastuskomponendisse. Tänapäeva tehisintellekt ei ole tundlik. See väärib kordamist ja ma tõstan selle esile, et saada nendesse asjadesse lisateavet.

Uurime mõnda stsenaariumi, et näha, kuidas see on otsustava tähtsusega. Lülitan hetkeks selle teema sõjaaja orientatsioonist välja ja näitan, kuidas see tungib paljudesse teistesse sotsiaalsetesse miljöödesse. Kinnitage end vastavalt.

Tehisintellektil põhinev autonoomne süsteem, nagu autonoomne sõiduk, millel pole väidetavalt mingit pistmist relvadega, teeb oma teed kogu tavakohas. Inimene tuleb autonoomset sõidukit kasutama. Isik on relvastatud etteaimatava relvaga. Eeldage selle konkreetse stsenaariumi arutelu huvides, et inimesel on meeles midagi ebasoodsat. Isik istub autonoomsesse sõidukisse (kandes oma relva, kas peidetud või varjamata, mõlemal juhul).

Autonoomne sõiduk liigub sõitja soovitud sihtkohta. Sel juhul veab tehisintellekt selle reisija lihtsalt programmiliselt ühest pealevõtukohast määratud sihtkohta, täpselt nagu see on teinud iga päev kümnete või sadade reiside puhul.

Kui see oleks olnud inimjuht ja inimese juhitud sõiduk, on arvatavasti võimalus, et inimjuht mõistab, et reisija on relvastatud ja näib tal olevat ebasoodsad kavatsused. Inimjuht võib keelduda sõidukit juhtimast. Või võib autojuht politseijaoskonda sõita. Või võib-olla võib inimjuht proovida relvastatud reisijat alistada (teatatud juhtumeid on olemas) või veenda reisijat oma relva kasutamast. See on üsna keeruline ja variatsioone võib olla palju. Teil oleks raske väita, et sellise olukorra lahendamiseks on ainult üks õige vastus. Kahjuks on olukord tüütu ja ilmselgelt ohtlik.

Tõenäoliselt pole AI sellisel juhul programmeeritud ühegi sellise võimaluse jaoks. Lühidalt öeldes võib relvastatud reisijal olla võimalik kasutada oma relva, tehes seda autonoomses sõidukis sõidu ajal. Tehisintellektiga sõidusüsteem jätkab liikumist ja autonoomne sõiduk jätkab suundumust reisija määratud tähistusse (eeldusel, et sihtkohta ei peetud muidu piiridest väljas).

Enamik kaasaegseid tehisintellekti juhtimissüsteeme keskenduks arvutuslikult ainult sõiduteele, mitte sõitja pingutustele.

Asjad võivad sellest hullemaks minna.

Oletame, et keegi soovib, et hunnik toidukaupu transporditaks kohta, kust võetakse abivajajatele lisatoitu. Isik taotleb autonoomset sõidukit ja asetab toidukotid sõiduki tagaistmele. Nad ei kavatse sõita kaasa ja kasutavad autonoomset sõidukit, et neile toidukotid kohale toimetada.

Tundub täiesti korralik.

Kujutage ette, et rumal inimene otsustab selle asemel paigutada autonoomsesse sõidukisse mingisuguse relvastuse, mitte rahumeelsema arusaama toidukottidest. Ma arvan, et võite arvata, mis võib juhtuda. See on mure, mida olen oma veergudel korduvalt õhutanud ja hoiatanud, et me peame sellega toime tulema pigem varem kui hiljem.

Üks pakutud vastus seda tüüpi stsenaariumidele on see, et võib-olla saaks kõik autonoomsed sõidukid programmeerida kasutama oma kaameraid ja muid andureid, et proovida tuvastada, kas potentsiaalne reisija on relvastatud ja tal on pahatahtlikud kavatsused. Võib-olla oleks AI programmeeritud seda tegema. Või hoiatab tehisintellekt elektrooniliselt ja vaikselt kaugjuhtimist, kes seejärel kaamerate kaudu visuaalselt ja muul viisil uurib reisijat ning võib-olla suhtleb temaga. See kõik on osa keerulisest ja potentsiaalselt raskesti lahendatavast ussipurgist, mis tekitab tõsiseid privaatsusprobleeme ja hulgaliselt muid võimalikke eetilisi tehisintellektiga seotud probleeme. Vaadake minu kajastust aadressil link siin.

Teine mõnevõrra sarnane alternatiiv on see, et tehisintellekt sisaldab teatud tüüpi manustatud eetikaprogramme, mis püüab võimaldada tehisintellektil langetada eetilisi või moraalseid otsuseid, mis on tavaliselt reserveeritud inimeste otsustajatele. Olen uurinud seda tüüpi tehisintellektiga manustatud arvutuseetika prognostikaatoreid, vt. link siin ja link siin.

Tulles tagasi lahinguvälja stsenaariumi juurde, kujutage ette, et surmav autonoomne relvasüsteem tiirleb lahingutsooni kohal. AI juhib autonoomset süsteemi. Tehisintellekt juhib relvi pardal. Varem olime mõelnud võimalusele, et tehisintellekt võib olla programmeeritud otsima näiliselt vaenulikke liikumisi või muid inimsihtmärkide näitajaid, mida peetakse kehtivateks võitlejateks.

Kas sellel samal tehisintellektil peaks olema mingisugune eetilisele orienteeritud komponent, mis püüab arvutuslikult kaaluda, mida ahelas olev inimene võiks teha, toimides teatud mõttes ahelas oleva inimese asemel?

Mõned ütlevad, et jah, jätkame sellega. Mõned tõmbuvad kohkunult tagasi ja ütlevad, et see on kas võimatu või rikub muul viisil inimkonna pühadust.

Veel üks purk ussidega.

Järeldus

Neile, kes sellest teemast huvitatud olete, on veel palju, mida arutada.

Ma annan teile kiire maitse ühest närivast mõistatusest.

Tavaliselt eeldame, et inimene vastutab sõja ajal toimuva eest. Kui tehisintellekt juhib autonoomset relvasüsteemi või autonoomset süsteemi, mis on tõenäoliselt relvastatud, ja see süsteem teeb lahinguväljal midagi, mida peetakse mõistusevastaseks, siis keda või mida selles süüdistada?

Võite väita, et tehisintellekt peaks vastutama. Aga kui jah, siis mida see täpselt tähendab? Me ei pea tänast tehisintellekti veel juriidilise isiku kehastuseks, vt minu selgitust aadressil link siin. AI puhul ei tohi eeslile saba külge kinnitada. Võib-olla, kui tehisintellekt muutub ühel päeval tundlikuks, võite proovida seda teha. Kuni selle ajani on see veidi käeulatuses (pluss, milliseid karistusi või tagajärgi tehisintellektile kohaldatakse, vt minu analüüsi aadressil link siin ja link siin, näiteks).

Kui tehisintellekt ei ole vastutav kahtlusalune, võime loomulikult öelda, et kõik inimesed, kes tehisintellekti välja mõtlesid, tuleks vastutusele võtta. Kas saate seda teha, kui tehisintellekt käitab ainult autonoomset süsteemi ja mõned inimesed ühendasid selle relvastusega? Kas järgite tehisintellekti arendajaid? Või need, kes kasutasid tehisintellekti? Või lihtsalt relvastav näitleja?

Usun, et saate aru, et olen oma südamlikus arutelus puudutanud vaid jäämäe tippu.

Praegu jätkame ja lõpetame selle diskursuse. Võib-olla mäletate, et John Lyly aastal Euphues: vaimukuse anatoomia aastal 1578 märkis meeldejäävalt, et armastuses ja sõjas on kõik õiglane.

Kas ta oleks pidanud silmas autonoomsete relvasüsteemide tekkimist ja samamoodi relvastatud autonoomsete süsteemide tulekut?

Peame selle kohe kindlasti pähe panema.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- relvasüsteemid-ja-ai-juhitud-autonoomsete süsteemide-kas-kuratlikult-relvastatud/