Tehisintellekti eetika ja tehisintellekti seadus esitavad tantsiva roboti valmistajate poolt selle uue lubaduse kohta raskeid küsimusi, öeldes, et nad hoiavad ära tehisintellekti relvastamise

Võib-olla nägite eelmisel nädalal uudistes või märkasite sotsiaalmeedias mõnede robotitootjate väljakuulutatud lubadust oma eesmärkide kohta vältida üldotstarbeliste robotite tehisintellekti relvastamist. Juhendan teid hetke pärast üksikasjadega, nii et ärge muretsege, kui te poleks asjast aru saanud.

Reaktsioon sellele kuulutusele on olnud kiire ja, nagu meie polariseerunud ühiskonnas tavaks, olnud nii ülistav kui ka kohati pilkavalt kriitiline või lausa vastikult skeptiline.

See on lugu kahest maailmast.

Ühes maailmas ütlevad mõned, et see on täpselt see, milleks me vajame vastutav AI roboti arendajad deklareerida.

Jumal tänatud, et olete õigel poolel probleemiga, mis muutub järk-järgult nähtavamaks ja murettekitavamaks. Need armsad tantsurobotid on murettekitavad, sest neid on üsna lihtne ümber panna, et relvi kandma ja neid halvimal viisil kasutada (saate seda ise kontrollida, minnes sotsiaalmeediasse ja seal on ohtralt videoid, mis tutvustavad kuulipildujatega relvastatud tantsuroboteid ja muu relvastus).

Mündi teisel poolel on kirjas, et nn pant pole midagi muud kui turundus- või suhtekorraldus (kõrvalmärkusena, kas keegi on kursis pandi ja annetuse erinevusega?). Igatahes manitsevad kahtlejad, et see on tantsivate robotite kontekstis ohjeldamatu voorustest märku andmine. Näete, kurtmine selle üle, et üldotstarbelisi roboteid saab relvastada, on kindlasti väärt ja tõsiselt otsitud kaalutlus, kuigi pelgalt väide, et tegija seda ei tee, on tõenäoliselt tühine lubadus, väidavad mõned.

Kokkuvõttes toob kogu see teema esile üsna palju tehisintellekti eetika ja AI seaduse kaalutlusi. Pakime teema põhjalikult lahti ja näeme, kuidas see on eetilise ja juriidilise tehisintellekti rämpsu topeltkahju. Minu jätkuvat ja ulatuslikku AI eetikat ja tehisintellektiseadust käsitlevat ülevaadet vt link siin ja link siin, Ainult mõned nimed.

Samuti viitan kogu selle arutelu jooksul oma varasematele analüüsidele tehisintellekti relvastamise ohtude kohta, nagu näiteks minu põhjalik hinnang link siin. Võib-olla soovite seda diskursust vaadata, et saada täiendavaid kulissidetaguseid üksikasju.

Avatud kiri, mis avab ussipurgi

Alustame seda analüüsi, uurides hoolikalt samm-sammult avatud kirja, mille hiljuti avaldasid kuus suhteliselt tuntud arenenud robotitootjat, nimelt Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics ja Unitree. Üldiselt arvan, et olete näinud peamiselt Boston Dynamicsi roboteid, näiteks neid, mis hüppavad neljakäpukil. Nad näevad välja nagu oleksid koera moodi ja meile meeldib neid ringi uitamas näha.

Nagu olen varem ja korduvalt hoiatanud, on selliste "tantsuliste" robotite kasutamine vahendina laiema avalikkuse veenmiseks, et need robotid on armsad ja jumalikud, kahjuks eksitav ja kaldub nende antropomorfiseerimise ohtratesse lõksudesse. Me hakkame mõtlema nendest kivistunud metallist ja plastist tükkidest, nagu oleksid need võrdväärsed kaisutava lojaalse koeraga. Meie valmisolek neid roboteid vastu võtta põhineb vääral turva- ja kindlustundel. Muidugi, sa pead raha teenima ja selle tegemise tõenäosust suurendab tantsivate robotite ringi parandamine, kuid see jätab kahetsusväärselt tähelepanuta või näiliselt varjab tegelikku tõsiasja, et need robotid on robotid ja et roboteid kontrolliv tehisintellekt võib olla valesti välja mõeldud. või läheb viltu.

Mõelge nendele tehisintellekti tagajärgedele (väljavõte minu artiklist AI relvastamise kohta, mis on leitud aadressil link siin):

  • AI võib ilmneda tõrkega, mis põhjustab selle eksimise
  • AI võib olla ülekoormatud ja lukustuda reageerimata
  • AI võib sisaldada arendaja vigu, mis põhjustavad ebakorrektset käitumist
  • AI võib olla rikutud siirdatud kurjategija viirusega
  • Küberhäkkerid võivad tehisintellekti reaalajas üle võtta
  • AI-d võib keerukuse tõttu pidada ettearvamatuks
  • AI võib arvutuslikult teha "vale" otsuse (suhteliselt)
  • Jne

Need on punktid seoses tehisintellektiga, mis on seda tüüpi, mis on tõeliselt välja töötatud alguses, et teha õigeid asju.

Lisaks nendele kaalutlustele peate kaasama AI-süsteemid, mis on algusest peale loodud halbade asjade tegemiseks. Teil võib olla kasulikel eesmärkidel loodud tehisintellekt, mida sageli nimetatakse AI heaks. Teil võib olla ka AI, mis on tahtlikult tehtud halbadel eesmärkidel, tuntud kui AI For Bad. Lisaks võite saada AI heaks mis on rikutud või ümberkujundatud muutumiseks AI For Bad.

Muide, sellel pole midagi pistmist tehisintellekti muutumisega tundlikuks, mida ma mainin seetõttu, et mõned hüüavad pidevalt, et tänapäeva tehisintellekt on kas tundlik või tundlikuks muutumise äärel. Mitte nii. Ma lahutan need müüdid oma analüüsis aadressil link siin.

Veendume siis, et oleme tänapäeva AI olemusega ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui tahaksime metsikult spekuleerida tundliku tehisintellekti üle, võib see arutelu minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib olla inimestest targem (minu võimalust uurida üliintelligentse tehisintellekti kohta vt. katvus siin).

Soovitan tungivalt hoida asjad maa peal ja kaaluda tänapäeva arvutuslikku mittetundlikku tehisintellekti.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

Olge tänapäeva tehisintellekti antropomorfiseerimisega väga ettevaatlik.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste kõrvaldamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad katsetavad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Sellel kõigel on märkimisväärne mõju tehisintellekti eetikale ja see pakub tehisintellekti seadusandlusel kasulikku akent saadud õppetundidesse (isegi enne, kui kõik õppetunnid juhtuvad).

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Nad hoiatavad ette, et kui me mõne neist tehisintellekti seadustest kehtestame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid.

Eelmistes veergudes olen käsitlenud erinevaid riiklikke ja rahvusvahelisi jõupingutusi tehisintellekti reguleerivate seaduste koostamiseks ja jõustamiseks, vt. link siin, näiteks. Olen käsitlenud ka erinevaid tehisintellekti eetika põhimõtteid ja juhiseid, mida erinevad riigid on tuvastanud ja vastu võtnud, sealhulgas näiteks ÜRO jõupingutusi, nagu UNESCO tehisintellekti eetika kogum, mille on kasutusele võtnud peaaegu 200 riiki, vt. link siin.

Siin on kasulik AI-süsteemide eetiliste kriteeriumide või omaduste nurgakivi loend, mida olen varem põhjalikult uurinud:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Tehisintellekti arendajad peaksid tõsiselt kasutama neid tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendamise jõupingutusi, ja isegi neid, kes lõpuks AI-süsteeme kasutavad ja hooldavad.

Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu siin eelnevalt rõhutatud, on tehisintellekti väljatöötamiseks ja kasutuselevõtuks vaja küla, mille jaoks kogu küla peab olema teadlik ja järgima tehisintellekti eetika ettekirjutusi.

Nüüd, kui olen loonud kasuliku aluse Open Letterisse pääsemiseks, oleme valmis sukelduma.

Avatud kirja ametlik pealkiri on järgmine:

  • "Avatud kiri robootikatööstusele ja meie kogukondadele, üldotstarbelisi roboteid ei tohiks relvastada” (nagu veebis postitatud).

Siiamaani on kõik korras.

Pealkiri tundub peaaegu jäätise ja õunakookina. Kuidas saaks keegi vaidlustada seda kui kunagist üleskutset vältida AI-robotite relvastamist?

Lugege edasi, et näha.

Esiteks on siin avatud kirja ametlik avalõik:

  • „Oleme ühed maailma juhtivatest ettevõtetest, kes on pühendunud arenenud mobiilse robootika uute põlvkondade tutvustamisele ühiskonnas. Need uue põlvkonna robotid on ligipääsetavamad, hõlpsamini kasutatavad, autonoomsemad, taskukohasemad ja kohandatavamad kui eelmised põlvkonnad ning suutelised navigeerima kohtadesse, kuhu varem ei pääsenud automatiseeritud või kaugjuhitavad tehnoloogiad. Usume, et arenenud mobiilsetest robotitest on ühiskonnale palju kasu, kui kaastöötajad tööstuses ja kaaslased meie kodudes” (nagu on veebis postitatud).

Seda tüüpi robotite tuleku päikeseline külg on see, et võime oodata palju häid eeliseid. Pole mitte mingit kahtlust. Teie kodus võib olla robot, mis suudab teha selliseid Jetsoni-sarnaseid tegevusi, nagu maja koristamine, nõude pesemine ja muud majapidamistööd. Meil on tehastes ja tootmisrajatistes kasutamiseks täiustatud robotid. Robotid võivad roomata või manööverdada kitsastesse kohtadesse, näiteks kui hoone kokku variseb ja inimelude päästmine on ohus. Ja nii edasi.

Kõrvalepõikena võib teile huvi pakkuda minu hiljutine silmakriitiline kajastus Tesla AI päevast, kus Elon Musk kujutas mõningaid kõndivaid roboteid Tesla ja ühiskonna tulevikuna, vt. link siin.

Tagasi käsiloleva asja juurde. Kui räägime tõsiselt tantsivatest või kõndivatest robotitest, peame tähelepanelikult arvestama tehisintellekti kasutamisega kaasnevaid kompromisse või kogu ROI-d (investeeringutasuvus). Me ei tohiks lubada endale liigset vaimustuda eelistest, kui arvestada tuleb ka kuludega.

Uuel läikival mänguasjal võivad olla üsna teravad servad.

Kõik see tõukab esile olulise, kuid mõnevõrra vaikiva mõtte, et osa põhjusest, miks tehisintellekti relvastamise probleem praegu kerkib, on tingitud AI edenemisest autonoomse tegevuse suunas. Oleme tavaliselt eeldanud, et relvi juhivad üldiselt inimesed. Inimene teeb otsuse, kas tulistada või relva kasutada. Arvatavasti saame seda inimest oma tegude eest vastutada.

Tehisintellekt, mis on loodud töötama iseseisvalt või mida saab seda tegema petta, eemaldaks inimese näiliselt ahelast. Tehisintellekt teeb seejärel algoritmiliselt arvutuslikke otsuseid, mis võivad lõppeda inimeste tapmisega või kahjustamisega. Lisaks ilmsele murele tehisintellekti üle kontrolli puudumise pärast on teil ka kahtlus, et meil võib olla raske aeg kanda vastutust AI tegevuse eest. Meil pole inimest, kes oleks meie ilmne õhutaja.

Ma mõistan, et mõned usuvad, et me peaksime lihtsalt ja otse tehisintellekti oma tegude eest vastutama, justkui oleks tehisintellekt saavutanud mõistuse või saanud muul viisil juriidilise isiku staatuse (vt minu kajastust juriidilise isiku staatuse omandava tehisintellekti üle peetud arutelude kohta aadressil link siin). See ei tööta praegu. Peame jälitama tehisintellekti inimesteni, kes selle välja mõtlesid või selle välja lõid. Kahtlemata püüavad nad vastutusest seaduslikult kõrvale hiilida, püüdes väita, et tehisintellekt läks kaugemale sellest, mida nad ette kujutasid. See on kasvav vaidlus, millega peame tegelema (vaadake minu tehisintellekti seaduse kirjutisi, et saada ülevaadet vaidlusalustest küsimustest).

Ühinenud Rahvaste Organisatsioon (ÜRO) on Genfis sõlmitud teatavate tavarelvade konventsiooni (CCW) kaudu kehtestanud üksteist mittesiduvat juhtpõhimõtet surmavate autonoomsete relvade kohta vastavalt veebis avaldatud ametlikule aruandele (hõlmab viiteid asjakohasele rahvusvahelisele humanitaarõigusele või rahvusvahelise humanitaarõiguse sätetele). , kaasa arvatud:

a) rahvusvahelist humanitaarõigust kohaldatakse jätkuvalt täielikult kõigi relvasüsteemide, sealhulgas surmavate autonoomsete relvasüsteemide võimaliku väljatöötamise ja kasutamise suhtes;

b) Inimvastutus relvasüsteemide kasutamist puudutavate otsuste eest tuleb säilitada, kuna vastutust ei saa üle kanda masinatele. Seda tuleks arvesse võtta kogu relvasüsteemi elutsükli jooksul;

(c) Inimese ja masina interaktsioon, mis võib esineda erinevates vormides ja mida rakendatakse relva elutsükli eri etappidel, peaks tagama, et surmavate autonoomsete relvasüsteemide valdkonnas on uutel tehnoloogiatel põhinevate relvasüsteemide potentsiaalne kasutamine võimalik. kohaldatava rahvusvahelise õiguse, eelkõige IHLi järgimine. Inimese ja masina vahelise suhtluse kvaliteedi ja ulatuse kindlaksmääramisel tuleks arvesse võtta mitmeid tegureid, sealhulgas operatsiooni kontekst ning relvasüsteemi kui terviku omadused ja võimalused;

d) CCW raames tuleb tagada vastutus kõigi uute relvasüsteemide väljatöötamise, kasutuselevõtu ja kasutamise eest kooskõlas kohaldatava rahvusvahelise õigusega, sealhulgas selliste süsteemide kasutamise kaudu vastutustundliku inimkäsu- ja kontrolliahela raames;

e) Vastavalt riikide rahvusvahelisest õigusest tulenevatele kohustustele tuleb uue relva, sõjapidamise vahendi või meetodi uurimisel, arendamisel, hankimisel või kasutuselevõtul otsustada, kas selle kasutamine oleks mõnel või kõigil asjaoludel rahvusvahelise õigusega keelatud;

f) uute relvasüsteemide väljatöötamisel või hankimisel, mis põhinevad uutel tehnoloogiatel surmavate autonoomsete relvasüsteemide, füüsilise turvalisuse, asjakohaste mittefüüsiliste kaitsemeetmete (sealhulgas küberjulgeolek häkkimise või andmete võltsimise vastu), terrorirühmituste omandamise oht. kaaluda tuleks massihävitusrelvade leviku ohtu;

g) riskianalüüsid ja leevendusmeetmed peaksid olema osa uute tehnoloogiate kavandamise, arendamise, katsetamise ja kasutuselevõtu tsüklist mis tahes relvasüsteemides;

h) Rahvusvahelise humanitaarõiguse ja muude kohaldatavate rahvusvaheliste õiguslike kohustuste täitmise tagamiseks tuleks kaaluda uute tehnoloogiate kasutamist surmavate autonoomsete relvasüsteemide valdkonnas;

i) võimalike poliitiliste meetmete väljatöötamisel ei tohiks surmavate autonoomsete relvasüsteemide valdkonnas tekkivaid tehnoloogiaid antropomorfiseerida;

j) CCW raames võetavad arutelud ja võimalikud poliitilised meetmed ei tohiks takistada intelligentsete autonoomsete tehnoloogiate rahumeelset kasutamist ega juurdepääsu sellele;

k) CCW pakub sobivat raamistikku surmavate autonoomsete relvasüsteemide valdkonnas tekkivate tehnoloogiate probleemi lahendamiseks konventsiooni eesmärkide ja eesmärkide kontekstis, mille eesmärk on leida tasakaal sõjalise vajaduse ja humanitaarkaalutluste vahel.

Need ja muud erinevad sõjaseadused ja relvakonfliktide seadused ehk IHL (rahvusvahelised humanitaarseadused) on oluliseks ja paljulubavaks juhendiks, mille abil mõelda, mida võiksime teha autonoomsete süsteemide tulekuga, mis on relvastatud, olgu siis päiskivi abil. disaini või tagantjärele meetoditega.

Mõned ütlevad, et peaksime need AI autonoomsed süsteemid, mida saab relvastada, otse keelustada. See on õige, maailm peaks oma jala maha panema ja nõudma tungivalt, et tehisintellekti autonoomsed süsteemid ei oleks kunagi relvastatud. Kehtestada tuleb täielik keeld. Loo lõpp. Punkt, punkt.

Võime siiralt soovida, et surmava relvastatud autonoomsete süsteemide keelustamist järgitaks rangelt ja kuulekalt. Probleem on selles, et mis tahes siiraima keelu sees leitakse kavalalt palju liikumisruumi. Nagu öeldakse, reeglid on mõeldud rikkumiseks. Võite kihla vedada, et seal, kus asjad on laisad, tõmbab riffraff lüngad välja ja püüab reeglitest mööda pilgutada.

Siin on mõned võimalikud lüngad, mida tasub kaaluda:

  • Mittesurmavad väited. Looge mittesurmavad autonoomsed relvasüsteemid (näiliselt korras, kuna see on väljaspool keelupiiri), mida saate seejärel peenrahaga muuta surmavaks (keelust jõuate alles viimasel minutil).
  • Ainult autonoomse süsteemi nõuded. Järgige keeldu, jättes surmavatele autonoomseid süsteeme tegemata, samal ajal tehke sama palju edusamme igapäevaste autonoomsete süsteemide väljatöötamisel, mis ei ole (veel) relvastatud, kuid mida saate mõne peenraha pärast relvastada.
  • Nõuded, mis ei ole integreeritud ühena. Looge autonoomseid süsteeme, mis pole üldse relvastatud, ja kui aeg saabub, tehke relvastus nii, et võite püüda ägedalt väita, et need on kaks eraldi elementi ja seetõttu väita, et need ei kuulu kõik-ühes rubriiki. autonoomne relvasüsteem või selle nõbu.
  • Väidab, et see pole autonoomne. Tehke relvasüsteem, mis ei tundu olevat autonoomse võimsusega. Jätke sellesse arvatavasti mitteautonoomsesse süsteemi ruumi tehisintellektil põhineva autonoomia kaotamiseks. Vajadusel ühendage autonoomia vooluvõrku ja oletegi valmis veerema (seni näiliselt te keeldu ei rikkunud).
  • Muu

Surmavate autonoomsete relvasüsteemide otsese keelustamise katsel on palju muid väljendatud raskusi. Ma käsitlen neist veel mõnda.

Mõned asjatundjad väidavad, et keeld ei ole eriti kasulik ja selle asemel peaksid olema regulatiivsed sätted. Idee seisneb selles, et need vahendid on lubatud, kuid rangelt kontrollitud. Välja on toodud rida seaduslikke kasutusviise koos seaduslike sihtimisviiside, seaduslike võimeliikide, seadusliku proportsionaalsuse ja muu sarnasega.

Nende arvates on otsene keeld sama, mis pistaks pea liiva ja teeskleks, et toas olevat elevanti pole olemas. See vaidlus paneb aga vere keema nendes, kes on vastu argumendile, et keelu kehtestamisega saate järsult vähendada muidu kiusatust seda tüüpi süsteeme järgida. Muidugi, mõned uhkeldavad keeluga, kuid vähemalt loodetavasti enamik ei tee seda. Seejärel saate keskenduda oma tähelepanu eputamistele ega pea oma tähelepanu kõigile killustama.

Need arutelud käivad ringi ja ümber.

Teine sageli märgitud mure on see, et isegi kui head peavad keeldu, ei tee seda halvad. See paneb hea närusesse poosi. Halbadel on sellised relvastatud autonoomsed süsteemid ja headel mitte. Kui selgub, et halbadel on need olemas, on headel juba hilja järele jõuda. Lühidalt, ainus nutikas asi, mida teha, on valmistuda tulega võitlemiseks.

On ka klassikaline heidutusvaidlus. Kui hea valik on teha relvastatud autonoomseid süsteeme, saab seda kasutada selleks, et takistada halbu inimesi tüli sattumast. Kas head on paremini relvastatud ja seega heidutavad halvad või on head valmis siis, kui halb võib-olla paljastab, et nad on neid süsteeme kogu aeg varjatult välja töötanud.

Nende loendurite vastu on see, et relvastatud autonoomsete süsteemide loomisega korraldate võidurelvastumist. Teine pool püüab saada sama. Isegi kui nad tehnoloogiliselt ei suuda selliseid süsteeme uuesti luua, saavad nad nüüd varastada "heade" plaane, pöördprojekteerida kõrgtehnoloogilisi sisikondi või matkida kõike, mida nad näivad olevat proovitud ja tõesed. viis töö tegemiseks.

Ahaa, mõned repliigid, see kõik võib viia konfliktide vähenemiseni vastastikuse näiliselt. Kui pool A teab, et poolel B on need surmavad autonoomse süsteemi relvad, ja pool B teab, et poolel A on need olemas, võivad nad istuda pingul ega tabada lööke. Sellel on selge vastastikku tagatud hävitamise (MAD) aura.

Ja nii edasi.

Teist lõiku tähelepanelikult vaadates

Oleme siin juba palju käsitlenud ja käsitlenud ainult avatud kirja esimest ehk avalõiku (kokku on neli lõiku).

Aeg heita pilk teisele lõigule, siin on:

  • „Nagu iga uue tehnoloogia puhul, mis pakub uusi võimalusi, pakub täiustatud mobiilsete robotite ilmumine väärkasutuse võimalust. Ebausaldusväärsed inimesed võivad neid kasutada kodanikuõiguste rikkumiseks või teiste ähvardamiseks, kahjustamiseks või hirmutamiseks. Üks erilist muret tekitav valdkond on relvastus. Usume, et relvade lisamine kaug- või autonoomselt juhitavatele, üldsusele laialdaselt kättesaadavatele robotitele, mis on suutelised liikuma varem ligipääsmatutesse kohtadesse, kus inimesed elavad ja töötavad, tekitab uusi kahjuriske ja tõsiseid eetilisi probleeme. Nende uute võimeliste robotite relvastatud rakendused kahjustavad ka avalikkuse usaldust tehnoloogia vastu viisil, mis kahjustab tohutut kasu, mida nad ühiskonnale toovad. Nendel põhjustel ei toeta me oma täiustatud mobiilsusega üldotstarbeliste robotite relvastamist. Nende jaoks, kes oleme sellel teemal minevikus sõna võtnud ja kes osalevad esimest korda, tunneme nüüd uuesti tungivat vajadust, pidades silmas viimastel kuudel suurenenud avalikku muret, mille on põhjustanud väike hulk inimesi, kes on oma vahekorrast nähtavalt avalikustanud. jõupingutusi kaubanduslikult saadavate robotite relvastamiseks” (nagu veebis postitatud).

Seda teist lõiku lugedes loodan, et näete, kuidas minu siinne varasem diskursus AI relvastamise kohta esiplaanile tõuseb.

Uurime veel mõnda punkti.

Mõningane kahetsus teatud sõnastusaspekti suhtes, mis mõnede jaoks on kõõma tekitanud, on see, et narratiiv näib rõhutavat, et "ebausaldusväärsed inimesed" võivad neid AI-roboteid kuritarvitada. Jah, tõepoolest, pahad inimesed või kurjategijad võivad AI-roboteid kuritarvitada.

Samal ajal, nagu selle arutelu alguses rõhutati, peame ka selgeks tegema, et AI ise võib viltu minna, võib-olla manustatud vigade või vigade ja muude selliste komplikatsioonide tõttu. Avaldatud mure on see, et ainult rõhutades võimalusi ebausaldusväärsed inimesed on see, et see näib ignoreerivat muid ebasoodsaid võimalusi. Kuigi enamik tehisintellekti ettevõtteid ja müüjaid ei taha seda tunnistada, on palju tehisintellektisüsteemidega seotud probleeme, mis võivad autonoomsete süsteemide ohutust ja töökindlust vähendada. Tehisintellekti ohutuse ja rangete ja tõestatavate kaitsemeetmete vajaduse kohta vaadake teavet link siin, Nt.

Veel üks tähelepanuväärne punkt, mis on avaliku kirja uurijate seas esile kerkinud, hõlmab lisatud väidet, et tehisintellektiga seotud robotitega seotud avalikkuse usaldus võib lõpuks alla lüüa.

Ühest küljest on see õige väide. Kui tehisintellektiroboteid kasutatakse kurja pakkumise tegemiseks, võite kihla vedada, et avalikkus läheb üsna auruks. Kui avalikkus on aurustunud, võite kihla vedada, et seadusandjad hakkavad sekkuma ja püüavad kehtestada seadusi, mis piiravad tehisintellektiroboteid ja tehisintellekti robotite tegijaid. See võib omakorda kahjustada tehisintellekti robootikatööstust, kui seadused on kõikehõlmavad ja peatada jõupingutused, mis hõlmavad tehisintellekti robootika eeliseid. Mõnes mõttes võib beebi koos vanniveega välja visata (vana väljend, väärib ilmselt pensionile jäämist).

Ilmselgelt tõstatatud küsimus on ka see, kas see väide avalikkuse usalduse vähenemise ärahoidmise kohta tehisintellektirobotite vastu on mõneti omakasupüüdlik kreedo või on see meie kõigi hüvanguks (kas see võib olla mõlema?).

Sina otsustad.

Nüüd jõuame avatud kirja eriti lihava osa juurde:

  • "Me lubame, et me ei muuda relvastuks oma täiustatud mobiilsusega üldotstarbelisi roboteid ega arendatavat tarkvara, mis võimaldab täiustatud robootikat, ega toeta teisi seda tegema. Võimaluse korral vaatame hoolikalt üle oma klientide kavandatud rakendused, et vältida võimalikku relvastamist. Samuti lubame uurida tehnoloogilisi funktsioone, mis võiksid neid riske maandada või vähendada. Et olla selge, me ei sea kahtluse alla olemasolevaid tehnoloogiaid, mida riigid ja nende valitsusasutused kasutavad enda kaitsmiseks ja oma seaduste järgimiseks” (nagu veebis postitatud).

Saame selle lahti pakkida.

Istuge maha ja valmistage end vastavalt ette.

Kas olete valmis tuliseks polarisatsiooniks?

Positiivne on see, et mõned kuulutavad häälekalt, et need AI-robotitootjad annaksid sellise lubaduse. Näib, et need robotitootjad püüavad õnneks mitte relvastada oma "täiustatud mobiilsuse üldotstarbelisi" roboteid. Lisaks öeldakse avatud kirjas, et nad ei toeta teisi, kes seda teevad.

Kriitikud imestavad, kas tegemist on nutikate sõnadega.

Näiteks kus algab ja lõpeb „edasijõudnud mobiilsus”? Kui robotitootja kavandab a lihtne- mobiilse tehisintellekti robot, mitte edasijõudnute robot (mis on määratlemata tükk tehnikažargoonist), kas see jäetakse välja mitte olla relvastatud? Seega ilmselt on okei relvastada lihtsa mobiilsusega AI-roboteid, kui need pole nn. edasijõudnud.

Sama kehtib ka üldotstarbeliste robotite sõnastuse kohta. Kui AI-robot on välja töötatud spetsiaalselt relvastamiseks ja seetõttu ei ole, siis ütleme a Üldine otstarve robot, kas sellest saab kohaldamisalast väljajätmine?

Võite nende seikadega nääkleda ja tuliselt vastu vaielda, et see on lihtsalt avatud kiri, mitte viiekümneleheküljeline juriidiline dokument, mis kirjeldab iga nurgatagust.

See viib meid näiliselt makrotasandi kahtluseni, mida mõned väljendavad. Mida tähendab „pant” sisuliselt?

Mõned küsivad, kus on veiseliha?

Ettevõte, kes annab sellise panti, teeb seda näiliselt ilma tõelise panuseta mängus. Kui mõne selle tõotuse andmiseks registreerunud ettevõtte juht otsustab lubadust enam mitte täita, mis saab selle ettevõttega? Kas juhid saavad kokkuvõttes konserveeritud? Kas ettevõte lõpetab tegevuse ja vabandab tõotuse rikkumise pärast? Ja nii edasi.

Niipalju kui sellest võib järeldada, ei ole pandi rikkumise eest mingit erilist karistust ega karistust.

Võite väita, et on olemas maine kahjustamise võimalus. Pandiandja võib turul tunda anda tõotuse andmist, mida ta enam ei täida. See eeldab muidugi ka seda, et inimesed mäletavad, et lubadus anti. Samuti eeldatakse, et pandi rikkumine avastatakse kuidagi (näib selgelt ebatõenäoline, et ettevõte ütleb kõike, kui ta seda teeb). Pandirikkuja tuleks välja kutsuda ja ometi võib selline probleem muutuda pelgalt müraks käimasolevas AI robootikatootjate uudiste tsunamis.

Mõelge teisele esile kerkinud nurgale.

Pandiandja ostab mõni suurem firma. Suurem ettevõte otsustab hakata muutma täiustatud mobiilsusega üldotstarbelisi roboteid tehisintellektiga relvastatud versioonideks.

Kas see on pandi rikkumine?

Suurem ettevõte võib väita, et see ei ole rikkumine, kuna nad (suurem ettevõte) ei ole kunagi pantinud. Samal ajal muudetakse kahjutud AI-robotid, mille väiksem ettevõte on kokku pannud ja välja mõelnud, tehes seda näiliselt kõige altruistlikumate kavatsustega, peaaegu üleöö relvastamiseks.

See õõnestab lubadust, kuigi võib öelda, et väiksem ettevõte ei teadnud, et see kunagi juhtub. Nad olid oma soovis tõsiselt. See, mida suurem ostufirma otsustas teha, ei olnud nende kontrolli all.

Mõned küsivad ka, kas sellega kaasneb mingisugune juriidiline vastutus.

Pandifirma otsustab mõne kuu pärast, et ta ei kavatse lubadust täita. Nende meel on muutunud. Kas ettevõtet saab kohtusse kaevata, kuna ta loobus antud lubadusest? Kes kaebaks kohtusse? Mis oleks hagi aluseks? Tekib hulk juriidilisi probleeme. Nagu öeldakse, võite peaaegu igaüht kohtusse kaevata, kuid see, kas jääte võidule, on hoopis teine ​​asi.

Mõelge sellele teisel viisil. Pantimisfirmal on võimalus teha tõeliselt suur tehing, et müüa terve hulk oma täiustatud mobiilsusega üldotstarbelisi roboteid suurele ettevõttele, kes on valmis robotite hankimise eest maksma läbi nina. See on üks kord elus tehtavatest miljoni dollarilistest ostutehingutest.

Mida peaks AI robootikaettevõte tegema?

Kui tehisintellekti robootika pantimisettevõtet kaubeldakse avalikult, oleks nende eesmärk peaaegu kindlasti müük (sama võib öelda ka eraettevõtte kohta, kuigi mitte päris nii). Kujutage ette, et pandiandja on mures, et ostja võib proovida roboteid relvastada, kuigi oletame, et sellist arutelu ei toimu. Kuuldavasti võib ostja seda teha.

Sellest tulenevalt paneb pandi andev ettevõte oma litsentsidesse, et roboteid ei tohi relvastada. Ostja keeldub sellest keelest ja astub ostust kõrvale.

Kui palju kasumit lubanud tehisintellekti robootikafirma just eemaldus?

Kas on mingi hetk, kus omane kasum kaalub üles litsentsimise piirangu nõude lisamise (või võib-olla piirangu juriidilise sõnastuse nii, et oleks võimalik kõigutada ja tehing siiski teoks teha)? Ma arvan, et näete sellega seotud kitsikusi. Selliseid stsenaariume on lihtne välja mõelda. Küsimus on selles, kas see pant saab hambaid. Kui jah, siis millised hambad?

Lühidalt, nagu selle arutelu alguses mainitud, on mõned seda tüüpi pantimise üle üllatunud, samas kui teised suhtuvad sellesse, kas pant peab vett pidama, nõrgemalt.

Liigume edasi.

Pandi võtmine

Avatud kirja neljas ja viimane lõik ütleb järgmist:

  • "Me mõistame, et meie pühendumisest üksi ei piisa nende riskide täielikuks käsitlemiseks, ja seetõttu kutsume poliitikakujundajaid üles tegema meiega koostööd, et edendada nende robotite ohutut kasutamist ja keelata nende väärkasutamine. Samuti kutsume kõiki robootikakogukonna organisatsioone, arendajaid, uurijaid ja kasutajaid üles andma sarnaseid lubadusi mitte ehitada, volitada, toetada ega võimaldada selliste robotite külge relvi. Oleme veendunud, et nende tehnoloogiate eelised inimkonnale kaaluvad üles väärkasutamise riski, ja oleme põnevil helge tuleviku üle, kus inimesed ja robotid töötavad kõrvuti, et lahendada mõningaid maailma väljakutseid” (nagu on veebis postitatud).

Sellel avatud kirja viimasel osal on mitu lisaelementi, mis on viha tekitanud.

Mõned väidavad, et poliitikakujundajate poole pöördumine võib olla hästi läbimõeldud või halvasti läbimõeldud. Võib juhtuda, et poliitikakujundajad, kes pole nendes küsimustes kursis, hakkavad tegema klassikalisi kiireid otsuseid ning koostama seadusi ja määrusi, mis röövivad tehisintellektirobotite edusamme. Nagu varem öeldud, võib tehisintellekti robotite edusamme tõukav innovatsioon häirida või takistada.

Parem olla kindel, et tead, mida taotled, ütlevad kriitikud.

Muidugi on vastuargument see, et narratiiv ütleb selgelt, et poliitikakujundajad peaksid tegema koostööd tehisintellekti robootikaettevõtetega, et välja mõelda, kuidas selliseid seadusi ja määrusi eeldatavasti mõistlikult teha. Vastuargumendi vastu on see, et poliitikakujundajaid võidakse vaadelda tehisintellekti robootikategijate poole vaatajana, kui nad oma kapriisidele vastavad. Vastuargumentide vastand seisneb selles, et loomulikult on vaja teha koostööd nendega, kes seda tehnoloogiat tunnevad, vastasel juhul võib tulemus olla tüütu. Jne.

Võib-olla sagimise põhjal on mõnel olnud kõrvetised üle piiri, mis kutsub kõiki üles andma sarnaseid lubadusi, et mitte kinnitamine relvastust täiustatud mobiilsusega üldotstarbelistele robotitele. Märksõna seal on sõna kinnitamine. Kui keegi valmistab tehisintellekti robotit, mis sisaldab relvi või integreerib sujuvalt relvi, tundub see sobivat sõnastusega kinnitamine midagi. Seda näete nüüd, keegi vaidleb ägedalt, et relv pole kinnitatud, see on täielikult AI-roboti lahutamatu osa. Saage sellest üle, hüüavad nad, me ei kuulu selle lubaduse alla ja nad oleksid võinud isegi öelda, et nad on.

See toob esile veel ühe kaebuse pandi kleepuvuse puudumise kohta.

Kas ettevõte või keegi üldse, kes otsustab selle lubaduse anda, võib igal ajal kuulutada end tagatisest vabastamata, et ta seda soovib ja mis tahes põhjusel?

Ilmselt nii.

Lubaduste andmise ja nende tõmbejõu üle möllatakse palju.

Järeldus

Jah, võite öelda, et need ettevõtted, kes üritavad teha õigeid asju, saavad trummi selle eest, et nad üritavad teha õigeid asju.

Mis on meie maailmast tulnud?

Igaühele, kes sellise lubaduse annab, tuleks anda kahtlus, mida te võiksite kirglikult säilitada. Nad astuvad avalikku sfääri, et anda julge ja oluline panus. Kui hakkame neid selle pärast solvama, muudab see asja kindlasti hullemaks. Keegi ei taha sellist lubadust anda. Ettevõtted ja teised isegi ei proovi. Nad peidavad end ära ega hoiata ühiskonda ette, milleks need armsad tantsurobotid võivad ohtlikult muutuda.

Skeptikud väidavad, et viis ühiskonna targutamiseks eeldab muid toiminguid, näiteks loobumist väljamõeldud teost, kus näidatakse hullavaid tantsivaid tehisintellektiroboteid. Või vähemalt muuta see tasakaalustatumaks teoks. Näiteks selle asemel, et matkida pelgalt armastatud lemmikloomatruud koeri, illustreerige, kuidas tantsivad robotid võivad olla rohkem sarnased metsikute vallas vihaste huntidega, kes suudavad inimesed suure kõhklusega tükkideks rebida.

Nad anuvad, et see tõmbab rohkem tähelepanu kui lubadused.

Kindlustused võivad kahtlemata olla üsna segaduses.

Nagu Mahatma Gandhi kõnekalt ütles: "Ükskõik kui selgesõnaline lubadus on, inimesed pööravad ja väänavad teksti vastavalt oma eesmärgile."

Võib-olla lõpetuseks ülendava noodiga, ütles Thomas Jefferson lubaduste kohta järgmist: „Me anname vastastikku üksteisele oma elu, varanduse ja püha au.”

Mis puudutab AI-roboteid, nende autonoomiat, relvastust ja muud sarnast, siis oleme lõpuks kõik koos. Meie vastastikune lubadus peab olema vähemalt see, et hoiame need asjad esiplaanil, püüame leida viise, kuidas nende edusammudega toime tulla ja kuidagi leida tee oma au, varanduse ja elu kindlustamiseks.

Kas me saame selle lubada?

Ma loodan.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robotitegijad-ütlevad-nad-väldivad-ai-relvastamise/