AI eetika ja tehisintellekti seadus, mis kaaluvad hiljuti avaldatud tehisintellekti õiguste seaduse rakendamise võtmeviise, sealhulgas ja hämmastavalt tehisintellekti otsene kasutamine

Pole kahtlust, et vajame oma igapäevaelus plaane.

Kui kavatsete ehitada oma ammu ette nähtud unistuste maja, oleks mõistlik kõigepealt koostada kasutatav plaan.

Plaan näitab käegakatsutavalt ja dokumenteeritult, mis tahes laia silmaringiga nägemuslikkust, mis võib olla lukustatud. Need, keda kutsutakse üles ehitama teie hinnatud kodutalu, saavad viidata kavandile ja täpsustada, kuidas tööd teha. Joonised on käepärased. Plaani puudumine on kahtlemata problemaatiline mis tahes keeruka töö või projektiga tegelemisel.

Viime selle mõnevõrra sentimentaalse, kuid ehtsa austusavalduse kavanditele tehisintellekti (AI) valdkonda.

Need, kes on sisuliselt AI-ga seotud, võivad olla häguselt teadlikud, et oluline poliitika on orienteeritud plaan ilmus hiljuti USA-s, mis puudutab ilmselgelt AI tulevikku. Mitteametlikult tuntud kui AI Bill of Rights, on väljakuulutatud valge raamatu ametlik pealkiri „Teisisintellekti õiguste kavand: automatiseeritud süsteemide töö Ameerika rahva heaks” ja see on Internetis hõlpsasti saadaval.

Dokument on teadus- ja tehnoloogiapoliitika büroo (OSTP) aastapikkuse pingutuse ja tähelepaneliku uuringu tulemus. OSTP on föderaalne üksus, mis loodi 1970. aastate keskel ja mis nõustab Ameerika presidenti ja USA täitevametit mitmesugustes riikliku tähtsusega tehnoloogilistes, teaduslikes ja inseneriaspektides. Selles mõttes võite öelda, et see AI Bill of Rights on dokument, mille on heaks kiitnud ja mille on heaks kiitnud olemasolev USA Valge Maja.

AI Bill of Rights kujutab inimõiguste mis inimkonnal peaks olema seoses tehisintellekti tulekuga meie igapäevaellu. Rõhutan seda kaalukat punkti, sest mõned inimesed olid alguses hämmingus, et võib-olla oli see mingi tunnustus tehisintellekti omamisest juriidilisele isikule ja et see on mõistusliku tehisintellekti ja humanoidrobotite õiguste litaania. Ei, me pole veel kohal. Nagu näete kohe, ei ole me tundliku tehisintellekti lähedal, hoolimata bänneripealkirjadest, mis näivad meile vastupidist rääkivat.

Olgu, kas me vajame kavandit, mis kirjeldaks inimõigusi tehisintellekti ajastul?

Jah, me seda kindlasti teeme.

Peaksite olema peaaegu koopasse lukustatud ja Interneti-juurdepääsu puudumine, et mitte teada, et tehisintellekt riivab juba ja üha enam meie õigusi. AI hiljutist ajastut peeti algselt selliseks AI heaks, mis tähendab, et saame kasutada tehisintellekti inimkonna paremaks muutmiseks. Kannul AI heaks tuli arusaam, et meiegi oleme süvenenud AI For Bad. See hõlmab tehisintellekti, mis on välja töötatud või ise muudetud diskrimineerivaks ja teeb arvutuslikke valikuid, mis tekitavad põhjendamatuid eelarvamusi. Mõnikord on tehisintellekt niimoodi ehitatud, teistel juhtudel aga kaldub see sellele ebasoodsale territooriumile.

Minu jätkuva ja ulatusliku katvuse ja analüüsi kohta tehisintellekti seadusest, tehisintellekti eetikast ja muudest peamistest tehisintellekti tehnoloogilistest ja ühiskondlikest suundumustest vt. link siin ja link siin, Ainult mõned nimed.

Tehisintellekti õiguste seaduse lahtipakkimine

Olen varem AI Bill of Rights üle arutanud ja teen siin kiire kokkuvõtte.

Kui soovite teada hiljuti avaldatud tehisintellekti õiguste seaduse eelnõu põhjalikke plusse ja miinuseid, olen oma analüüsi üksikasjalikult kirjeldanud veebilehel avaldatud postituses. õigusteadlaneVt link siin. õigusteadlane on märkimisväärne õigusuudiste ja kommentaaride veebisait, mida tuntakse laialdaselt auhinnatud õigusuudiste teenusena, mida juhib ülemaailmne juuratudengite reporterite, toimetajate, kommentaatorite, korrespondentide ja sisuarendajate meeskond ning mille peakorter asub Pittsburghi ülikooli koolis. Seadus Pittsburghis, kus see algas üle 25 aasta tagasi. Hüüdke silmapaistvale ja töökale meeskonnale aadressil õigusteadlane.

Tehisintellekti õiguste seaduses on viis nurgakivikategooriat:

  • Turvalised ja tõhusad süsteemid
  • Algoritmiline diskrimineerimiskaitse
  • Andmete privaatsus
  • Märkus ja selgitus
  • Inimlikud alternatiivid, kaalumine ja tagavara

Pange tähele, et ma ei nummerdanud neid ühest viieni, kuna see võib tähendada, et need on kindlas järjestuses või et üks õigustest on näiliselt olulisem kui teine. Eeldame, et igaüks neist on oma eelised. Nad kõik on teatud mõttes võrdselt väärikad.

Lühidalt selle kohta, millest igaüks koosneb, on siin väljavõte ametlikust valgest raamatust:

  • Turvalised ja tõhusad süsteemid: "Teid tuleks kaitsta ebaturvaliste või ebatõhusate süsteemide eest. Automatiseeritud süsteemid tuleks välja töötada erinevate kogukondade, sidusrühmade ja valdkonnaekspertidega konsulteerides, et tuvastada süsteemi probleemid, riskid ja võimalikud mõjud.
  • Algoritmiline diskrimineerimiskaitse: „Algoritmide tõttu ei tohiks diskrimineerida ja süsteeme tuleks kasutada ja kujundada õiglasel viisil. Algoritmiline diskrimineerimine toimub siis, kui automatiseeritud süsteemid aitavad kaasa põhjendamatult erinevale kohtlemisele või avaldavad inimestele ebasoodsat mõju nende rassi, nahavärvi, etnilise päritolu, soo (sealhulgas rasedus, sünnitus ja sellega seotud haigusseisundid, soolise identiteedi, intersoolise staatuse ja seksuaalse sättumuse), usutunnistuse, vanuse tõttu. , rahvuslik päritolu, puue, veteranistaatus, geneetiline teave või mõni muu seadusega kaitstud klassifikatsioon.
  • Andmete privaatsus: "Teid tuleks sisseehitatud kaitsemehhanismide abil kaitsta kuritarvitavate andmetegevuse eest ja teil peaks olema agentuur selle üle, kuidas teie andmeid kasutatakse. Te peaksite olema kaitstud privaatsuse rikkumiste eest disainivalikute kaudu, mis tagavad sellise kaitse vaikimisi kaasamise, sealhulgas tagades, et andmete kogumine vastab mõistlikele ootustele ja et kogutakse ainult konkreetse konteksti jaoks hädavajalikke andmeid.
  • Märkus ja selgitus: „Te peaksite teadma, et kasutatakse automatiseeritud süsteemi, ning mõistma, kuidas ja miks see aitab kaasa tulemuste saavutamisele, mis teid mõjutavad. Automatiseeritud süsteemide projekteerijad, arendajad ja juurutajad peaksid esitama üldiselt juurdepääsetava lihtsas keeles dokumentatsiooni, sealhulgas selged kirjeldused süsteemi üldisest toimimisest ja automatiseerimise rollist, märkima, et sellised süsteemid on kasutusel, süsteemi eest vastutava isiku või organisatsiooni kohta ning selgitusi tulemused, mis on selged, õigeaegsed ja kättesaadavad.
  • Inimese alternatiivid, kaalutlus ja tagavara: "Teil peaks olema võimalik vajaduse korral loobuda ja teil peaks olema juurdepääs inimesele, kes suudab teie probleeme kiiresti kaaluda ja lahendada. Kui see on asjakohane, peaks teil olema võimalik loobuda automatiseeritud süsteemide kasutamisest, eelistades inimese alternatiivi.

Laias laastus on need inimkonna õiguste tahud, mida on tehisintellekti eetika ja tehisintellekti seaduse kontekstis juba mõnda aega ümber löödud. Vaadake minu kajastust, näiteks aadressil link siin. Näib, et valge paber ei tõmba võluväel jänest mütsist välja mõne äsja avastatud või väljakaevatud õiguse osas, mida tehisintellekti ajastu kontekstis pole seni selgitatud.

See on okei.

Võiks väita, et nende koondamine üheks korralikult pakitud ja vormistatud kogumiks pakub elutähtsat teenust. Lisaks sellele, et teid võidi tunnustatuks AI Bill of Rights, tõstab see kogu asja veelgi avalikult ja osavalt avaliku sfääri teadvusesse. See ühendab olemasoleva hulga erinevaid arutelusid ainsaks komplektiks, mida saab nüüd trompeteerida ja edastada kõikidele sidusrühmadele.

Lubage mul pakkuda väljakuulutatud tehisintellekti õiguste eelnõule positiivsete reaktsioonide loendit:

  • Pakub olulist kogumit nurgakivi põhimõtetest
  • Toimib plaani või alusena, millele tugineda
  • Toimib häälestatud kutsena tegevusele
  • Tõstab huvi ja näitab, et need on tõsised kaalutlused
  • Toob kokku hulga erinevaid arutelusid
  • Sätestab ja aitab kaasa eetilise tehisintellekti kasutuselevõtule
  • Kahtlemata aitab see kaasa AI seaduste kehtestamisele
  • Muu

Peame arvestama ka vähemsoodsate reaktsioonidega, võttes arvesse, et teha tuleb palju rohkem tööd ja see on alles pika teekonna algus tehisintellekti juhtimise raskel teel.

Sellisena on AI Bill of Rights kohta esitatud mõnevõrra karm või ütleme nii konstruktiivne kriitika:

  • Ei ole õiguslikult jõustatav ja täiesti mittesiduv
  • Ainult nõuandev ja seda ei arvestata valitsuse poliitikaga
  • Vähem kõikehõlmav võrreldes teiste avaldatud teostega
  • Peamiselt koosneb laiadest kontseptsioonidest ja puuduvad rakenduse üksikasjad
  • Tõelisteks elujõulisteks praktilisteks seadusteks kujunemine on keeruline
  • Näib, et vaikib ähvardavast küsimusest, mis puudutab AI võimalikku keelustamist mõnes kontekstis
  • Tunnistab vähesel määral hästi läbimõeldud tehisintellekti kasutamise eeliseid
  • Muu

Võib-olla on kõige silmapaistvam terav kommentaar keskendunud tõsiasjale, et see tehisintellekti õiguste deklaratsioon ei ole juriidiliselt jõustatav ja seega pole sellel selgepiiriliste väravapostide rajamisel vett. Mõned on öelnud, et kuigi valge paber on kasulik ja julgustav, puuduvad sellel kindlasti hambad. Nad kahtlevad, mis võib tulla väidetavalt õõnsate hammastega vahvate ettekirjutuste komplektist.

Ma käsitlen neid hammustavaid märkusi hetke pärast.

Vahepeal kirjeldatakse valges raamatus ohtralt selle tehisintellekti õiguste seaduse piiranguid:

  • „AI Bill of Rights kava ei ole siduv ega kujuta endast USA valitsuse poliitikat. See ei asenda, muuda ega suuna tõlgendust ühelegi olemasolevale põhikirjale, määrusele, poliitikale ega rahvusvahelisele dokumendile. See ei kujuta endast siduvat juhist avalikkusele ega föderaalasutustele ega nõua seetõttu siin kirjeldatud põhimõtete järgimist. Samuti ei ole määrav, milline saab olema USA valitsuse seisukoht mis tahes rahvusvahelistel läbirääkimistel. Nende põhimõtete vastuvõtmine ei pruugi vastata kehtivate põhikirjade, määruste, poliitika või rahvusvaheliste dokumentide nõuetele ega neid jõustavate föderaalasutuste nõuetele. Need põhimõtted ei ole mõeldud ega keela ega piira valitsusasutuse mis tahes seaduslikku tegevust, sealhulgas õiguskaitse-, riigijulgeoleku- või luuretegevust” (valge raamatu järgi).

Neile, kes on teinud kiiresti tehisintellekti õiguste deklaratsiooni õiguslikult mittesiduvaks tunnistamiseks, tehkem selle kipitava väite osas väike mõtteeksperiment. Oletame, et valge raamat avaldati ja sellel on seaduse täielik jõud. Julgen väita, et tulemus oleks mõneti kataklüsmiline, vähemalt nii juriidilise kui ka ühiskondliku vastukaja kuulutamisele.

Seadusandjad oleksid relvastatud, et jõupingutused ei ole võtnud ette normatiivseid protsesse ja juriidilisi protseduure selliste seaduste koostamisel. Ettevõtted oleksid õigustatult raevukad, kui uued seadused ilmuksid ilma piisava teavitamiseta ja teadmata, mis need seadused on. Tekkiks igasugune jahmatus ja nördimus.

Ei ole hea viis inimkonna õiguste tugevdamise poole tehisintellekti ajastul.

Tuletage meelde, et alustasin seda arutelu varem jooniste väärtuse ja elujõulisuse väljatoomisega.

Kujutage ette, et keegi jättis jooniste meisterdamise etapi vahele ja hüppas kohe teie unistuste maja ehitama. Milline see maja teie arvates välja näeks? Tundub õiglane panus, et maja ei vastaks eriti sellele, mis teil oli. Sellest tulenev kodutalu võib olla täielik segadus.

Sisuliselt on meil vaja plaane ja meil on nüüd see olemas, et saaksime edasi liikuda mõistlike tehisintellekti seaduste väljaselgitamisel ja eetilise tehisintellekti kasutuselevõtuga.

Tahaksin seetõttu käsitleda viise, kuidas sellest tehisintellekti õiguste seaduse eelnõust saaks justkui maja. Kuidas kavatseme kavandit kasutada? Millised on sobivad järgmised sammud? Kas sellest plaanist võib piisata või on vaja rohkem liha luudele?

Enne nende kopsakate asjade juurde asumist tahaksin esmalt veenduda, et oleme tehisintellekti olemuse ja tänase staatuse osas ühel lehel.

Tänase AI rekordi püstitamine

Tahaksin teha äärmiselt rõhutatud avalduse.

Oled sa valmis?

Tänapäeval pole AI-d, mis oleks tundlikud.

Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib kuidagi imeliselt spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui tahaksime metsikult spekuleerida tundliku tehisintellekti üle, võib see arutelu minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib olla inimestest targem (minu võimalust uurida üliintelligentse tehisintellekti kohta vt. katvus siin).

Soovitan tungivalt hoida asjad maa peal ja kaaluda tänapäeva arvutuslikku mittetundlikku tehisintellekti.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

Olge tänapäeva tehisintellekti antropomorfiseerimisega väga ettevaatlik.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste kõrvaldamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad katsetavad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Sellel kõigel on märkimisväärne mõju tehisintellekti eetikale ja see pakub tehisintellekti seadusandlusel kasulikku akent saadud õppetundidesse (isegi enne, kui kõik õppetunnid juhtuvad).

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Nad hoiatavad ette, et kui me mõne neist tehisintellekti seadustest kehtestame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid.

Eelmistes veergudes olen käsitlenud erinevaid riiklikke ja rahvusvahelisi jõupingutusi tehisintellekti reguleerivate seaduste koostamiseks ja jõustamiseks, vt. link siin, näiteks. Olen käsitlenud ka erinevaid tehisintellekti eetika põhimõtteid ja juhiseid, mida erinevad riigid on tuvastanud ja vastu võtnud, sealhulgas näiteks ÜRO jõupingutusi, nagu UNESCO tehisintellekti eetika kogum, mille on kasutusele võtnud peaaegu 200 riiki, vt. link siin.

Siin on kasulik AI-süsteemide eetiliste kriteeriumide või omaduste nurgakivi loend, mida olen varem põhjalikult uurinud:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Tehisintellekti arendajad peaksid tõsiselt kasutama neid tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendamise jõupingutusi, ja isegi neid, kes lõpuks AI-süsteeme kasutavad ja hooldavad.

Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu siin eelnevalt rõhutatud, on tehisintellekti väljatöötamiseks ja kasutuselevõtuks vaja küla, mille jaoks kogu küla peab olema teadlik ja järgima tehisintellekti eetika ettekirjutusi.

Nüüd, kui olen loonud kasuliku aluse, oleme valmis AI Bill of Rights'i veelgi rohkem sukelduma.

Neli peamist viisi tehisintellekti õiguste seaduse rakendamiseks

Keegi annab teile kavandi ja käsib teil tööle asuda.

Mida sa teed?

AI Bill of Rights kui kavandi puhul kaaluge edasiliikumise nelja olulist sammu:

  • Kasutage tehisintellekti seaduste sõnastamisel sisendit: Kasutage kavandit tehisintellekti seaduste sõnastamisel, tehes seda loodetavasti ühtlustatud alusel föderaalsel, osariigi ja kohalikul tasandil (võib-olla aidates kaasa ka rahvusvahelistele tehisintellekti õiguslikele jõupingutustele).
  • Abi tehisintellekti eetika laialdasemaks kasutuselevõtuks: Kasutage kavandit tehisintellekti eetika formulatsioonide edendamiseks (mida mõnikord nimetatakse "pehmeteks seadusteks" võrreldes juriidiliselt siduvate "karmide seadustega"), tehes seda selleks, et inspireerida ja suunata ettevõtteid, üksikisikuid, valitsusasutusi ja teisi valijaid parema ja järjepidevama eetika poole. AI tulemused.
  • Shape AI arendustegevused: Kasutage kavandit tehisintellekti arendusmetoodikate ja koolitusaspektide loomiseks, tehes seda selleks, et püüda AI arendajaid ja neid, kes tegelevad või kasutavad tehisintellekti, oleksid teadlikumad sellest, kuidas tehisintellekti kavandada soovitavate tehisintellekti eetika ettekirjutuste kohaselt ja ootuses. eelseisvate tehisintellekti seaduste vastuvõtmisest.
  • Motiveerige AI tulekut, et aidata AI kontrollimisel: Kasutage kavandit tehisintellekti väljatöötamiseks, mida kasutatakse selleks, et proovida ja tasakaalustada teisi AI-sid, mis võivad ebasoodsale territooriumile kalduda. See on üks neist makroskoopilistest seisukohtadest, mille kohaselt saame kasutada seda, mida näiliselt murettekitav on, ka (võib öelda, et iroonilisel kombel) abiks meie kaitsmisel.

Olen arutanud kõiki ülalnimetatud nelja sammu oma veergude postitustes.

Selle arutelu jaoks tahaksin keskenduda neljandale loetletud sammule, nimelt sellele, et AI Bill of Rights võib olla motivaatoriks AI tulekuks, mis aitab AI kontrollimisel. See on mõnevõrra šokeeriv või üllatav samm paljude jaoks, kes pole veel sellesse tehisintellekti edendavasse valdkonda täielikult jõudnud.

Lubage mul täpsustada.

Lihtne analoogia peaks asja ära tegema. Oleme kõik tänapäeval harjunud küberturvalisuse rikkumiste ja häkkerite sissemurdmistega. Peaaegu iga päev kuuleme või meid mõjutavad meie arvutites olevad uusimad lüngad, mis võimaldavad pahatahtlikel kurjategijatel meie andmeid haarata või meie sülearvutitesse räige lunavara.

Üks vahend nende põlastusväärsete katsete vastu võitlemiseks on spetsiaalse tarkvara kasutamine, mis püüab neid sissemurdmisi ära hoida. Peaaegu kindlasti on teil kodus või tööl arvutis viirusetõrje tarkvarapakett. Tõenäoliselt on teie nutitelefonis midagi sarnast, olenemata sellest, kas teate, et see on seal sees või mitte.

Minu mõte on selles, et mõnikord peate tuld tulega võitlema (vt minu kajastust selle kohta, näiteks aadressil link siin ja link siin).

AI puhul, mis langeb keelatud valdkonda AI For Bad, saame kasutada AI heaks mis võitleb selle pahatahtlikuga AI For Bad. See pole muidugi imeravim. Nagu teate, käib meie arvutitesse tungida püüdvate kurjategijate ja küberjulgeolekukaitses tehtavate edusammude vahel pidev kassi-hiire gambit. See on peaaegu lõputu mäng.

Saame kasutada AI-d, et proovida toime tulla AI-ga, mis on läinud keelatud teed. See aitab. See ei ole eriti hõbekuul, sest sihikule suunatud kahjulik tehisintellekt töötatakse peaaegu kindlasti välja sellise kaitse vältimiseks. See on pidev kassi-hiire AI versus AI.

Igal juhul pakub meie enda kaitsmiseks kasutatav tehisintellekt teatud määral kaitset halva AI eest. Seega peame kahtlemata välja töötama tehisintellekti, mis suudaks meid kaitsta või varjestada. Samuti peaksime püüdma luua kaitsva tehisintellekti, et see kohaneks halva AI kohandumisega. Esineb välkkiire kassi-hiire äge välimus.

Mitte igaüks ei naudi seda tehisintellekti rolli suurendamist.

Need, kes juba tajuvad tehisintellekti homogeense amorfse konglomeraadina, saaksid sellest teeseldud tehisintellekti versus tehisintellekti gambiidist hanenaha ja õudusunenägusid. Kui proovime tuld tulega vastandada, võib-olla teeme lihtsalt veelgi suuremat tuld. Tehisintellektist saab tohutu lõke, mida me enam ei kontrolli ja otsustab inimkonna orjastada või meid planeedilt pühkida. Kui rääkida tehisintellektist kui eksistentsiaalsest riskist, siis arvatakse tavaliselt, et kõik tehisintellektid saavad kokku. Vaadake minu arutelu nendel teemadel aadressil link siin. Näete, meile öeldakse, et iga AI tükk haarab oma vendadest tehisintellektist kinni ja muutub üheks suureks ülemvõimuks ühtseks perekonnaks.

See on kohutav ja rahutuks tegev stsenaarium, kus tundlik tehisintellekt on sujuv kõik ühe ja üks kõigi eest maffia.

Kuigi olete vabalt teretulnud tegema selliseid oletusi selle kohta, et see võib kunagi juhtuda, kinnitan teile, et praegu koosneb meie tänane tehisintellekt veoautotäitest lahtiühendatud erinevatest tehisintellektiprogrammidest, millel pole erilist võimalust üksteisega vandenõu pidada.

Seda öeldes olen kindel, et AI vandenõuteooriatesse palavalt uskujad kinnitavad, et olen seda sihikindlalt tõe varjamiseks öelnud. Ahaa! Võib-olla maksab mulle tänane tehisintellekt, mis juba kavandab suurt tehisintellekti ülevõtmist (jah, siree, ma suplen rikkuses, kui tehisintellekti ülemused valitsevad). Või, ja ma kindlasti ei poolda seda teist vaatenurka, võib-olla pole ma pimesi teadlik sellest, kuidas tehisintellekt meie selja taga salaja plaanib. Peame vist ootama ja vaatama, kas ma olen osa AI riigipöördest või AI nigelast patsy (oeh, see teeb haiget).

Tulles tagasi maiste kaalutluste juurde, uurime lühidalt, kuidas saab tänapäevast tehisintellekti kasutada tehisintellekti õiguste seaduse rakendamiseks. Viitan sellele mugavalt ja kokkuvõtlikult kui Hea AI.

Kasutame viit AI Bill of Rights sisalduvat nurgakivi:

  • Hea AI reklaamimiseks Turvalised ja tõhusad süsteemid: Alati, kui olete AI-süsteemi all või seda kasutate, püüab Good AI välja selgitada, kas kasutatav tehisintellekt on ebaturvaline või ebatõhus. Sellise tuvastamise korral võib hea AI teid hoiatada või võtta muid toiminguid, sealhulgas halva AI blokeerimine.
  • Hea AI pakkumiseks Algoritmiline diskrimineerimiskaitse: Kui kasutate AI-süsteemi, mis võib sisaldada diskrimineerivaid algoritme, Hea AI püüab kindlaks teha, kas teie jaoks on ebapiisav kaitse, ja püüab kindlaks teha, kas kasutatavas tehisintellektis esineb tõepoolest põhjendamatuid eelarvamusi. Hea tehisintellekt võib teid teavitada ja potentsiaalselt ka automaatselt teavitada teist tehisintellekti erinevatele asutustele, nagu need võivad olla ette nähtud tehisintellekti seaduste ja juriidiliste nõuetega.
  • Hea tehisintellekt säilitamiseks Andmete privaatsus: Seda tüüpi Good AI püüab teid kaitsta andmete privaatsuse rikkumise eest. Kui mõni teine ​​tehisintellekt soovib küsida teilt andmeid, mida võib-olla tegelikult vaja ei lähe, teavitab hea tehisintellekt teid ületamisest. Hea tehisintellekt võib potentsiaalselt varjata teie andmeid viisil, mis teisele tehisintellektile edastamisel säilitab teie andmete privaatsusõigused. Jne.
  • Hea AI loomiseks Märkus ja selgitus: Tõenäoliselt puutume kokku tehisintellektisüsteemidega, millel on tohutult puudu nõuetekohaste ja asjakohaste teavituste edastamisest ning mis kahjuks ei suuda oma tegevusele adekvaatset selgitust näidata. Hea tehisintellekt võib proovida tõlgendada või küsitleda teist tehisintellekti, tehes seda selleks, et tuvastada teavitused ja selgitused, mida oleks tulnud esitada. Isegi kui seda pole konkreetsel juhul võimalik teha, hoiatab hea tehisintellekt teid vähemalt teise tehisintellekti tõrgetest ja teatab tehisintellektist määratud asutustele vastavalt AI seadustele ja juriidilistele nõuetele.
  • Hea AI pakkumiseks Inimese alternatiivid, kaalutlus ja tagavara: Oletame, et kasutate AI-süsteemi ja näib, et tehisintellekt ei ole käsiloleva ülesandega valmis. Te ei pruugi aru saada, et asjad lähevad hapuks, või võite olla ettevaatlik ja ebakindel, mida olukorraga ette võtta. Sel juhul uuriks Good AI vaikselt, mida teine ​​tehisintellekt teeb, ja hoiatab teid selle tehisintellektiga seotud oluliste murede eest. Seejärel palutakse teil taotleda tehisintellektile alternatiivi (või võib hea tehisintellekt seda teie nimel teha).

Et paremini mõista, kuidas selline Hea AI saab arendada ja kasutada, vaadake minu populaarset ja kõrgelt hinnatud tehisintellekti raamatut (on au öelda, et see on märgitud kümne parima hulka) selle kohta, mida ma üldiselt olen nimetanud tehisintellekti kaitseingliteks, vt. link siin.

Järeldus

Ma tean, mida sa mõtled. Kui meil on hea tehisintellekt, mis on loodud meid kaitsma, oletame, et hea AI rikutakse ja muutub halvaks tehisintellektiks. Kuulus või kurikuulus ladina kõnelause näib selle võimaluse puhul täiesti asjakohane: Quis custodiet ipsos custodes?

See fraas on omistatud Rooma poeedile Juvenalile ja seda võib leida tema teosest pealkirjaga Satiirid, ja seda võib vabalt tõlkida kui seda, kes valvab või jälgib valvureid ise. Paljud filmid ja telesaated nagu Star Trek on seda rida korduvalt võimendanud.

See on kindlasti sellepärast, et see on suurepärane punkt.

Muidugi peavad kõik vastuvõetud tehisintellekti seadused hõlmama nii halba tehisintellekti kui ka head tehisintellekti, mis läheb halvasti. Seetõttu on ülioluline koostada mõistlikud ja kõikehõlmavad tehisintellekti seadused. Seadusandjad, kes lihtsalt üritavad suvalist seaduslikkust seinale visata ja loodavad, et see jääb AI seadustele kinni, jäävad sihtmärgist sügavalt mööda.

Meil pole seda vaja.

Meil ei ole aega ega suuda kanda ühiskondlikke kulusid, et tulla toime ebapiisavalt läbimõeldud tehisintellekti seadustega. Olen märkinud, et kahjuks oleme mõnikord tunnistajaks uutele tehisintellektiga seotud seadustele, mis on halvasti koostatud ja tulvil kõikvõimalikke juriidilisi haigusi, vt näiteks minu New York City (NYC) tehisintellektiga seotud eelarvamuste auditiseaduse uurivat analüüsi aadressil link siin.

Veenduge, et kasutame õigesti tehisintellekti õiguste eelnõu, mis meil nüüd tehisintellekti osas käes on. Kui me plaani eirame, oleme kaotanud oma mängu kiirendamise. Kui rakendame kavandit valesti, häbi meile kasuliku aluse anastamise pärast.

Lugupeetud Rooma poeet Juvenal ütles veel midagi, mida saame selles olukorras ära kasutada: Anima sana in corpore sano.

Üldiselt tähendab see väidet, et mõistlik oleks omada nii tervet või tervet vaimu kui ka tervet või tervet keha. See võimaldab meil Juvenali sõnul taluda igasugust vaeva ja on kindlasti ainus tee rahu või voorusliku elu juurde.

Meil on aeg kasutada tervet mõistust ja tervet keha, et tagada, et inimkonna inimõigused säilivad ja tugevalt kindlustatakse arenevas kõikjal leviva ja kohati ebasoodsa tehisintellekti maailmas. See on roomlaste mõistlik nõuanne, millest peaksime tänases kiirustamises kinni pidama keset tehisintellekti hirmuäratavat epohhi ja tulevikku, mis on otsustavalt täidetud nii hea kui ka halva tehisintellektiga.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- õigusi-sealhulgas-ja-hämmastavalt-kasutades-ai-otsalt/