Õigusliku põhjenduse juurutamine tehisintellekti võib targalt saavutada inimväärtuste ühtlustamise, ütleb AI eetika ja tehisintellekti seadus

Tänases kolumnis kudin üheks kenasti kootud kangaks kokku lugematu arv pealtnäha erinevaid tehisintellektiga seotud teemasid.

Oled sa valmis?

Kujutage ette, et kasutate AI-toega rakendust, mis aitab teid mõne olulise ülesande täitmisel. Võib-olla on probleem rahaline või tervisega seotud. Põhiolemus seisneb selles, et sõltute tehisintellektist, mis teeb õigeid asju ja toimib eeldatavalt ohutult ja usaldusväärselt.

Oletame, et tehisintellekt kaldub ebaeetilisele territooriumile.

Te ei pruugi aru saada, et AI seda teeb.

Näiteks võib tehisintellekt toetuda potentsiaalselt varjatud diskrimineerivatele teguritele, nagu rass või sugu, kuigi teil ei pruugi olla ühtegi elujõulist vahendit ebasoodsa kasutamise tuvastamiseks. Siin olete täiesti üksi, saades pulga lühikese otsa AI kaudu, mis on kas algusest peale välja mõeldud problemaatilisel viisil või on suutnud tüürida keerulist ja piiripealset eetilist ohtu (räägin lähemalt seda hetkega).

Mida saate teha või mida saab teha tehisintellektiga, mis otsustab minna ebaeetilisele teele?

Lisaks sellele, et olen püüdnud eelnevalt AI-d konstrueerida nii, et see ei teeks sellist salakavalat tegevust, olen ka varem kirjeldanud, et huvi on kasvav. AI eetikakontroll komponendiks muidu Metsiku Lääne vohavasse sohu, kus tehisintellektisüsteemid visatakse turule. Idee seisneb selles, et selleks, et vältida tehisintellektiga seotud rakenduse eetilistest mõõtmetest väljumist, võiksime kasutada täiendavat tehisintellekti, et teha kontrolli ja tasakaalu. See lisatud tehisintellekt võib asuda väljaspool sihitud AI-rakendust või olla komponent, mis on manustatud või siirdatud otse AI-sse, mida tahame veelkord kontrollida.

Nagu ma varem ütlesin, vaata link siin: „Hiljuti esile kerkinud suundumus seisneb selles, et tehisintellektile püütakse ehitada eetilisi kaitsepiirdeid, mis hakkavad kinni, kui ülejäänud tehisintellekti süsteem hakkab ületama eelseadistatud eetilisi piire. Teatud mõttes on eesmärk kasutada tehisintellekti ennast, et hoida end eetiliselt viltu minemast. Võib öelda, et meie eesmärk on lasta tehisintellektil end ise ravida” (Lance Eliot, “Eetilise tehisintellekti loomine, mis jälgib ebaeetilist tehisintellekti ja püüab heidutada halba AI-d tegutsemast”, Forbes, 28. märts 2022).

Samuti võite leida asjakohast huvi minu raamatu kohta AI eestkostja robotid, mida mõnikord nimetatakse kaitseingliteks, mis katab selle tipptasemel tehisintellekti-in-in-Manustatud topeltkontrolli tehnilisi aluseid, vt. link siin.

Kokkuvõte on see, et teie peekonit võib õnneks päästa manustatud tehisintellekti topeltkontrolli eetikat mõõtva elemendi kasutamine, mis on välja töötatud ja teie kasutatavasse tehisintellekti rakendusse siirdatud. Kuid kas see on piisav eestkostja, et tõesti veenduda, et tehisintellekt ei jäta teid täielikult jäigaks ja ei julge isegi räsivatele kahjulikele aladele?

Näete, AI rakendus võib näiliselt toimida ebaseaduslik toimib.

Üks asi on AI, mis jääb meie arvates eetiliseks või ebaeetiliseks käitumise halli tsooni. Sama häiriv käitumine ja tõenäoliselt süvenev mure toovad kaasa tehisintellekti, mis lihtsalt hüppab hail otsekui hüppeliselt alla ja laskub otseste ebaseaduslike tegude hämarasse pimedusse.

Ebaseaduslik AI on halb. Lubada ebaseaduslikul tehisintellektil järelevalveta jääda on halb. Mõned õigusteadlased on avalikult mures, et tehisintellekti tulek ja levik hakkab järk-järgult ja hirmutavalt alla tõmbama meie näilikkust õigusriigi, vaadake minu analüüsi aadressil link siin.

Oodake hetk, võite öelda.

Teil võib tekkida kiusatus arvata, et tehisintellekti arendajad seda teeksid mitte kunagi programmeerida nende tehisintellekt seadusega vastuolus olevaks. Kujutamatu. Seda teeksid ainult kurjad kurikaelad (kes, muide, pidage meeles, et on neid, kes mõtlevad välja ja kasutavad tehisintellekti tahtlikult kurjadel eesmärkidel, mis on üha suurem huvivaldkond kurjategijatele ja teistele, kes soovivad kasutada tehisintellekti pahatahtlikeks tegevusteks).

Vabandust, kuid on soovmõtlemine eeldada, et kõik mittekurjad tehisintellekti arendajad kavatsevad rangelt veenduda, et nende tehisintellekt on täielikult seaduskuulekas. Võib juhtuda, et AI kohandub ise ja eksib ebaseadusliku tegevuse juurde. Muidugi on ka potentsiaal, et tehisintellekti arendajad kas tahtsid, et tehisintellekt tegutseks ebaseaduslikult või et nad ei teadnud tehisintellekti loomisel, mis kujutab endast ebaseaduslikku ja seaduslikku tegevust (jah, see on täiesti võimalik, nimelt Täiesti tehniline tehisintellekti meeskond võib olla teadmatuses oma tehisintellekti seaduslikest segadustest, mis ei ole vabandatav ja siiski juhtub murettekitavalt sageli).

Mida saab selle vastu ette võtta?

Lisaks sellele, et püütakse tagada, et tehisintellekt oleks raudne ja seaduslik, hõlmab täiendav lähenemine auru saamiseks tehisintellekti komponendi manustamist või implanteerimist, mis teeb ülejäänud AI-rakenduse seadusliku topeltkontrolli. See lisatud tehisintellekt, istub vaikselt ja sageli ilma kuulutuseta, jälgib ülejäänud tehisintellekti, et teha kindlaks, kas tehisintellekt läheb petturlikuks või ületab vähemalt seaduslike või regulatiivsete piirangute piire.

Nüüd on meil kahte tüüpi tehisintellekti topeltkontroll, mis on potentsiaalselt AI-rakendusse manustatud:

  • AI eetika topeltkontroll: Reaalajas hindab see komponent või tehisintellekti lisandmoodul ülejäänud tehisintellekti eetilist ja ebaeetilist käitumist, mida tehisintellekt näitab.
  • AI juriidiline topeltkontroll: See komponent või tehisintellekti lisandmoodul hindab reaalajas ülejäänud tehisintellekti, et tagada seaduslike nurgakivide piires püsimine ja tehisintellekti poolt esilekerkiva ebaseadusliku tegevuse tabamine.

Täpsustuseks võib öelda, et need on suhteliselt uued kontseptsioonid ja sellisena võib teie täna kasutatav tehisintellekt olla mis tahes järgmistes tingimustes:

  • AI, mis ei sisalda topeltkontrolli
  • AI, millel on AI eetika topeltkontroll, kuid mitte muid topeltkontrollijaid
  • AI, mis sisaldab AI Legal topeltkontrolli, kuid mitte ühtegi teist topeltkontrolli
  • AI, millel on nii tehisintellekti eetika topeltkontroll kui ka AI juriidiline kontroll
  • Muu

Tehisintellekti eetika topeltkontrolli ja tehisintellekti juriidilise topeltkontrolleri töös AI-rakenduses kõrvuti hõimuvenna ja -õena on mõned väga keerulised aspektid. See on dualismi tüüp, mida võib olla raskem koordineerida, kui arvata võiks (ma arvan, et me kõik teame, et vendadel ja õdedel võivad olla kõige tihedamad sidemed, kuigi nad võivad ka aeg-ajalt kakelda nagu pätid ja jõuliselt vastu hakata vaated).

Olen seda tüüpi raskeid asju pikalt arutanud dualism: „Sotsiaalse hüvangu tehisintellektis ilmneb tähelepanuta jäetud dualism, mis hõlmab nii kunstliku moraalse tegutsemise kui ka kunstliku õigusliku mõtlemise rolli puudumist arenenud tehisintellektisüsteemides. AI-teadlaste ja tehisintellekti arendajate jõupingutused on kaldunud keskenduma sellele, kuidas luua ja kinnistada kunstlikke moraaliagente, et suunata moraalseid otsuseid, kui tehisintellekti süsteem sellel alal töötab, kuid ei ole keskendunud ka kunstlike õiguslike arutlusvõimaluste kasutamisele. , mis on võrdselt vajalik tugevate moraalsete ja õiguslike tulemuste saavutamiseks” (Lance Eliot, „The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning in AI For Social Good”, Harvardi ülikooli CRCSi aastakonverents 2020, Harvardi uurimis- ja arvutusühingu keskus)

Kui soovite mõistatada, miks võib tekkida pinge AI eetika ja AI juriidilise kontrollija vahel, võite leida selle tähelepanuväärse tsitaadi mõistusepaigutusliku kontseptuaalse väärtuse kohta: „Seadus võib lubada mõnda konkreetset tegevust, kuigi see tegu on ebamoraalne; ja seadus võib teo keelata, isegi kui see tegu on moraalselt lubatav või isegi moraalselt nõutav” (Shelly Kagan, Moraali piirid, 1998).

Nihutame oma fookust veidi ja vaatame, kuidas need topeltkontrollid haakuvad teise põhjalikult uuritud tehisintellekti teemaga, nimelt Vastutav AI või inimväärtuste ja tehisintellekti kooskõlla viimise kooskõlastatud kaalumine.

Üldine arusaam on, et me tahame tehisintellekti, mis järgiks õigeid ja soovitavaid inimlikke väärtusi. Mõned viitavad sellele kui Vastutav AI. Teised arutlevad samamoodi Vastutav AI, Usaldusväärne AIja AI joondamine, mis kõik puudutavad sama nurgakivi põhimõtet. Minu arutelu nende oluliste küsimuste üle vt link siin ja link siin, Ainult mõned nimed.

Kuidas saame AI viia vastavusse inimlike väärtustega?

Nagu varem soovitatud, loodame, et tehisintellekti arendajad on teadlikud sellise tehisintellekti väljatöötamisest, mis saavutab vastutustundliku tehisintellekti järgimise. Kahjuks ei pruugi nad varem välja selgitatud põhjuste kohaselt mitte. Lisaks võivad nad seda teha, kuid sellest hoolimata jõuab tehisintellekt ise kohanduda väljaspool eetilise käitumise silmapaistvat valdkonda või võib-olla ebaseaduslikesse vetesse.

Olgu, siis peame kaaluma oma käepäraseid topeltkontrolle kui vahendit nende riskide ja riskide maandamiseks. Hästi läbimõeldud tehisintellekti eetika topeltkontrolli kasutamine võib oluliselt kaasa aidata tehisintellekti vastavusse viimisel inimlike väärtustega. Samuti võib hästi läbimõeldud tehisintellekti juriidilise topeltkontrolli kasutamine oluliselt kaasa aidata tehisintellekti vastavusse viimisel inimlike väärtustega.

Seega oleks oluline ja veel vähetuntud vahend vastutustundliku tehisintellekti, usaldusväärse tehisintellekti, vastutustundliku tehisintellekti, tehisintellekti joondamise jms saavutamiseks tehisintellekti topeltkontrollide, näiteks tehisintellekti eetika topeltkontrolli ja AI Legal topeltkontroll, mis toimiks väsimatult tehisintellekti topeltkontrollina, et need on sellesse manustatud.

Selles siinses arutelus tahaksin veidi üksikasjalikumalt käsitleda tehisintellekti juriidiliste topeltkontrollide olemust ja konstruktsioone, mida võidakse AI-sse manustada. Selleks võib olla kasulik jagada teiega täiendavat tausta üldise teema kohta AI ja seadus.

Kui soovite uurida, kuidas tehisintellekt ja seadus üksteisega segunevad, vaadake minu arutelu aadressil link siin. Minu tähelepanelikul pilgul AI ja seadus Seoses pakun ma selle sirgjoonelise kontseptsiooni kahest peamisest viisist, kuidas tehisintellekti ja seadust omavahel seostada:

  • (1) Tehisintellektile kohaldatav seadus: Tehisintellekti reguleerimiseks või juhtimiseks meie ühiskonnas kohaldatavate seaduste koostamine, jõustamine ja jõustamine
  • (2) AI-applied-to-Law: Seaduses välja töötatud ja rakendatud tehisintellekti tehnoloogia, sealhulgas tehisintellektil põhinev õiguslik põhjendus (AILR), mis on sisestatud LegalTechi kõrgtehnoloogilistesse rakendustesse, et täita iseseisvalt või poolautonoomselt advokaadiülesandeid

Esimene loetletud seisukoht seisneb selles, kuidas olemasolevad ja uued seadused AI-d reguleerivad. Teine loetletud vaatenurk on seotud tehisintellekti rakendamisega seaduses.

See viimane kategooria hõlmab tavaliselt tehisintellektil põhineva juriidilise põhjenduse (AILR) kasutamist mitmesugustes advokaatide kasutatavates veebitööriistades. Näiteks võib tehisintellekt olla osa lepingute elutsükli haldamise (CLM) paketist, mis aitab advokaate tuvastada lepingukeele, mis on kasulikud uute lepingute koostamisel, või tuvastada lepingud, mille keelekasutus on õiguslikult ihaldusväärne, mis võimaldab äpardusi või seaduselünki. (Minu pilk nn seaduselõhnadele, mida tehisintellekt eristab, vt link siin).

Me rakendame paratamatult tehisintellekti seadusele, mis muutub üldsusele kasutamiseks kättesaadavaks ja mis ei nõua advokaadi olemasolu. Praegu on mitmesuguste piirangute, sealhulgas UPL (Unauthorized Practical of Law) tõttu tehisintellektil põhinevate juriidiliste nõustamisrakenduste kättesaadavaks tegemine keeruline ja vastuoluline teema, vaadake minu arutelu aadressil link siin.

Tõin selle sissejuhatuse tehisintellekti ja seaduste kohta välja, et juhtida tähelepanu sellele, et AI teine ​​instrumentaalne kasutamine seaduses oleks AI juriidiliste topeltkontrollide loomine.

Jah, tehisintellekti seaduste rakendamisel samasugune tehnoloogiline võimekus on kahekordne ülesanne, kuna tehisintellekti kasutatakse manustatud või siirdatud tehisintellekti juriidilise topeltkontrollijana. AI juriidiline topeltkontroll on komponent, mis peab olema kursis õiguslike aspektidega. Kui ülejäänud AI rakendus teeb erinevaid toiminguid, hindab AI Legal topeltkontroll, kas AI rakendus teeb seda seaduslikult ja seaduslike piirangute piires.

AI Legal topeltkontrolli komponent ei pea tingimata hõlmama kõike, mida seaduste kohta teada on vaja. Sõltuvalt tehisintellekti rakenduse olemusest, mis puudutab tehisintellekti üldist eesmärki ja tegevusi, võib tehisintellekti juriidiline topeltkontroll olla palju kitsam selles sisalduva juriidilise asjatundlikkuse osas.

Olen tuvastanud kasuliku raamistiku, mille abil näidata, kuidas AI juriidilises valdkonnas ulatub autonoomse võimsuse seerias, mida nimetatakse autonoomia tasemeteks (LoA). Ülevaate saamiseks vaadake minu Forbes 21. novembri 2022. aasta veeru postitus „Mõttetu, kõikehõlmav mõjuv juhtum, miks juristid peavad teadma tehisintellektist ja seadustest” aadressil link siin, ja üksikasjalikku tehnilist kirjeldust leiate minu põhjaliku uurimistöö artiklist MIT Computational Law Journal 7. detsembrist 2021, vt link siin.

Raamistik selgitab õiguslikes ettevõtmistes kasutatavat tehisintellekti viit taset:

  • Tase 0: AI-põhise juriidilise töö automatiseerimine puudub
  • Tase 1: lihtne abiautomaatika tehisintellektil põhineva juriidilise töö jaoks
  • Tase 2: täiustatud abiautomaatika tehisintellektil põhineva juriidilise töö jaoks
  • Tase 3: poolautonoomne automaatika tehisintellektil põhineva juriidilise töö jaoks
  • Tase 4: AI-põhise juriidilise töö jaoks autonoomne domeen
  • Tase 5: AI-põhise juriidilise töö jaoks täiesti autonoomne

Kirjeldan neid siin lühidalt.

Taset 0 peetakse automatiseerimata tasemeks. Õiguslik arutluskäik ja juriidilised ülesanded täidetakse käsitsi ja peamiselt paberkandjal.

1. tase koosneb lihtsast abiautomaatikast tehisintellekti juriidiliste põhjenduste jaoks. Selle kategooria näited hõlmavad igapäevase arvutipõhise tekstitöötluse kasutamist, igapäevaste arvutipõhiste arvutustabelite kasutamist, juurdepääsu elektrooniliselt säilitatavatele ja välja otsitavatele veebipõhistele juriidilistele dokumentidele jne.

Tase 2 koosneb täiustatud abi automatiseerimisest tehisintellekti juriidiliste põhjenduste jaoks. Selle kategooria näited hõlmavad päringulaadse algelise loomuliku keele töötlemise (NLP) kasutamist, masinõppe (ML) lihtsustatud elemente, juriidiliste juhtumite prognoosimise statistilise analüüsi tööriistu jne.

Tase 3 koosneb poolautonoomsest automatiseerimisest tehisintellekti juriidiliste põhjenduste jaoks. Selle kategooria näideteks on täiustatud teadmistepõhiste süsteemide (KBS) kasutamine juriidiliseks arutluskäiguks, masinõppe ja süvaõppe (ML/DL) kasutamine juriidiliseks põhjenduseks, täiustatud NLP ja nii edasi.

Tase 4 koosneb domeeni autonoomsetest arvutipõhistest süsteemidest tehisintellekti õiguslikuks põhjenduseks. Sellel tasemel kasutatakse uuesti operatiivse disaini domeenide (ODD) kontseptuaalset mõistet, mida kasutatakse isejuhtivate autode puhul, kuid mida rakendatakse juriidilises valdkonnas. Õigusvaldkondi võib liigitada funktsionaalsete valdkondade järgi, nagu perekonnaõigus, kinnisvaraõigus, pankrotiõigus, keskkonnaõigus, maksuõigus jne.

Tase 5 koosneb täielikult autonoomsetest arvutipõhistest süsteemidest tehisintellekti õiguslikuks põhjenduseks. Teatud mõttes on 5. tase kõigi võimalike juriidiliste valdkondade hõlmamise poolest 4. taseme ülemkogum. Võtke arvesse, et see on üsna suur tellimus.

Isejuhtivate autode ja autonoomsete sõidukite üle arutledes saate neid autonoomiatasemeid ette kujutada samalaadsete kasutusviisidega (põhineb ka ametlikul SAE standardil, vaadake minu kajastust aadressil link siin). Meil ei ole veel SAE Level 5 isejuhtivaid autosid. Oleme jõudmas SAE 4. taseme isejuhtivate autode poole. Enamik tavalisi autosid on SAE 2. tasemel, samas kui mõned uuemad autod liiguvad SAE 3. tasemele.

Õigusvaldkonnas pole meil veel 5. taseme AILR-i. Me puudutame mõnda 4. taset, kuigi väga kitsastes ODD-des. Tase 3 hakkab ilmavalgust nägema, samas kui AILR-i tugisammas on täna peamiselt 2. tasemel.

Hiljutine teadusartikkel, mis käsitleb tehisintellekti seadusele kohaldatuna, on esitanud tüüpilise nimetuse Seadus teavitab koodeksit. Teadlane ütleb nii: „Üks peamisi eesmärke Seadus teavitab koodeksit eesmärk on õpetada tehisintellekti järgima seaduse vaimu” (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology and Intellectual Property, 20. köide, ilmumas). On mõned olulised kaalutlused, et Seadus teavitab koodeksit mantra toob esile ja ma juhendan teid läbi mitmete nende nurgakivi ettekirjutustega.

Enne teemasse sukeldumist tahaksin esmalt panna aluse tehisintellektile ning eriti tehisintellekti eetikale ja tehisintellekti seadusele, tehes seda selleks, et arutelu oleks kontekstiliselt mõistlik.

Kasvav teadlikkus eetilisest tehisintellekti ja ka tehisintellekti seadusest

AI hiljutist ajastut peeti algselt selliseks AI heaks, mis tähendab, et saame kasutada tehisintellekti inimkonna paremaks muutmiseks. Kannul AI heaks tuli arusaam, et meiegi oleme süvenenud AI For Bad. See hõlmab tehisintellekti, mis on välja töötatud või ise muudetud diskrimineerivaks ja teeb arvutuslikke valikuid, mis tekitavad põhjendamatuid eelarvamusi. Mõnikord on tehisintellekt niimoodi ehitatud, teistel juhtudel aga kaldub see sellele ebasoodsale territooriumile.

Tahan olla täiesti kindel, et oleme tänapäeva AI olemusega ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui tahaksime metsikult spekuleerida tundliku tehisintellekti üle, võib see arutelu minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib olla inimestest targem (minu võimalust uurida üliintelligentse tehisintellekti kohta vt. katvus siin).

Soovitan tungivalt hoida asjad maa peal ja kaaluda tänapäeva arvutuslikku mittetundlikku tehisintellekti.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

Olge tänapäeva tehisintellekti antropomorfiseerimisega väga ettevaatlik.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste kõrvaldamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad katsetavad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Sellel kõigel on märkimisväärne mõju tehisintellekti eetikale ja see pakub tehisintellekti seadusandlusel kasulikku akent saadud õppetundidesse (isegi enne, kui kõik õppetunnid juhtuvad).

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Nad hoiatavad ette, et kui me mõne neist tehisintellekti seadustest kehtestame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid.

Eelmistes veergudes olen käsitlenud erinevaid riiklikke ja rahvusvahelisi jõupingutusi tehisintellekti reguleerivate seaduste koostamiseks ja jõustamiseks, vt. link siin, näiteks. Olen käsitlenud ka erinevaid tehisintellekti eetika põhimõtteid ja juhiseid, mida erinevad riigid on tuvastanud ja vastu võtnud, sealhulgas näiteks ÜRO jõupingutusi, nagu UNESCO tehisintellekti eetika kogum, mille on kasutusele võtnud peaaegu 200 riiki, vt. link siin.

Siin on kasulik AI-süsteemide eetiliste kriteeriumide või omaduste nurgakivi loend, mida olen varem põhjalikult uurinud:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Tehisintellekti arendajad peaksid tõsiselt kasutama neid tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendamise jõupingutusi, ja isegi neid, kes lõpuks AI-süsteeme kasutavad ja hooldavad.

Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu siin eelnevalt rõhutatud, on tehisintellekti väljatöötamiseks ja kasutuselevõtuks vaja küla, mille jaoks kogu küla peab olema teadlik ja järgima tehisintellekti eetika ettekirjutusi.

Uurisin hiljuti ka AI Bill of Rights mis on ametlik pealkiri USA valitsuse ametlikule dokumendile pealkirjaga "AI Bill of Rights: automaatsete süsteemide töötamine Ameerika inimeste heaks" ametlik pealkiri, mis on teadus- ja tehnoloogiapoliitika büroo (OSTP) aastapikkuse jõupingutuse tulemus. ). OSTP on föderaalne üksus, mis nõustab Ameerika presidenti ja USA täitevametit mitmesugustes riikliku tähtsusega tehnoloogilistes, teaduslikes ja inseneriaspektides. Selles mõttes võite öelda, et see AI Bill of Rights on dokument, mille on heaks kiitnud ja mille on heaks kiitnud olemasolev USA Valge Maja.

Tehisintellekti õiguste seaduses on viis nurgakivikategooriat:

  • Turvalised ja tõhusad süsteemid
  • Algoritmiline diskrimineerimiskaitse
  • Andmete privaatsus
  • Märkus ja selgitus
  • Inimlikud alternatiivid, kaalumine ja tagavara

Olen need ettekirjutused hoolikalt läbi vaadanud, vt link siin.

Nüüd, kui olen loonud kasuliku aluse nendele seotud tehisintellekti eetika ja tehisintellekti õiguse teemadele, oleme valmis hüppama AI juriidilise topeltkontrollimise ja valdkonda. Seadus teavitab koodeksit.

Tehisintellekti legaalsed topeltkontrollid, mis on manustatud tehisintellekti inimväärtuse ühtlustamiseks

Vahel viitan AI juriidilised topeltkontrollid AI-LDC akronüümi kaudu. See on visuaalselt pisut häiriv neile, kes seda lühendit ei tunne. Seetõttu ei kasuta ma selles arutelus seda konkreetset akronüümi, vaid tahtsin seda teile hoiatusena mainida.

AI juriidilise topeltkontrolli mõningate keerukuse lahtipakkimiseks käsitleme järgmisi põhipunkte.

  • AI Legal topeltkontrolli kasutamine tehisintellekti inimväärtuste vastavusse viimise mehhanismina
  • Ekspansiivsem AI nõuab vastavalt tugevamaid tehisintellekti juriidilisi topeltkontrolle
  • AI Legal topeltkontrollijad kehtestavad seaduse ja eriti ei koosta seadust (arvatavasti)
  • Õrn tasakaal AI Seaduse legaalse kehastuse kui reeglite ja standardite vahel
  • Seadustest kinnipidamisel tehisintellekti puhul on vaja tõendit pudingu kohta

Ruumikitsikuse tõttu käsitlen praegu vaid neid viit punkti, kuigi palun olge valvel, et saaksin oma veerus täiendavaid ja samaväärselt tähelepanuväärseid kaalutlusi nende kiiresti arenevate ja edasiviivate küsimuste kohta valvel.

Kinnitage kohe turvavöö ja valmistuge kosutavaks reisiks.

  • AI Legal topeltkontrolli kasutamine tehisintellekti inimväärtuste vastavusse viimise mehhanismina

Tehisintellekti ja inimväärtuste harmoonilise kooskõla saavutamiseks on mitmeid viise.

Nagu varem mainitud, saame koostada ja levitada tehisintellekti eetika ettekirjutusi ning püüda panna tehisintellekti arendajad ja need, kes tehisintellektiga tegelevad ja käitavad, neid nurgakivisid järgima. Kahjuks ei aita see üksi asja ära. Teil on mõned väljatöötajad, kes paratamatult sõnumit ei mõista. Teil on mõned väljamõeldised, kes uhkeldavad eetilise tehisintellektiga ja püüavad mööda hiilida pisut nipsakatest ettekirjutatud põhimõtetest. Ja nii edasi.

Tehisintellekti eetikaga seotud „pehme õiguse” lähenemisviiside kasutamine tuleb peaaegu vääramatult siduda „raskete seaduste” meetoditega, näiteks selliste seaduste ja määruste vastuvõtmisega, mis saadavad kopsaka signaali kõigile, kes loovad või kasutavad AI-d. Seaduse pikk käsi võib teid kätte saada, kui te ei kasuta tehisintellekti mõistlikult. Vanglauste kõlisemine võib pälvida teravat tähelepanu.

Suur probleem on aga see, et vahel on laudauks juba hobused välja lasknud. Välja pandud tehisintellekt võib potentsiaalselt teha igasuguseid ebaseaduslikke tegusid ja jätkab seda seni, kuni mitte ainult tabatakse, vaid ka siis, kui mõni jõustamine lõpuks astub üles, et takistada ebaseaduslike tegude voogu. Kõik see võib võtta aega. Samal ajal saavad inimesed ühel või teisel viisil kahju.

Sellesse katsesse tuleb AI Legal topeltkontroll.

AI-rakenduses asudes suudab AI Legal topeltkontroll kohe tuvastada, kui AI näib olevat seadusega vastuolus. AI Legal topeltkontroll võib tehisintellekti jälile peatada. Või võib komponent inimesi märgatud ebaseaduslike tegevuste eest hoiatada, tehes seda õigeaegselt, mis võib sundida järelevaatajaid võtma kiireloomulisi parandusmeetmeid. Samuti on arvesse võetud ametlikku logimist, mille komponent võib luua, pakkudes tehisintellekti kahjulike toimingute kodifitseerimiseks auditijälje käegakatsutavat muljet.

Väidetavalt kujutavad meie seadused endast mitut tegurit hõlmavat konglomeratsiooni, nii et seadused on paratamatult segu sellest, mida ühiskond on püüdnud tasakaalustada tõenäoliste vastuoluliste seisukohtade vahel õige ja sobimatu ühiskondliku käitumise kohta. Meie seadustel põhinev tehisintellekti juriidiline topeltkontrollija kehastab seega seda segu.

Nimelt on see midagi enamat kui lihtsalt lõplike õigusnormide loendi koostamine. Seadused kipuvad olema rohkem tempermalmist ja püüdlevad üldiste standardite poole, selle asemel, et täpsustada kõige pisemaid mikroskoopilisi reegleid. Keerukust on küllaga.

Varasemalt mainitud uurimistöö juurde tagasi tulles võib neid kaalutlusi AI joondamisega seoses vaadelda järgmiselt: „Õigus, mitme agendi joondamise rakendusfilosoofia, vastab nendele kriteeriumidele ainulaadselt. Joondamine on probleem, sest me ei saa seda teha eelnevalt määratleda reeglid, mis täielikult ja tõestatavalt suunavad head tehisintellekti käitumist. Samuti ei saa õiguslepingu pooled ette näha oma suhte kõiki võimalikke asjaolusid ning seadusandjad ei saa ennustada konkreetseid asjaolusid, mille korral nende seadusi kohaldatakse. Seetõttu on suur osa õigusest standardite kogu” (samas).

Seaduse kehastamine tehisintellekti juriidilise topeltkontrolliks on palju keerulisem, kui esmapilgul arvata võiks.

AI arenedes peame neid edusamme vastavalt võimendama. Selgub, et see, mis sobib hanele, on hea ka hanele. Need meist, kes teevad tehisintellekti alal seaduste järgi edusamme, suruvad tehisintellektile ümbriku ja loovad kahtlemata uusi edusamme, mis võivad lõppkokkuvõttes AI edenemisele kaasa aidata.

  • Ekspansiivsem AI nõuab vastavalt tugevamaid tehisintellekti juriidilisi topeltkontrolle

Selle teemaga seisab silmitsi kassi-hiire gambiit.

On tõenäoline, et tehisintellekti arenedes on tehisintellekti juriidilise topeltkontrolli komponendiga aina raskem toime tulla. Näiteks võis kontrollitav tehisintellekti rakendus olla äsja välja mõelnud ülikavalaid viise tehisintellekti ebaseaduslike toimingute varjamiseks. Isegi kui tehisintellekt ei vali ebapiisavat teed, võib tehisintellekti üldine keerukus üksi olla hirmutav takistus tehisintellekti juriidilise topeltkontrolli kontrollimisel.

Siin on, kuidas see muutub eriti oluliseks.

Oletame, et tehisintellekti arendaja või mõni tehisintellekti kasutav ettevõte teatab, et AI-põhisesse rakendusse on manustatud tehisintellekti juriidiline topeltkontroll. Voila, tundub, et nad on nüüd oma käed kõigist edasistest muredest pesnud. Kõige eest hoolitseb AI Legal topeltkontroll.

Mitte nii.

AI juriidiline topeltkontroll võib olla seotud tehisintellekti rakenduse olemuse jaoks ebapiisav. Samuti on võimalus, et tehisintellekti juriidiline topeltkontroll vananeb, võib-olla seda ei värskendata tehisintellekti rakendust puudutavate uusimate seadustega. Võib ette näha mitmeid põhjuseid, miks ainuüksi tehisintellekti juriidilise topeltkontrolli olemasolu ei saa olla hõbekuul.

Mõelge nendele varasemate tsiteeritud uuringute arusaamadele: „Tehtimistehnoloogia tipptaseme edenedes saame seada tõestatud õigusmõistmise võimetele korduvalt kõrgemad latid. Kui arendaja väidab, et tema süsteemil on ülesannete täitmiseks täiustatud võimed, peaks ta demonstreerima vastavalt kõrgetasemelist õiguslikku arusaamist ning tehisintellekti juriidilisi ja arutlusvõimet, millel ei ole praktiliselt mingit raskusastet, kui arvestada seaduste ja määruste rohtu aja, pretsedendi ja jurisdiktsiooniga. ” (samas).

  • AI Legal topeltkontrollijad kehtestavad seaduse ja eriti ei koosta seadust (arvatavasti)

Olen kindel, et mõned teist on nende tehisintellekti juriidilise topeltkontrollimise ideest jahmunud.

Üks sageli kõlav mure on see, et ilmselt lubame AI-l meie seaduste üle otsustada. Issand jumal, te võite mõelda, et mõni automatiseerimine ületab inimkonna. Nendest manustatud tehisintellekti juriidilistest topeltkontrollijatest saavad meie seaduste vaikekuningad. Mida iganes nad ka ei teeks, on see, nagu seadus näib olevat.

Inimesi hakkab valitsema AI.

Ja need AI Legal topeltkontrollid on libe tee, mis meid sinna viib.

Vastuargument on see, et selline jutt on vandenõuteooriate värk. Olete metsikult postuleerides ja ajate end tujukasse. Reaalsus on see, et need tehisintellekti juriidilised topeltkontrollijad ei ole mõistvad, nad ei kavatse planeeti üle võtta ning nende eksistentsiaalse riski üle hüppamine on ilmselgelt jabur ja tohutult ülehinnatud.

Kokkuvõttes, jäädes rahulikule ja põhjendatud poosile, peame siiski meeles pidama, et tehisintellekti juriidilised topeltkontrollid kajastavad seadust asjakohaselt, mitte ei kavandata ega kogemata läheks kuidagi kaugemale auväärsesse valdkonda. seadus. Jättes kõrvale mõistuse ekstrapolatsioonid, võime kindlasti nõustuda, et on tõsine ja tungiv mure, et tehisintellekti juriidiline topeltkontroll võib lõpuks anda valesti antud seaduse tegelikku olemust.

Võid omakorda väita, et seetõttu tehakse see konkreetne “valesti esitatud” seadus sisuliselt uuesti, kuna see ei tähista enam tabavalt seda, mida tegelik seadus ette nägi. Usun, et ausalt öeldes näete, kuidas see on peen, kuid kõnekas kaalutlus. Tehisintellekti juriidiline topeltkontroll võib igal ajal virtuaalsel alusel luua uusi seadusi või öelda "hallutsineerida" lihtsalt selle järgi, kuidas AI komponent seadust tõlgendab nii, nagu algselt AI-s öeldud või selles sisaldunud (minu katvuse jaoks AI nn hallutsinatsioonidVt link siin).

Sellega seoses tuleb hoolikalt jälgida.

Sellel teemal pakub ülalmainitud uurimus seda paralleelset mõtet, et vältida selle püha piiri ületamist: „Meie eesmärk ei ole, et tehisintellektil oleks legitiimsust seaduste loomiseks, õigusliku pretsedendi loomiseks või seaduste jõustamiseks. Tegelikult kahjustaks see meie lähenemisviisi (ja me peaksime selle ärahoidmiseks tegema märkimisväärseid jõupingutusi). Pigem on seadusteabe koodeksi kõige ambitsioonikam eesmärk olemasolevate juriidiliste kontseptsioonide ja standardite üldistatavus arvutuslikult kodeerida ja kinnitatud tehisintellekti jõudlusesse kinnistada” (ibid).

  • Õrn tasakaal AI Seaduse legaalse kehastuse kui reeglite ja standardite vahel

Seadused on segased.

Peaaegu iga raamatuid käsitleva seaduse puhul on tõenäoliselt palju tõlgendusi selle kohta, mida seadus tegelikus praktikas ette näeb. Tehisintellekti valdkonna kõnepruugis viitame seadustele kui semantiliselt mitmetähenduslikele. Just see teebki AI arendamise seadusele rakendatuna nii põnevaks ja samas ka tüütuks väljakutseks. Erinevalt täpsest arvudest, mida võite näha näiteks rahalisele orienteeritud tehisintellektirakendustele, tähendab soov meie seadusi tehisintellektiks kehastada, et tulla toime semantiliste ebaselguste tsunamiga.

Oma fondi raamatus AI Legal Reasoning (AILR) põhialuste kohta käsitlen seda, kuidas eelnevad katsed kodeerida seadusi piiratud reeglite kogumiks ei viinud meid õigusvaldkonnas nii kaugele, kui tahaksime (vt. link siin). Tänapäeva AILR peab hõlmama integratsiooni reeglite kasutamise ja seaduses sisalduvate üldiste standardite vahel.

Seda olulist tasakaalu saab väljendada järgmiselt: „Praktikas langeb enamik õigussätteid kuhugi puhta reegli ja puhta standardi vahele ning õigusteooria võib aidata hinnata „reeglipärasuse” ja „standardsuse” õiget kombinatsiooni. tehisintellektisüsteemide eesmärkide täpsustamisel” (ibid).

  • Seadustest kinnipidamisel tehisintellekti puhul on vaja tõendit pudingu kohta

Midagi tahtmine on midagi muud kui millegi omamine.

See tarkusepisik kerkib esile, kui pakume, et kuigi me võiksime tahta AI Legal topeltkontrolli, peame kindlasti tagama, et need töötavad ja töötavad õigesti. Pange tähele, et see kujutab endast veel üht rasket ja kurnavat takistust. Olen varem käsitlenud AI kontrollimise ja valideerimise uusimaid edusamme ja väljakutseid, vt link siin.

Nagu on märgitud uurimistöös: "Enne AI mudelite kasutuselevõttu üha aktiivsemates võimsustes, nt täielikult autonoomsetes sõidukites suurtel teedel, peaks juurutav osapool näitama, et süsteem mõistab inimeste eesmärke, poliitikat ja juriidilisi standardeid, et seda puudujääki kõrvaldada. Valideerimismenetlus võiks illustreerida tehisintellekti „arusaamist” juriidiliste mõistete „tähendusest” (ibid).

Järeldus

Kutsun teid üles kaaluma minuga liitumist selle õilsa ülesandega luua ja välja töötada tehisintellekti juriidilised topeltkontrollid. Vajame sellele vooruslikule püüdlemisele rohkem tähelepanu ja ressursse.

See annab ka topeltkohustuse, nagu varem mainitud, saavutamaks AI Legal Reasoning (AILR), mida saab kasutada advokaatide abistamiseks ja mida avalikkus võib otseselt kasutada. Tõepoolest, mõned väidavad ägedalt, et ainus elujõuline viis õigusemõistmise täielikuma tunde saavutamiseks (A2J) on AI loomine, mis kehastab juriidilist suutlikkust ja millele on juurdepääs kõigil.

Üks kiire viimane punkt selleks korraks.

Senine arutelu on rõhutanud, et tehisintellekti legaalne topeltkontroll oleks manustatud või siirdatud tehisintellekti. See on tõepoolest nende jaoks, kes seda tärkavat valdkonda uurivad ja ette võtavad.

Siin on küsimus, mille üle tasub mõelda.

Pange oma mõtlemismütsi pähe.

Miks mitte kasutada AI Legal topeltkontrolli kõigis tarkvarades?

Sisu on selles, et selle asemel, et kasutada tehisintellektis ainult AI Legal topeltkontrolli, peaksime võib-olla oma vaatenurka laiendama. Igasugune tarkvara võib juriidiliselt eksida. Tehisintellekt on pälvinud lõviosa tähelepanu tänu viisidele, kuidas tehisintellekti tavaliselt kasutusele võetakse, näiteks teha kõhklematuid otsuseid, mis mõjutavad inimesi nende igapäevaelus. Võite siiski väita, et on palju mitte-AI-süsteeme, mis teevad sama.

Sisuliselt ei tohiks me lubada ühelgi tarkvaral seaduste vältimiseks või kõrvalehoidmiseks tasuta sõita.

Tuletage meelde ka varem, et mainisin kahte kategooriat, mis ühendavad AI ja seadust. Oleme siin keskendunud tehisintellekti kasutamisele nii, nagu seda seadust kohaldatakse. Mündi teisel poolel on seaduse kohaldamine tehisintellektile. Oletame, et kehtestame seadused, mis nõuavad tehisintellekti juriidilise topeltkontrolli kasutamist.

See võib alguses piirduda AI-süsteemidega, eriti nendega, mis on hinnatud eriti ohtlikeks. Järk-järgult võiks sama AI Legal topeltkontrolli nõuet laiendada ka mitte-AI tarkvarale. Jällegi ei mingit tasuta sõitu.

Sel ajal, kui te seda ülaltoodud kaalutlust nuudlite, vürtsitan ma lõputiitrina. Kui proovime nõuda tehisintellekti juriidilist topeltkontrolli, võime sama hästi teha ka AI eetika topeltkontrollidega. AI Legal topeltkontrolli kasutamine on vaid pool loost ja me ei saa tähelepanuta jätta ega unustada ka tehisintellekti eetikaga seotud probleeme.

Lõpetan selle lõbusa diskursuse ühe oma lemmiktsitaadiga. Ameerika Ühendriikide ülemkohtunikuna töötanud kuulsa juristi Earl Warreni tarkade sõnade kohaselt: "Tsiviliseeritud elus hõljub seadus eetika meres."

Võib-olla oleks kõige parem neid tärkavaid ja mullitavaid tehisintellekti juriidilisi topeltkontrollereid ja tehisintellekti eetika topeltkontrolle innukalt kasutusele võtta, kui tahame hoida oma pead kõrgemal, kui meie turvalisust ohustavad hapu tehisintellekt ja mitte-AI süsteemid võivad ähvardada rasket merd. .

Need võivad olla inimkonna päästevestid.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- ja-ai-seadus/