Tehisintellekti eetika Ettevaatlik hindamine, kas tehisintellekti eelarvamuste pakkumine jahiraha, et püüda ja tabada eetiliselt kurjasid täielikult autonoomseid süsteeme, on mõistlik või mõttetu

Otsitud: AI eelarvamuskütid.

See võib olla tänapäevane reklaam, mida hakkate nägema sotsiaalmeedia kanalites ja ilmuma erinevates veebipõhistes töökuulutustes. See on suhteliselt uus mõiste või roll. See kannab endas vastuolusid. Mõned tulihingelised usklikud vaidlevad tulihingeliselt, et sellel on palju mõtet ja see oleks pidanud toimuma kogu aeg, samas kui teised ajavad üsna närviliselt tõsist pead ja pole nii kindlad, et see on hea mõte.

Rolli põhiolemus seisneb AI-st mis tahes varjatud eelarvamuste või manustatud diskrimineerivate tavade eemaldamises. Appi tulevad innukad ja kunagised tehisintellektid jahimehed. Nad oleksid arvatavasti arvutiteadlikud pearahakütid. Veelgi enam, loodetavasti AI-võimaluste sügavustest läbi imbunud.

Omage relv, reisite ja suudate tehisintellekti oskusliku terava laskeoskuse abil paljastada ebameeldivad ja ebasoodsad AI eelarvamused.

See tõstatab hulga keerulisi küsimusi sellise taktika järgimise mõistlikkuse kohta tehisintellekti eelarvamuste avastamisel. Nagu ma lühidalt käsitlen, teadke, et tehisintellekti tulek on kaasa toonud ka tehisintellekti eelarvamuste ilmnemise. Tehisintellekti eelarvamuste torm. Minu jätkuva ja ulatusliku AI eetika ja eetilise tehisintellekti katvuse kohta vt link siin ja link siin, Ainult mõned nimed.

Kuidas me saame avastada, et teatud tehisintellekti süsteemil on eelarvamusi?

Võite seda usaldada tehisintellekti arendajatele, kes AI välja töötasid. Asi on selles, et nad võivad olla eelarvamustes nii kinni, et nad ise ei suuda oma väljamõeldud tehisintellekti eelarvamusi ära tunda. Neile tundub see kõik hea. Või võivad nad olla tehisintellektist nii vaimustuses ja tunda selle üle eneseuhkust, et kriitilise pilguga, et seda eelarvamuste suhtes uurida, oleks raske ja tõeline allakäik. Paljud muud sellised põhjused võivad tunduda takistavat seda, et tehisintellekti arendajad võtaksid selle ülesande, sealhulgas oskuste puudumine manustatud eelarvamuste väljaselgitamiseks, ajapuudus projektis selleks jne.

Olgu, palgake väliskonsultandid, kes teie eest musta töö ära teeksid. Selgub, et konsultandid kontrollivad hea meelega teie tehisintellekti eelarvamusi, küsides teilt selle eest päris senti (palju-palju sente). Mõistke, et peate nende eest maksma, et teie tehisintellekti süsteemiga kiireks saada. Seejärel peate laskma neil ringi tuhnida, mis võib võtta meeletult palju kulukaid töötunde. Konsultantide kasutamine on võimalus, kui teil on selleks eelarve.

Võimalikku "lünka", kuidas neid salakavalaid tehisintellekti eelarvamusi leida, tulevad kangelaslikud ja tormilised tehisintellekti eelarvamused pearahakütid.

Tavaliselt te neile ette ei maksa. Nad püüavad leida tehisintellekti eelarvamusi omal ajal ja peavad seda tehes ise oma arveid tasuma. Ainult siis, kui nad leiavad edukalt eelarvamusi, saavad nad palka. Ma arvan, et võite kindlalt väita, et sobival viisil on see pearahaküti tavapärane määratlus. Edu korral saate palka. Ära saa palka, kui sa ei ole edukas. Periood, loo lõpp.

Bounty-programmid on eksisteerinud juba vähemalt roomlaste ajast ja seega võime oletada, et need toimivad, olles edukalt vastu pidanud kõik need aastad.

Siin on teile põnev killuke ajaloolist tühiasi. Väidetavalt kuulutas Rooma impeeriumi ajal Pompei linnas postitatud teade, et väikesest poest kadunud vaskpoti leidmiseks on vaja pearahakütid. Auhinnaks vaskpoti taastamise eest oli muljetavaldav auhind, kuuskümmend viis pronksmünti. Kahjuks me ei tea, kas mõni pearahakütt leidis vaskpoti ja võttis endale pronksmünte, kuid teame, et pearahajaht on kindlasti jätkunud nendest iidsetest aegadest peale.

Moodsamal ajal võite olla teadlik, et 1980ndatel pakuti märkimisväärseid hüvesid arvutivigade või valmistarkvarapakettide vigade leidmiseks ning seejärel 1990ndatel pakkus Netscape märkimisväärselt preemiat veebibrauseris vigade leidmise eest. (saates selle päeva üheks silmapaistvamaks ettevõtteks). Google ja Facebook olid mõlemad valinud vigade eest pearahajahi kasuks, alates vastavalt 2010. ja 2013. aastast. Paar aastat hiljem, 2016. aastal, sattus isegi USA kaitseministeerium (DoD) sellesse, et korraldas pearaha "Hack the Pentagon" (pange tähele, et avalikkusele suunatud pearaha oli mõeldud erinevatelt kaitseministeeriumiga seotud veebisaitidelt leitud vigade eest, mitte aga kaitsemissioonikriitilised süsteemid).

Kaevume vigade halastuse teemasse sügavamalt. Ma mõistan, et pean selles arutelus rääkida peaasjalikult tehisintellekti eelarvamustest pearahajahis, kuid vigade pearahade areeniga on mõned üsna asjakohased paralleelid.

Mõned on ilmselgelt hämmingus, et iga ettevõte soovib pakkuda oma süsteemides vigade (või antud juhul tehisintellekti eelarvamuste) leidmiseks hüvesid.

Pealtnäha tundub see "sa küsite seda" tüüpi strateegiana. Kui annate maailmale teada, et tervitate neid, kes võivad püüda teie tarkvaras auke leida, näib see samaväärsena sissemurdjatel käskimisega teie majja tungida. Isegi kui te juba usute, et teil on päris hea valvesignalisatsioon ja keegi ei tohiks teie turvalisse koju pääseda, kujutage ette, et palute ja tõepoolest palute murdvarastel, et nad kõik laskuksid teie elukohta ja vaadake, kas nad saavad seda teha. selle sisse murda. Oh neid hädasid, mida me endale punume.

Sama võib öelda ka selle kohta, kui palute pearahaküttidel leida teie tehisintellektis eelarvamusi.

Esiteks tähendab see võib-olla, et te juba usute või isegi teate, et teie tehisintellektil on eelarvamusi. See on šokeerivalt otsekohene kaudne ülestunnistus, mida vähesed näivad olevat valmis tegema ja mis võib potentsiaalselt tagasilööki anda.

Teiseks, te ei tea kindlalt, mida need pearahakütid teha võivad. Nad võiksid öelda kogu maailmale, et nad leidsid teie tehisintellektis eelarvamusi. Eeldatakse, et see võib hüve saamisest ilma jääda, kuigi mõnele võib see tähelepanu meeldida või olla eesmärk tugevdada oma staatust nõustamiskontsertide ja muude tulu teenimise võimaluste saamiseks. See võib olla täiesti altruistlik. See võib olla AI-aktivismi vorm. Ma võin jätkata.

Kolmandaks võib kogu asjal olla salakaval pööre. Pearahakütt, kes väidab, et otsib tehisintellekti eelarvamusi, võib kuradilikult tuhnida, et leida viise, kuidas teie tehisintellektisüsteemi rünnata. Kogu see asi on karm, et lõpuks sooritada tõsine küberrünnak. Võiksite eeldada, et nad üritavad aidata, kuigi nende südames on pahategu. Kurb, aga võimalik.

Neljandaks võime selles asjas veelgi kelmikamalt väänata. Pearahakütt leiab mõningaid piinlikke ja potentsiaalselt kohtuvaidlusi õhutavaid tehisintellekti eelarvamusi. Pearaha on mingi summa dollareid, mida me nimetame X-ks. Pearaha taotlemise asemel teeb pearahakütt omamoodi veidrat lunavara provokatsiooni. Kui maksate pearahakütile kümnekordse summa X või võib-olla taeva piirangu, räägivad nad teile tehisintellekti eelarvamustest. Vastamiseks on aega pühapäeva õhtuni südaööni. Pärast seda ajahetke avaldatakse tehisintellekti eelarvamused kõigile nähtavaks. Jah, see on kohutav olukord.

Viiendaks, viimased on need nn "häkkida tagasi" küberkelmid, kes pärast hunniku Interneti-taigna varastamist otsustavad kahetseda ja tagastada osa ebaseaduslikult hangitud saagist, mille nad kaasa haarasid. Ettevõte, kes saab oma raha osaliselt tagasi, on siis nõus allesjäänud varastatud summat pidama varastele tagantjärele makstavaks hüviseks. Tundub, et kõik "võidavad", kuna suurem osa rahalistest vahenditest antakse tagasi ja samal ajal küberkelmide vastu seaduslikult ei jälitata, lisaks saavad nad piraatraha. Kas see on ettenägelik või salakavalalt põlistav õigusvastane tegu?

Ma mõistan, et mõned teist võivad väita, et keegi ei peaks välja laskma tehisintellekti, millel on mingeid eelarvamusi. See näib lahendavat kogu selle dilemma, kas kasutada pearahaküttide tehisintellekti eelarvamusi või mitte. Lihtsalt ärge sattuge halastuslikku olukorda. Veenduge, et teie tehisintellekti arendajad teeksid õigesti ega lubaks tehisintellekti eelarvamusi oma AI-süsteemides. Võib-olla kasutage topeltkontrolli tegemiseks konsultante. Sisuliselt tehke kõik, mida vajate, et mitte kunagi mõelda nendele tehisintellekti kalduvatele pearahaküttidele ega paluda neil laua taha tulla.

Jah, see tunduks igati mõistlik. Probleem on selles, et see on ka natuke unistav. Paljude tehisintellektisüsteemide keerukus on nii suur, et püüda tagada, et tehisintellekti kõrvalekaldeid ei tekiks, on raske teha. Lisaks on mõned AI-süsteemid sihilikult välja töötatud nii, et neid kohandatakse ja „õppida“ vastavalt nendele. See tähendab, et mingil tulevasel ajahetkel võib teie välja töötatud tehisintellekt, mis oletame alguses olevat puhtalt puhas ja eelarvamusteta, kalduda kehastama eelarvamusi (ma ei pea silmas seda antropomorfsel viisil, nagu ma selgitan lähemalt, kui me minge sellel teemal).

Need, kes pooldavad tarkvaravigade eest pearahajahti, kipuvad väitma, et selliste preemiate pakkumine on mõttekas. Võime kaaluda nende põhjendusi ja näha, kas see kehtib ka AI eelarvamuste valdkonna kohta.

Vearahade pooldajad rõhutavad, et selle asemel, et püüda teeselda, et teie süsteemis pole auke, miks mitte julgustada auke leidma, tehes seda "kontrollitud" viisil? Seevastu ilma sellise halastusjõupingutuseta võiks lihtsalt loota ja palvetada, et juhuslikult keegi auku ei leiaks, aga kui pakute selle asemel halastust ja ütlete augu leidjatele, et neid premeeritakse, pakub see võimalus seejärel auk ise kaldale saada ja takistab teistel seda hiljem salaja üles leida.

Sama võib öelda AI eelarvamuste kasutamise puhul. Kui pakute piisavat pearaha, juhivad pearahakütid teie tähelepanu AI eelarvamuste avastamisele. Seejärel saate AI eelarvamustega toime tulla suhteliselt vaiksel ja mõõdetud viisil. See võib hiljem ennetada palju suuremat ja hirmuäratavamat probleemi, nimelt seda, et keegi teine ​​leiab teie tehisintellektis kõrvalekaldeid ja karjub selle pärast kõrgesse taevasse.

Üldiselt kehtestab ettevõte, kes soovib lubada vigade jahtimist, haavatavuse avalikustamise poliitika (VDP). VDP näitab, kuidas vigu leida ja ettevõttele teatada, ning seda, kuidas jahimehele preemiat või preemiat antakse. Tavaliselt nõuab VDP, et jahimees allkirjastaks mitteavaldamise lepingu (NDA), et nad ei avaldaks teistele, mida nad leidsid.

Arusaam NDA kasutamisest pearahaküttidega on vastuoluline. Ehkki hüvitist pakkuval ettevõttel on võib-olla mõttekas soovida leitud kokkupuuteid emale jätta, lämmatab see väidetavalt ka üldist teadlikkust sellistest vigadest. Arvatavasti, kui lubatakse tarkvaravigadest rääkida, aitaks see potentsiaalselt kaasa teiste ettevõtete süsteemide turvalisusele, mis seejärel suurendaks nende kokkupuudet. Mõned pearahakütid ei allkirjasta NDA-d, osaliselt avalikkuse soovi ja osaliselt oma identiteedi varjamise tõttu. Pidage meeles ka seda, et NDA aspekt tekib tavaliselt alles pärast seda, kui jahimees väidab, et on vea leidnud, selle asemel, et seda eelnevalt nõuda.

Mõned VDP-d näevad ette, et NDA kehtib vaid piiratud ajaperioodiks, võimaldades ettevõttel esmalt leida lahendus näilisele augule ja seejärel võimaldada selle kohta laiemat avalikustamist. Kui auk on kinni keeratud, lubab ettevõte NDA-d lõdvendada, et ülejäänud maailm saaks veast teada. Tüüpiline pearahakütitud vigade lahendamise aeg on väidetavalt umbes 15–20 päeva, kui ettevõte soovib selle kohe eemaldada, samal ajal kui muudel juhtudel võib see venida 60–80 päevani. Mis puudutab pearahakütile maksmist ehk nn tasumisaega, siis pärast augu tegeliku olemasolu kontrollimist kipuvad pearahad olema väiksematel juhtudel umbes 15-20 päeva ja umbes 50-60 päeva. päevad suuremate juhtumite jaoks (need on pidevalt muutuvad tööstusharu näitajad ja neid mainitakse ainult näitlikuna).

Kas tehisintellekti eelarvamustest lähtuvatel pearahaküttidel tuleks samuti paluda VDP-s osaleda ja NDA-ga tegeleda?

Sellele küsimusele saate vastata jah ja ei. Jah, mõned ettevõtted peaksid seda teed valima. Ei, te ei pruugi tingimata valida seda teed. Tegurid hõlmavad tehisintellekti suurust ja olemust, tehisintellekti kallutatuse võimalikku ohtu ja hunnikut muid olulisi eetilisi, juriidilisi ja ärilisi kaalutlusi.

Võin lisada, et teie tehisintellekti eelarvamuste osas pearahajahi tegemine on palju suurem tellimus, kui esmapilgul arvata võiks.

Alustame suurest võimalusest, et tehisintellekti eelarvamuste pearahakütid rabavad teid.

Praegu oleks teil raske leida paljusid, kellel oleks selline kõnekaart. Ümberringi pole palju. Selles suhtes on Metsiku Lääne päevad. Kui aga arusaam AI eelarvamustest pearahajahis levib, eriti kui pearahad on külluslikud ja rikkalikult tasuvad, võite kihla vedada, et kõik sukelduvad eelarvamuste jahtimise basseini.

Kas soovite, et teie tehisintellektisüsteemis oleks kõikvõimalikud AI eelarvamused? Leiate mõned vastuvõtjad, kes on tegelikult selliste asjade eksperdid. Leiate teisi amatöörid, kes võivad segadusse ajada või hunti nutta. Järgmine asi, mida teate, tulevad kõik, kes oskavad kirjutada sõna "tehisintellekt", uurima teie tehisintellektisüsteemi kullakaevandust nende väärtuslike tehisintellekti kallutatavate kullatükkide jaoks. Kullapalavik on käimas. See ei pruugi teile hea olla.

Peate pearahaküttide esildised hoolikalt läbi vaatama. Teatatud väidetes on palju müra selles mõttes, et paljusid väidetavaid tehisintellekti eelarvamusi ei eksisteeri, kuigi pearahakütt väidab, et nad leidsid mõne. Kujutage ette, kui palju tööd teie enda tehisintellektimeeskonnad nõuavad, et uurida pearahanõudeid, uurida nende paikapidavust ja seejärel potentsiaalselt koos pearahakütiga edasi-tagasi uurida, kas kulda avastati või mitte.

Mõned väidavad, et see on veel üks põhjus, miks kõike ise teha. Võite paratamatult avastada, et halastus on rohkem vaeva, kui see väärt oli.

Siin on veel üks küsimus, mille üle järele mõelda. Kuidas saavad pearahakütid teada, kuidas AI eelarvamus välja näeb? Sisuliselt, ilma et oleks näha, mida otsida, võib iga läikiva kivi puhul väita, et see näitab tehisintellekti kallutatust väljakaevatavas tehisintellekti kullakaevanduses.

Oletame, et Vana Lääne päevil pakkusite Billy the Kidi (kuulsa seadusevastase) tabamise eest tasu. Kui tegite seda ja ei lisanud pilti sellest, milline Billy välja nägi, kujutage ette pearahaküttide arvu, kes võivad šerifi kontorisse tirida kellegi, keda nad lootsid või arvasid, et see on Billy the Kid. Te võite sattuda vale Billy'sse. See on halb, kuna peaksite arvatavasti igaüht vaatama, küsima uurivaid küsimusi ja proovima kindlaks teha, kas see inimene oli tõesti Billy või mitte.

Asi on selles, et tehisintellekti kallutatuse halastustöö seadistamiseks oleks mõistlik proovida selgitada, millest AI eelarvamused teie arvates koosnevad. See nõuab Goldilocksi tüüpi kalibreerimist. Te ei taha olla nii piirav, et pearahakütid jätaksid tehisintellekti eelarvamused kahe silma vahele ainult seetõttu, et need ei vasta teie määratud määratlusele, ega taha, et nad karjuksid "Eureka!" iga tükikese AI eelarvamusest, mida nad võib-olla leiavad.

Teil on vaja just õiget Goldilocksi tasakaalu selle kohta, millest tehisintellekti eelarvamused koosnevad, ja pakkuma seega eelistatavalt selgeid juhiseid.

Suur osa sellest tehisintellekti eelarvamusest pearahajahtimisest keskendub tehisintellektil põhinevatele masinõppe (ML) ja süvaõppe (DL) süsteemidele. See on mõttekas, kuna ML/DL levik kasvab, lisaks näib, et sellel on mõned kõige tõenäolisemad väljakutsed, mis on seotud põhjendamatute tehisintellekti eelarvamustega.

Need teadlased selgitavad välja, kui silmapaistev AI kallutab pearahajahti, eriti ML/DL kontekstis: „Aja jooksul on tarkvara- ja turbekogukonnad välja töötanud „vigapreemiad”, püüdes muuta süsteemiarendajate ja nende kriitikute vahel sarnast dünaamikat. (või häkkerid) interaktiivsemate ja produktiivsemate eesmärkide poole. Loodetakse, et kutsudes teadlikult väliseid osapooli leidma oma süsteemides tarkvara- või riistvaravigu ning pakkudes selleks sageli rahalisi stiimuleid, areneb välja tervislikum ja kiiremini reageeriv ökosüsteem. On loomulik, et ML-i kogukond kaalub sarnast "kallutatud halastuse" lähenemisviisi eelarvamuste või muu soovimatu käitumisega mudelite ja süsteemide õigeaegseks avastamiseks ja parandamiseks. Selle asemel, et leida tarkvarast vigu, kutsutakse väliseid osapooli üles leidma eelarvamusi – näiteks (demograafilisi või muid) sisendite alamrühmi, mille puhul koolitatud mudel ei tööta – ja neid premeeritakse selle eest” (artiklis „An Algorithmic Framework for Bias Bounties“ autorid Ira Globus-Harris, Michael Kearns ja Aaron Roth).

Uurimistöös kirjeldavad autorid soovitatud lähenemisviisi sellele, milliseid tehisintellekti eelarvamusi saavad pearahakütid otsida. Samuti on juhised selle kohta, kuidas hinnata nii avastatud väidetavate tehisintellekti eelarvamustega seotud pearahaküttide väiteid. Minu varasemate märkuste kohaselt on tõenäoline, et saate võltsivaid väiteid ja peate eraldama tehisintellekti kallutatavad nisu sõkaldest.

Enne kui hakkame lähemalt käsitlema tehisintellekti erapoolikuse jahtimise metsikuid ja viljuvaid kaalutlusi, paneme paika mõned täiendavad põhialused põhjalikult lahutamatute teemade kohta. Peame põgusalt sukelduma tehisintellekti eetikasse ja eriti masinõppe (ML) ja süvaõppe (DL) tulekusse.

Võib-olla olete ähmaselt teadlik, et tänapäeval üks valjemaid hääli tehisintellekti valdkonnas ja isegi väljaspool tehisintellekti valdkonda seisneb nõudmises eetilise tehisintellekti suurema väljanägemise poole. Vaatame, mida tähendab viidata tehisintellekti eetikale ja eetilisele tehisintellektile. Lisaks uurime, mida ma mõtlen masinõppest ja süvaõppest rääkides.

Üks konkreetne AI eetika segment või osa, mis on pälvinud palju meedia tähelepanu, koosneb tehisintellektist, millel on ebasoodsad eelarvamused ja ebavõrdsused. Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Seoses sellega pooldan ma AI kasutamist tehisintellekti hädade lahendamise osana, võitledes tulega sellisel mõtteviisil. Näiteks võime manustada eetilised tehisintellekti komponendid tehisintellektisüsteemi, mis jälgib, kuidas ülejäänud AI asju teeb ja võib seega reaalajas tabada mis tahes diskrimineerivaid jõupingutusi, vt minu arutelu aadressil link siin. Meil võiks olla ka eraldi AI-süsteem, mis toimiks teatud tüüpi tehisintellekti eetikamonitorina. Tehisintellekti süsteem toimib järelevaatajana, et jälgida ja tuvastada, millal mõni teine ​​tehisintellekt läheb ebaeetilist kuristikku (vt minu analüüsi selliste võimaluste kohta link siin).

Mõne hetke pärast jagan teiega mõningaid AI eetika üldpõhimõtteid. Selliseid nimekirju vedeleb siin-seal palju. Võib öelda, et universaalse veetluse ja üksmeele ainsat loetelu pole veel olemas. See on kahetsusväärne uudis. Hea uudis on see, et vähemalt AI eetika loendid on hõlpsasti kättesaadavad ja need kipuvad olema üsna sarnased. Kokkuvõttes viitab see sellele, et teatud tüüpi põhjendatud lähenemise kaudu leiame tee AI-eetika üldise sarnasuse poole.

Esiteks käsitleme lühidalt mõningaid üldisi eetilisi tehisintellekti ettekirjutusi, et illustreerida, mis peaks olema AI loomisel, väljatöötamisel või kasutajal ülioluline kaalutlus.

Näiteks nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimekust arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvatest ja auditeeritavatest metoodikatest, andmeallikatest ning kavandamisprotseduuridest ja dokumentatsioonist.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade väljaselgitamine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas kui tehisintellekti kodeerimisel peab olema tõeline kumm, mis teega kokku puutub, on olukord palju keerulisem.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendustegevust, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu varem öeldud, on tehisintellekti väljatöötamiseks ja väljatöötamiseks vaja küla, mille jaoks kogu küla peab olema kursis ja järgima tehisintellekti eetika ettekirjutusi.

Teeme ka kindlaks, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem (minu üliintelligentse tehisintellekti kui võimaluse uurimist vt. katvus siin).

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Pöördume nüüd tagasi AI eelarvamuste jahi teema juurde.

Neile teist, kes kaaluvad tehisintellekti erapoolikust pearahajahti, on siin minu soovitatud seitse peamist sammu, kuidas kõige paremini edasi minna.

1) Hinnake. Hinnake tehisintellekti erapoolikuse pearahajahi sobivust teie oludele ja tehisintellektisüsteemidele

2) Disain. Kavandage sobiv tehisintellekti erapoolikuse pearahajahi lähenemisviis

3) Täitma. Rakendage ja avaldage oma tehisintellekti erapoolikust pearahajahtimise püüdlusi

4) Väli. Märkige tehisintellekti eelarvamuste hüvitise nõuded välja ja töödelge vastavalt

5) Määrama. Parandage või kohandage oma tehisintellekti vastavalt nendele avastatud tehisintellekti kallutatuse säritustele

6) kohandama. Reguleerige pearahajahti tehisintellekti eelarvamusi vastavalt vajadusele

7) Katkestada. Lõpetage tehisintellekti erapoolikuse pearahajaht, kui seda enam vaja pole

Minu ülaltoodud sammude seerias pange tähele, et mainin, et tõenäoliselt soovite oma tehisintellekti parandada või kohandada, kuna olete veendunud, et väidetav AI eelarvamus on teie tehisintellekti süsteemis tegelikult olemas. See on täiesti mõistlik. Peaaegu kindlasti soovite toetada kõiki leitud tehisintellekti eelarvamusi. Mõelge õiguslikele (ja eetilistele) tagajärgedele, kui te seda ei tee. Üks asi on väita, et te ei teadnud tehisintellekti kallutatuse olemasolust ja seetõttu lubasite sellel eksisteerida, samas kui on palju ebatõenäolisemalt registreeritud, et teid teavitati AI eelarvamusest ja te ei teinud sellega midagi.

Tehisintellekti parandamise või kohandamise olemus ja määr sõltub loomulikult sellest, kui olulised olid tehisintellekti kõrvalekalded ja kui sügavalt need probleemid on. Kui teil veab, võivad AI tagasihoidlikud muudatused olukorda parandada. Teine võimalus on see, et peate võib-olla AI täielikult ümber kirjutama. ML/DL tüüpi tehisintellekti puhul võib see nõuda naasmist joonestuslauale ja alustamist täiesti uue andmekogumi ja puhastatud ML/DL mudeliga. Olen arutanud tehisintellekti hävitamise või hävitamise tulekut kui võimalikku õiguskaitsevahendit ebameeldiva AI vastu, vt. link siin.

Üks küsimus, mille üle mõelda, on see, kas soovite, et pearahakütid teeksid rohkemat kui lihtsalt tehisintellekti eelarvamuste tuvastamine. Näiteks võite hüvesid magustada, näidates, et ka pakutud parandused on teretulnud. AI eelarvamus avastatud pearahakütt võib maksta ühe märgitud preemia või auhinna. Kui pearahakütt suudab ka elujõulist välja pakkuda määrata tehisintellekti kallutatuse tõttu võidakse neile anda lisatasu.

Mõned väidavad, et see sild on liiga kaugel. Nad ütlevad, et tehisintellekti eelarvamuste pearahakütid peaksid keskenduma ainult tehisintellekti eelarvamuste leidmisele. Te loote hulga soovimatuid tagajärgi, kutsudes neid ka parandusi soovitama. Hoidke asjad lihtsad. Eesmärk on saada võimalikult palju täiendavaid pilke tehisintellekti eelarvamuste avastamiseks, et saaksite otsustada, mida edasi teha. Ärge mudage vett.

Keeruline aspekt, mis tuleb välja mõelda, hõlmab tasu või auhinna suurust pearahaküttide jaoks, kes avastavad tõeliselt tehisintellekti eelarvamusi. Tahad, et tasu oleks demonstratiivne. Ilma piisavalt kõrge tasuta ei saa te palju pearahakütid või nad ei otsi eriti innukalt teie tehisintellektisüsteemide eelarvamusi. Selle asemel võivad nad keskenduda muudele tehisintellekti kallutatavatele hüvedele.

Lisaks, nagu mainitud, soovite proovida ja maha suruda pearahaküttide soovi muuta oma tehisintellekti eelarvamused muudeks kullavormideks. Kui tasu tundub kasin, võib see pearahakütid meelitada otsima muid kõrgemaid tasusid. Nad võivad teie suhtes läheneda lunavarale. Nad võivad väita, et neil on mahlane tehisintellekti kallutatus, millest konkurendil oleks hea meel teada saada, ja mida nad saaksid teie ettevõtte vastu kasutada, reklaamides, et tehisintellekti eelarvamus on teie tehisintellektis olemas. Seega müüvad nad avastatud tehisintellekti kallutatuse kõrgeima pakkumise tegijale. Ja nii edasi.

Eeldatakse, et kui määrate tasu äärmiselt kõrgele vahemikule, siis küsite ka võimalikke probleeme. See võib meelitada ligi igasuguseid pähkliseid pearahakütid. Nad võivad omakorda üle ujutada sotsiaalmeedia uduste väidetega, et nad avastasid palju tehisintellekti eelarvamusi, tehes seda enda reklaamimiseks ja ilma, et nad oleksid tegelikult tehisintellekti eelarvamusi avaldanud. Teatud mõttes annab teie kõrgendatud tasu kogemata valguse teie tehisintellektile ja tõukab hulga ebaharilikke ööliblikaid, et neid hõõguv valguskiir kahjustavalt meelitada.

Teine kaalutlus hõlmab juurdepääsu teie tehisintellektile.

Tehisintellekti pearahajahi võimaluse võimaldamiseks peavad pearahakütid teie tehisintellektile piisavalt ligi pääsema. Neil ei ole palju õnne tehisintellekti eelarvamuste leidmisel, kui nad on täielikult lukustatud. Kuid te ei soovi küberturvalisuse kaitsest loobuda, kuna see võib teie tehisintellekti süsteemi täielikult kahjustada.

Võite proovida lasta pearahaküttidel allkirjastada mitmesuguseid õiguslikult siduvaid deklaratsioone ja seejärel anda neile vajalik juurdepääs. Mõnele pearahakütile selline lähenemine ei meeldi. Nende seisukoht on, et nad teevad ainult seda, mida mis tahes avalikult kättesaadav ja avatud tee võimaldab. Nad on justkui vabad loomumehed ja neile ei meeldi, kui neid saduldatakse. Kui panna nad hirmutavatele juriidilistele dokumentidele oma allkirja panema, väldivad paljud neist teie tehisintellektist kõrvalekaldumise otsimist. Või võivad nad teie juriidilise kinda peale pahaseks saada ja otsustada, et näevad avalike vahenditega, mida nad leiavad, tehes seda võib-olla tungiva sooviga näidata teile, kui haavatav te tegelikult olete.

Mul on veel üks nurk, mis võib su pea ringi käima panna.

Tehisintellektiga asjatundlik pearahakütt võib otsustada välja töötada AI-süsteemi, mis suudab teie tehisintellekti kontrollida ja avastada tehisintellekti kõrvalekaldeid. See on tööriistatootja, kes valib töö tegemiseks tööriista, selle asemel, et ise käsitsi tööd teha. Tehisintellektiga kursis olev pearahakütt selle asemel, et oma tehisintellekti vaevarikkalt uurida, veedab oma aega tehisintellekti tööriista väljamõtlemisega, mis teeb sama. Seejärel kasutavad nad teie AI-s AI-tööriista. Ilu seisneb ka selles, et nad saavad AI-tööriista eeldatavasti taaskasutada kõigi teiste jaoks, kes pakuvad ka oma tehisintellektil pearahajahtimise võimalust.

Ma tean, mida sa ilmselt mõtled. Kui tehisintellekti eelarvamuste uurimiseks on võimalik välja töötada tehisintellekti tööriist, peaks tehisintellekti eelarvamuste suhtes kontrollitava tehisintellekti tegija kas sellise tehisintellekti tööriista välja töötama või ostma selle enda tarbeks. Teoreetiliselt ei pea nad siis võitlema kogu pearahaküttide karnevaliga. Kasutage nende tehisintellekti eelarvamuste leidmiseks lihtsalt AI-d.

Jah, see on midagi, mille tekkimist võib järk-järgult oodata. Samal ajal on nende jõupingutuste põhialuseks tõenäoliselt tehisintellekti arendajad, kes tegelevad pearahajahtimisega. Nad võivad oma jõupingutuste abistamiseks kasutada erinevaid tööriistu, kuid lähiajal ei ole tõenäoline, et nad lihtsalt meeletult tehisintellekti tööriista automaatseks sisse lülitavad ja uinaku teevad nii, et tööriist tegeleb nende eest kogu tehisintellekti kallutatuse jahtimisega.

Me pole seal veel.

Vean kihla, et selle kaaluka arutelu praegusel hetkel soovite mõnda illustreerivat näidet, mis võiksid seda teemat tutvustada. Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Näete, et tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede eksperdina, palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi tehisintellekti erapoolikuse pearahajahi kasutamise kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on need, kus tehisintellekt juhib autot täiesti iseseisvalt ja juhtimisülesande täitmisel puudub inimabi.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, käsitletakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need erinevaid automatiseeritud lisandmoodulid, mida nimetatakse ADA-ksADA
S (täiustatud juhiabisüsteemid).

Tõelist isejuhtivat autot 5. tasemel veel ei ole ja me ei tea veel isegi, kas seda on võimalik saavutada või kui kaua selleni jõudmine aega võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja tehisintellekti erapoolik pearahajaht

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Loodan, et see annab piisava hulga hoiatusi, et toetuda sellele, mida kavatsen käsitleda.

Olen oma veergudel juba pikalt käsitlenud vigadele orienteeritud pearahaküttide kasutamist autonoomsete sõidukite ja isejuhtivate autode valdkonnas. Selline lähenemine on selles nišis tõepoolest toimunud. Tavaliselt vaieldakse selle üle, kas see on hea idee või mitte. Püüdlused on tavaliselt olnud piiratud, sageli vaikitud.

Sarnane arutelu võib tekkida ka siis, kui fookus nihkub AI eelarvamuste jahtimisele, selle asemel et otsida süsteemivigu per se. Mõned arvavad, et see on neetud, kui te seda teete, kui te ei mõista mõistatust.

Sellepärast

Esiteks, et olla selge, on mitmeid viise, kuidas autonoomsete sõidukite ja isejuhtivate autode suhtes kohaldatakse tehisintellekti eelarvamusi. Vaadake minu kajastust aadressil link siin ja link siin, kui nimetada vaid mõnda. Tundub, et autotootjad ja isesõitvate autode ettevõtted peaksid püüdma vältida nende tehisintellekti eelarvamuste ilmnemist nende tehisintellektisüsteemides. Juriidiline ja eetiline tuletorm selliste ettevõtete vastu on kahtlemata intensiivne.

Kas tehisintellekti eelarvamuste pearahajahi püüdluste kasutamine on selles konkreetses kontekstis sobiv lähenemisviis?

Üks vastus on, et jah, see on mugav ja pakub hulgaliselt "tasuta" uusi silmi, et püüda tabada tehisintellekti isejuhtiva auto või muu sarnase manustatud tehisintellekti eelarvamusi. Enamik isejuhtivaid autosid ehitavatest tehisintellekti arendajatest on hõivatud tehisintellekti loomisega, mis suudaks autot ohutult punktist A punkti B juhtida. Nad on selle põhivõimega hõivatud ning neil ei ole aega ega tähelepanu tehisintellekti eelarvamustele, mis võivad olla kuskil nende AI.

Teine vastus on, et ei, autonoomsete sõidukite ja isejuhtivate autode pearahajahti mis tahes alusel, olgu siis vigade või tehisintellekti eelarvamuste tõttu, tuleks lihtsalt kiivalt vältida. Argument on see, et need sõidukid ja nende tehisintellekt on elu või surma kaliibriga. Tehisintellektiga segamine võib mingil moel AI-le hävitada ja mõjutada tehisintellekti juhtimissüsteemi tegevust.

Selle viimase punkti vastuargumendiks on see, et pearahakütid ei saa väidetavalt muuta tehisintellekti, mida nad uurivad. Seega ei ole ohtu, et nad AI-ga segamini ajavad ja selles kontekstis tehisintellektist ootamatult hullunud tehisintellekti juhtimissüsteemiks muutuvad. Pearahaküttidel on ainult kirjutuskaitstud juurdepääs. Neile kaugemale mineku lubamine oleks väga rumal ja suur viga.

Vastuargument sellele vastuargumendile on see, et lubades ja julgustades pearahaküttidel teie tehisintellekti uurima, muutub kogu asi segaseks. Need pearahakütid võivad leida viise leitud vigade või eelarvamuste ärakasutamiseks. Need ärakasutamised võivad omakorda olla kaval eesmärgil. Parem ei kutsuks "murdjaid" oma koju nii-öelda. Kui nad on vuugi välja lasknud, olete lõpuks kuhjaga hädas.

Nende jaoks, kelle tehisintellektisüsteemide suurusjärk on väiksem kui elu või surm, on usk, et valesti läinud pearahajahi retke tagajärjed on palju vähem riskantsed. Võib-olla nii. Teisest küljest, kui ettevõte on oma raha pannud tehisintellektisüsteemi, mida pearahaküttidel õnnestub anastada, võite eeldada, et mainekahjud ja muud võimalikud kahjud teevad ikkagi haiget.

Tehisintellekti erapoolikuse pearahajahi puhul pole tasuta lõunasööki.

Hetkel kiire lõppsõna.

Kui Vana Lääne ajal otsiti kurikuulsat seadusevastast Jesse Jamesi, trükiti plakat "Tagaotsitav", millel pakuti tema tabamise eest 5,000 dollarit (kirjas "surnud või elus"). See oli tol ajal üsna suur rahasumma. Üks tema enda jõuguliikmetest otsustas Jesse surnuks tulistada ja tasu koguda. Ma arvan, et see näitab, kui tõhus abiraha võib olla.

Kas tehisintellekti eelarvamuste pearahaküttide kasutamine on hea või halb?

Kui otsustate algatada tehisintellekti erapoolikust pearahaküti, soovitan teil hoida silmad pärani ja vaadata kogu aeg üle õla. See on teie ja teie tehisintellekti jaoks mõistlik. Kunagi ei tea, mis võib juhtuda, sealhulgas seda, et osav pearahakütt sisestab teie tehisintellekti mingil moel varjatult tehisintellekti kallutatuse ja karjub kogu maailmale, et ta avastas teie tehisintellektis hoolimatute tehisintellekti kallutatuse. Võib-olla tegid nad seda jultunud ja ülemäärase katsena otsida pearaha, lisaks kuulutades end kangelaseks, kes sai sisuliselt kiidetud Jesse Jamesi.

Kui sellele järele mõelda, siis mõistvale tehisintellektile ei meeldi ilmselt selline segadust tekitava surnud või elusa sätte idee, mida võib nii räigelt oletada.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- eetiliselt-kurjad-täiesti-autonoomsed-süsteemid-on-arukas-või-kasutu/