AI eetika ja AI-indutseeritud psühholoogiline pookimine, et aidata inimestel desinformatsiooniga

Mida me teeme desinformatsiooni ja valeinformatsiooni tohutu ülekülluse vastu?

See kõik läheb ilmselgelt iga päevaga hullemaks ja hullemaks.

Võib-olla võib tehisintellekt (AI) meile appi tulla. Jah, see on õige, meil võib olla võimalik kasutada tehisintellekti kasulikke kasutusvõimalusi, et tulla toime meie halastamatu desinformatsiooni ja valeinformatsiooni tsunamiga. Meil võib olla mõistlik seda teha. Iga võimaliku lahenduse tee näib olevat otsimist väärt.

Kõrvalepõikena tahaksin kohe tunnistada ja märkida, et AI kahtlemata läheb Ka olla ka osa probleemist. Pole kahtlust, et inimesed saavad hõlpsasti AI-d kasutada desinformatsiooni ja valeinformatsiooni genereerimiseks. Lisaks saab tehisintellekti salakavalalt kasutada selleks, et panna desinformatsioon ja desinformatsioon näima hämmastavalt paikapidavatena ning eksitada inimesi uskuma, et esitatud teave on ahvatlevalt täpne ja faktiline. Otseselt kurb nägu sellest, mida tehisintellekt lauale toob. Tuleme selle negatiivsete küsimuste juurde tagasi selle arutelu lõpus.

Nüüd paneme naeratavad näod selga ja uurime, kuidas tehisintellekt on kasulik desinformatsiooni ja valeinformatsiooni võimsatele põlvi toomisel. Üks oluline alusvool on see, et kõik see haakub tehisintellekti eetika oluliste elementidega. Minu AI eetika ja eetiline tehisintellekti veergude katvus on pidev ja ulatuslik, sealhulgas link siin ja link siin, Ainult mõned nimed.

Mõelge järgmistele nurgakividele, kuidas AI võib olla eriti kasulik liitlane desinformatsiooni ja valeinformatsiooni vastases sõjas:

  • Peatuge Get-Go juures: Tehisintellekti saab kasutada desinformatsiooni ja desinformatsiooni tuvastamiseks ja selle eemaldamiseks enne, kui see lahti läheb
  • Filter enne nägemist: Tehisintellekti saab kasutada desinformatsiooni ja valeinformatsiooni filtreerimiseks, nii et te ei peaks selle nägemise pärast muretsema
  • Valmistage teid immuunseks: Tehisintellekti saab kasutada selleks, et tugevdada teie valmisolekut ja võimet võidelda desinformatsiooni ja desinformatsiooniga (mida ametlikult tuntakse teatud tüüpi psühholoogilise pookimise pakkumisena)
  • Muu

Esimene loetletud punkt hõlmab püüdu peatada desinformatsioon ja desinformatsioon võimalikult varakult, enne sisu maailma jõudmist.

See on väga problemaatiline lähenemine. Mõned väidavad häälekalt, et see võib olla Suure Venna katse sõnavabadust maha suruda. Kui kaugele see AI jõuaks? Kas see võib takistada inimestel oma seisukohti vabalt väljendada? See võib jubedal kombel muutuda tehisintellekti libedaks teeks, millest saab lõpuks kurjade tagajärgede halvim õudusunenägu, mis sai süütult alguse parimatest kavatsustest.

Olen kindel, et saate pildist aru.

Teine punkt on veidi mõõdukam ja viitab sellele, et võiksime kasutada AI-d sisu filtreerimiseks.

Teil võib olla AI-filtri bot, mis skannib kõiki teie erinevatest uudistest ja muudest allikatest saabuvaid andmevooge. AI on kohandatud püüdma kinni mis tahes desinformatsiooni või valeinformatsiooni, mis vastab teie isiklikele kriteeriumidele. Seega ei ole sellise stsenaariumi puhul tegemist Suure Venna tsensuuriolukorraga. Teie juhite AI-d ja seda, kuidas see teie nimel teie tõelist teabepostkasti filtreerib.

Kõlab päris hästi.

Siiski on mõned tähelepanuväärsed probleemid.

Näiteks oleme oma vaadetes juba väga polariseerunud ja selline tehisintellekti kasutamine võib muuta selle polarisatsiooni sügavamaks ja tumedamaks. Kujutage ette, et selle libeda AI-ga, mis töötab pidevalt ööpäevaringselt, ei pea te kunagi nägema tükikestki teavet, mille olete liigitanud potentsiaalseks desinformatsiooniks ja desinformatsiooniks. Teie polariseeritud perspektiiv jääb nüüd peaaegu terveks. Terve päeva ja alati, kui soovite pilku heita teie tähelepanu ootavale teabele, on see alati täielikult eelvalitud ja puudub võimalus heita pilk nn desinformatsioonile ja valeinformatsioonile.

Ma ütlen, et desinformatsioon ja desinformatsioon võib olla nn sest selle üle, mis on desinformatsioon ja valeinformatsioon, on tohutult palju vaidlusi. Mõned asjatundjad nõuavad, et on olemas absoluutne alus selle kindlakstegemiseks, mis on desinformatsioon ja mis on desinformatsioon. On õiget ja valet. Kõike saab välja arvutada, eksimata selles, et miski on desinformatsioon või valeinformatsioon.

Mitte igaüks ei näe asju nii selgepiirilisena.

Vanasõnaline üksteist välistav dihhotoomia kontrast on eksitav mõtteviis. Ühe inimese desinformatsiooni ei pruugita pidada teise isiku desinformatsiooniks. Sama ka valeinformatsiooni kohta. Väide on, et desinformatsioon ja desinformatsioon ulatuvad olemuse ja ulatuse poolest. Proovida kogu teavet lõplikult ühte või teise hunnikusse liigitada on palju raskem, kui käega vehkimine viitab.

Sisu on see, et teisel punktil AI kasutamisel filtreerimismehhanismina on omad kompromissid. Pole kahtlust, et tehisintellekti hakatakse seda üha enam kasutama. Samal ajal peame olema teadlikud väljakutsetest, mida selline AI esiplaanile toob. AI kui desinformatsiooni ja desinformatsiooni filter ei ole mingi hõbekuul või slam dunk.

See viib meid kolmanda punktini, nimelt võimaluseni kasutada AI-d, et muuta inimesed desinformatsiooni ja desinformatsiooniga paremini toime.

Ma kahtlen, kas olete sellest AI kasutamise kolmandast võimalusest selles kontekstis ilmselt palju kuulnud. See alles hakkab tekkima. Olete nüüd millegi tipptasemel, mis tõenäoliselt kasvab ja võetakse järk-järgult kasutusele. Kuid teadke, et selle populaarsuse kasvades muutuvad nähtavaks ka vaidlused selle üle, kas see on sobiv lähenemisviis.

Osa probleemist on selles, et tehisintellekti kasutatakse mingil määral selleks, mida mõned halvustavalt nimetavad inimestega mõttemänge mängides.

See tundub kurjakuulutav.

See viib meid ka AI eetika valdkonda.

Kõik see on seotud ka kainelt esilekerkiva murega tänapäeva tehisintellekti ja eriti masinõppe ja süvaõppe kasutamisega tehnoloogiavormina ja selle kasutamisega. Näete, on ML/DL-i kasutusviise, mille puhul laiem avalikkus peab tehisintellekti antropomorfiseerima, uskudes või eeldades, et ML/DL on kas tundlik tehisintellekt või selle lähedal (ei ole). Lisaks võib ML/DL sisaldada arvutuslike mustrite sobitamise aspekte, mis on ebasoovitavad või täiesti sobimatud või eetilisest või juriidilisest seisukohast ebaseaduslikud.

Võib olla kasulik kõigepealt selgitada, mida ma mõtlen tehisintellektile üldiselt viidates, ning anda ka lühike ülevaade masinõppest ja süvaõppest. On suur segadus selles osas, mida tehisintellekt tähendab. Samuti tahaksin teile tutvustada tehisintellekti eetika ettekirjutusi, mis on selle diskursuse ülejäänud osa jaoks eriti olulised.

AI kohta rekordi avaldamine

Veenduge, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud.

Meil pole seda.

Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib kuidagi imeliselt spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vaata minu kajastust aadressil link siin).

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet ja süvaõpet, mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

Osa probleemist on meie kalduvus arvuteid ja eriti tehisintellekti antropomorfiseerida. Kui tundub, et arvutisüsteem või tehisintellekt toimib viisil, mida me seostame inimeste käitumisega, tekib peaaegu valdav soov omistada süsteemile inimlikke omadusi. See on tavaline vaimne lõks, mis võib haarata isegi kõige järeleandmatuma skeptiku, mis puudutavad mõistuse saavutamise võimalusi.

Teatud määral on seetõttu AI eetika ja eetiline tehisintellekt nii oluline teema.

AI eetika ettekirjutused panevad meid valvsaks jääma. Tehisintellekti tehnoloogid võivad mõnikord olla hõivatud tehnoloogiaga, eriti kõrgtehnoloogia optimeerimisega. Nad ei pea tingimata arvestama suuremate ühiskondlike tagajärgedega. Asjakohase tehisintellekti loomiseks, sealhulgas selle hindamiseks, kuidas tehisintellekti eetikat ettevõtted omaks võtavad, on ülioluline omada AI-eetikat ning teha seda AI arendamise ja kasutamisega lahutamatult.

Lisaks tehisintellekti eetikareeglite rakendamisele üldiselt on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. Tehisintellekti eetika on vähemalt kaalutletud vahepeatus ja peaaegu kindlasti lisatakse see mingil määral otse nendesse uutesse seadustesse.

Pidage meeles, et mõned väidavad kindlalt, et me ei vaja tehisintellekti hõlmavaid uusi seadusi ja et meie olemasolevad seadused on piisavad. Nad hoiatavad ette, et kui me mõne neist tehisintellekti seadustest kehtestame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid. Vaadake näiteks minu kajastust aadressil link siin.

Eelmistes veergudes olen käsitlenud erinevaid riiklikke ja rahvusvahelisi jõupingutusi tehisintellekti reguleerivate seaduste koostamiseks ja jõustamiseks, vt. link siin, näiteks. Olen käsitlenud ka erinevaid tehisintellekti eetika põhimõtteid ja juhiseid, mida erinevad riigid on tuvastanud ja vastu võtnud, sealhulgas näiteks ÜRO jõupingutusi, nagu UNESCO tehisintellekti eetika kogum, mille on kasutusele võtnud peaaegu 200 riiki, vt. link siin.

Siin on kasulik AI-süsteemide eetiliste kriteeriumide või omaduste nurgakivi loend, mida olen varem põhjalikult uurinud:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Tehisintellekti arendajad peaksid tõsiselt kasutama neid tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendamise jõupingutusi, ja isegi neid, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu siin eelnevalt rõhutatud, on tehisintellekti väljatöötamiseks ja kasutuselevõtuks vaja küla, mille jaoks kogu küla peab olema teadlik ja järgima tehisintellekti eetika ettekirjutusi.

Hoiame asjad maa peal ja keskendume tänapäevasele arvutuslikule mittetundlikule tehisintellektile.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Usun, et olen nüüd loonud aluse, et piisavalt arutleda tehisintellekti rolli üle desinformatsiooni ja desinformatsiooniga tegelemise psühholoogilise pookimise vahendina.

Inimeste meeltesse sattumine

Alustame valeinformatsiooni ja desinformatsiooni aluseks olevate põhitõdede või põhitõdedega.

Üldiselt viitab valeinformatsioon valele või eksitavale teabele.

Desinformatsioon on ligikaudu sama, kuigi see koosneb lisatud elemendist tahtlus. Tavaliselt tõlgendame teavet desinformatsioonina, kui see on teave ette nähtud desinformeerima.

Võin teile öelda, et praegu on kell 10 öösel, mis oletame, et see on vale, sest kell on tõesti südaöö. Kui ma oleksin teile aimdusena öelnud, et kell on 10, ega oleks püüdnud olla petlik, siis me tavaliselt ütleksime, et olen teid valesti teavitanud. Olin edastanud valeinformatsiooni. Võib-olla olin ma laisk või võib-olla tõesti uskusin, et kell on 10. Teisest küljest, kui ma oleksin maininud kella 10, kuna tahtsin teid meelega petta ja arvata, et kell on 10 ja ma teadsin, et kell on tegelikult südaöö, siis võib öelda, et see on desinformatsiooni vorm. .

Üldise teabe üks tähelepanuväärne aspekt on see, et tavaliselt suudame teavet levitada ja seega võib teave muutuda mõnevõrra laialdaseks. Info võib laiemas mõttes voolata nagu vesi.

Ma ütlen teile, et kell on 10 öösel. Nüüd on teil see konkreetne teave. Võite lähedal asuvatele inimestele valjusti karjuda, et kell on 10 öösel. Nüüd on neil ka sama teave. Võib-olla võtavad mõned neist inimestest oma mobiiltelefoni ja helistavad teistele, et öelda, et kell on 10. Kokkuvõttes saab teavet levitada või jagada ja mõnikord nii kiiresti, kui teistel juhtudel nii aeglaselt.

Teatud mõttes võite väita, et teave võib levida.

On väljamõeldud sõna või terminoloogia, mida te pole võib-olla eriti näinud ega kasutanud ja mis aitab kirjeldada seda nähtust, kus teave levib. See sõna on infodeemiline. See sõna on segu nii teabest kui ka epideemiast. Üldiselt seostatakse infodeemiat asjaoludega, mis hõlmavad desinformatsiooni või desinformatsiooni levikut. Arvatakse, et vale või eksitav teave võib soovimatult levida sarnaselt haiguse või haiguste soovimatu levikuga.

Näites kella kümnest öösel oli see näiline fakt infokild, mis levitati lähedalasuvale inimgrupile. Nemad omakorda levitavad fakti teistele. Kui kell 10 oli võlts, levitati seda desinformatsiooni või desinformatsiooni paljudele teistele. Nad ei pruugi teada, et teave oli desinformatsioon või võib-olla desinformatsioon.

Usun, et kõik need määratlused ja põhialused tunduvad mõistlikud ning olete siiani asjaga seotud.

Suurepärane, jätkame.

Olen teid pisut vargsi juhatanud millessegi, mis köidab palju lummamist ja ka ängi. Sisu on selles, et selle vahel, mida haigused viiruslikult tekitavad, ja selle vahel, mida desinformatsioon või desinformatsioon viiruslikult teeb, on vaieldamatult mõistlikud paralleelid.

Kõik ei nõustu nende väidetavate paralleelidega. Sellest hoolimata on need intrigeerivad ja väärivad tähelepanu.

Lubage mul täpsustada.

Näete, võime püüda kasutada käepärast analoogiat, mis viitab inimeste poolt levivatele haigustele ja haigustele, mis levivad, tehes seda selleks, et võrrelda sarnast võimalust valeinformatsiooni ja desinformatsiooni levikuga. Haiguste leviku peatamiseks saame püüda varakult avastada ja püüda ohjeldada esilekerkivat haigestunud allikat, mis viitab haiguse võimalikule levikule. Teine viis leviva haigusega toimetulemiseks oleks maski või kaitsevarustuse mõistliku kasutamise kaudu vältida selle nakatumist. Kolmas lähenemisviis võiks hõlmata vaktsineerimist, et proovida ja tugevdada haigusega seotud immuunsust.

Oleme nüüdseks jõudnud täisringi, kuna neid samu lähenemisviise haigustega toimetulemiseks võib otseselt võrrelda valeinformatsiooni ja desinformatsiooniga tegelemisega. Mainisin varem, et käimas on samalaadsed jõupingutused tehisintellekti kasutamiseks, et püüda toime tulla desinformatsiooni ja valeinformatsiooniga, eriti (nagu varem mainitud):

  • Peatuge Get-Go juures: Tehisintellekti saab kasutada desinformatsiooni ja desinformatsiooni tuvastamiseks ja selle eemaldamiseks enne, kui see lahti läheb
  • Filter enne nägemist: Tehisintellekti saab kasutada desinformatsiooni ja valeinformatsiooni filtreerimiseks, nii et te ei peaks selle nägemise pärast muretsema
  • Valmistage teid immuunseks: Tehisintellekti saab kasutada selleks, et tugevdada teie valmisolekut ja võimet võidelda desinformatsiooni ja desinformatsiooniga (mida ametlikult tuntakse teatud tüüpi psühholoogilise pookimise pakkumisena)
  • Muu

Kolmas aspekt pakub siin kõige rohkem huvi.

Siin on asi.

Teame, et haigused tabavad tavaliselt Inimkeha. Väärinformatsiooni ja desinformatsiooni esinemise analoogia põhjal võiksime oletada, et ebasobiv teave tabab inimest inimese mõistus. Jah, arvatavasti võite kokku puutuda desinformatsiooniga või desinformatsiooniga, mis teie meeltesse voolab. Desinformatsioon või desinformatsioon võib teie mõtteviisi rikkuda või mürgitada.

Inimkeha saab vaktsineerida, et proovida end ette valmistada haigustega kokkupuutumiseks. Tekib suur küsimus, kas me saame sama teha ka inimmõistuse heaks. Kas on võimalik proovida mõistust pookida nii, et kui desinformatsioon või desinformatsioon sulle pähe tuleb, siis oled selleks valmis ja oled vastavalt pookinud?

Õppevaldkond, mida tuntakse kui psühholoogiline pookimine oletab, et mõistust saab tõepoolest nakatada selles mõttes, et ollakse valmis käsitlema valeinformatsiooni või desinformatsiooni.

Mõelge sellele kirjeldusele hiljutises uurimuses, mis käsitleb psühholoogilist pookimist ja seda, mida mõnikord nimetatakse tegevuseks eelpankamine:

  • „Väärteabe paljastamine on samuti problemaatiline, kuna desinformatsiooni parandamine ei tühista alati selle mõju täielikult, seda nähtust nimetatakse jätkuva mõju efektiks. Sellest lähtuvalt, erinevalt paljastamisest, on eelnev paljastamine saavutanud tähtsuse vahendina, mis võimaldab ennetavalt suurendada vastupanuvõimet väärinformatsiooniga kokkupuutumise suhtes. See lähenemisviis põhineb tavaliselt inokuleerimise teoorial. Inokulatsiooniteooria järgib meditsiinilise immuniseerimise analoogiat ja eeldab, et soovimatute veenmiskatsete vastu on võimalik luua psühholoogiline vastupanu, sarnaselt sellele, nagu meditsiinilised pookid loovad füsioloogilise resistentsuse patogeenide vastu.Teadus ettemaksed, 24. august 2022, kaasautorid Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje ja Stephan Lewandowsky „Psühholoogiline pookimine parandab vastupanuvõimet valeinformatsiooni vastu sotsiaalmeedias”.

Tulles tagasi minu näite juurde kella 10 ajal öösel, oletame, et ma olen teile varem öelnud, et mõnikord ei ole väidetav aeg tegelik aeg. Edaspidi on teil vaktsineerimisviis, et olla väidetavate aegade suhtes ettevaatlik. See pookimine on valmistanud teid kokku puutuma väidetavate aegadega, mis on desinformatsioon või valeinformatsioon.

Kui ma oleksin teid mitu aastat tagasi hoiatanud, et väidetavad ajad ei ole tegelikud ajad, on tõenäoline, et te ei pruugi sellele ammusele hoiatusele mõelda. Seega on varasem pookimine (kas ütleme) kulunud. Minu pookimine teile võib olla vaja tugevdada.

Samuti on võimalus, et pookimine ei olnud piisavalt spetsiifiline, et saaksite seda vajadusel kasutada. Kui ma oleksin teid aastaid tagasi hoiatanud väidetavate aegade ja tegelike aegade eest, võib see olla liiga ulatuslik. Pookimine ei pruugi toimida konkreetsel juhul, kui teile teatatakse umbes kell 10. Selles mõttes oleks minu arvates pidanud võib-olla olema ettevaatlik, kui kasutatakse väidetavat kellaaega 10 tundi. Loomulikult on haiguste puhul pookimine mõneti sama, olles kohati väga spetsiifiline teadaolevatele vaevustele, teistel juhtudel aga laia spektriga.

Columbia ülikoolist pärit William McGuire'i 1961. aastal viidatud psühholoogilise inokuleerimise kohta tehtud uurimust peetakse tänapäeval üldiselt selle õppevaldkonna klassikaks. Teid võivad huvitada järgmised peamised punktid, mille ta tookord välja tõi:

  • "Selline üldine immuniseerimine võib tuleneda kahest mehhanismist. Eelnev kokkupuude võib inimest šokeerida, mõistma, et "tõesed", millega ta on alati nõustunud, on tõepoolest haavatavad, provotseerides teda oma veendumuste eest kaitsma, mille tulemusena on ta vastupidavam tugevatele vastuargumentidele, kui need tulevad. Alternatiivina võivad eelekspositsiooniga seotud ümberlükkamised muuta kõik hiljem esitatud vastuargumendid selle veendumuse vastu vähem muljetavaldavaks (William McGuire, „Resistance to Persuasion Conferred By Active and Passive Preor Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Sotsiaalpsühholoogia, 1961).

Kas see inokuleerimise ja immuniseerimise analoogia on teie arvates kasulik ja tabav võrdlus desinformatsiooni ja desinformatsiooni valdkonnaga?

Mõned teevad, mõned mitte.

Selle arutelu jaoks nõustuge, et eeldus on mõistlik ja sobiv.

Kuidas me proovime inimeste meelt nakatada või immuniseerida?

Võiksime panna inimesi lugema raamatuid, mis võiksid nende meelt valgustada. Võime neile sellest rääkida või lasta neil videoid vaadata või helikassette kuulata. Jne.

Ja me võime sama tegemiseks kasutada AI-d.

Teie inokulaatoriks võidakse välja töötada AI-süsteem. Iga kord, kui hakkate veebi kasutama, näiteks Internetti vaatama, võib AI-põhine rakendus teid võrguteekonnaks ette valmistada. Tehisintellekt võib anda teile väikese koguse desinformatsiooni, mis on selliseks märgistatud, võimaldades teil mõista, et hakkate nägema midagi, mis on tahtlikult vale.

Selle tehisintellektist toidetud desinformatsiooniga kokku puutudes on teie mõistus nüüd valmis toime tulema desinformatsiooniga või valeinformatsiooniga, mida võite Internetis looduses kohata. Teie meel on valmis. Voila, näete Internetis ajaveebi, mis pakub väidetavat tõsiasja, et Marsi tulnukad on juba siin maa peal ja peidavad end silmapiiril, kuid teie mõistus lükkab selle näilise desinformatsiooni või valeinformatsiooni eelneva inokuleerimise tõttu kergesti tagasi (noh, siis võib-olla on see tõsi ja nad on tõesti siin!).

Igatahes loodan, et suudate nüüd aru saada, kuidas AI võib aidata inimesi desinformatsiooni või valeinformatsiooni suhtes nakatada või immuniseerida.

Arendatakse erinevaid AI-rakendusi, mis toimivad desinformatsiooni või desinformatsiooni inokulaatoritena. Tehisintellekt võib püüda pakkuda laiaulatuslikku pookimist, mis annab üldise immuniseerimise sarnasuse. AI võiks välja töötada ka spetsiifilisemate pookimise vormide jaoks. Lisaks võib AI töötada isikupärastatud alusel, mis on kohandatud teie konkreetsetele vajadustele või huvidele. Täiustatud tehisintellekt selles ruumis püüab nn immuniseerimisvõtete koostamisel ja esitamisel määrata ka teie taluvustaseme, vaimse neeldumismäära, säilitusvõime ja muid tegureid.

Tundub päris käepärane.

AI kui ohtlike mõttemängude mängija

Sel viisil kasutatav AI tunduks esmapilgul üsna mugav (hei, ma mainisin seda just sekund tagasi).

Seal on hulk võimalikke varjukülgi ja probleeme, mis on murettekitavad ja võib-olla hirmutavad.

Oma veergudel käsitlen sageli tehisintellekti kahesuguse kasutusega võimalusi, vt näiteks link siin. AI võib olla inimkonna elutähtis panus. Kahjuks on AI-d koormatud ka paljude ohtude ja kahetsusväärsete lõksedega.

AI kui juurutaja puhul vaatleme neid demonstratiivseid tehisintellekti eetikaga seotud probleeme:

  • Inimeste poolt põhjustatud kõrvaltoimed
  • Inimeste mittereageerivad reaktsioonid
  • AI ekslik sihtimine
  • AI alasihtimine
  • AI küberrikkumine
  • Muu

Uurime lühidalt neid probleeme.

Inimeste poolt põhjustatud kõrvaltoimed

Oletame, et inimesel, kes saab sellist tehisintellektil põhinevat pookimist, on kõrvaltoime või see avaldab kahjulikku mõju.

Inimene võib immuniseerimist valesti mõista ja äkitselt muutuda vastuvõtmatuks mis tahes saadud teabele. Nad blokeerivad kogu teabe. Tehisintellekt on neid kuidagi ajendanud last vanniveega välja viskama (vana ütlus, võib-olla tasub pensionile minna). Selle asemel, et lihtsalt desinformatsiooni ja valeinformatsiooniga toime tulla, on inimene sellele reageerinud, otsustades, et kogu teave on alati vale.

Ma arvan, et me ei taha, et inimesed nii üle parda läheksid.

On palju kõrvaltoimeid, mida AI võib soodustada. See on osaliselt tingitud sellest, kuidas tehisintellekt üritas nakatada, kuid ka osa probleemist tuleb asetada pookimise saanud inimese jalge ette. Nad võisid reageerida metsikul või veidral viisil, mida teised, kes said sama AI-pooki, seda ei teinud.

Jällegi võite seda võrrelda haigustega pookimise analoogiaga.

Lühidalt öeldes on oluline, et kui selliseid tehisintellekti jõupingutusi kasutatakse, tehakse neid vastutustundlikul viisil, mille eesmärk on minimeerida kahjulikke mõjusid. AI-l peaks olema ka järg, et teha kindlaks, kas kõrvaltoime on ilmnenud. Kui tuvastatakse kõrvaltoime, tuleks välja töötada tehisintellekt, mis aitaks isikut tema kõrvalreaktsioonil ning püüaks reaktsioonist üle saada või seda leevendada.

Inimeste mittereageerivad reaktsioonid

Teine võimalus on see, et tehisintellektiga toidetud pookimine ei mõjuta vastuvõtvat isikut.

Inimene saab AI-põhise pookimise, mis on seotud desinformatsiooni või desinformatsiooniga. Kui enamik inimesi "saab selle kätte" ja vaktsineeritakse, on kindlasti inimesi, kes ei reageeri üldse. Nad ei õpi pookimisest midagi. Nad ei reageeri AI katsele immuniseerida neid kas kogu või teatud tüüpi desinformatsiooni või desinformatsiooni eest.

Taaskord on see võrreldav haiguste vaktsiinidega.

AI tuleks välja töötada sellise olukorraga võitlemiseks.

AI vale sihtimine

Kujutage ette, et tehisintellekt loodab inimesi immuniseerida teatud teemal, mida me ütleme teemaks X, kuid selgub, et selle asemel käsitletakse teemat Y. AI sihib valesti.

See on kahekordne probleem. Esiteks ei ole teemat X käsitletud kui tehisintellekti inokulaatori oletatavat ja loodetud eesmärki. Teiseks käsitletakse teemat Y, kuid me poleks võib-olla tahtnud, et inimesi sellel teemal vaktsineeritaks.

Oops.

Küsimusi on palju. Kas seda oleks saanud ära hoida? Kui see juhtub, kas saame Y immuniseerimise teema tühistada? Kas me saame püüda käsitleda teemat X pookimine või on inimene tehisintellekti algse eksliku sihtimise tõttu vähem vastuvõtlik või mittevastuvõtlik?

Tekib palju probleemseid muresid.

AI alasihtimine

Tehisintellekt pakub pookimist teemal Z. Inokulatsiooni saanud inimestel näib olevat minimaalne või peaaegu tühine reaktsioon. Inokulatsioonist ei piisa, et kinni pidada.

Teil võib tekkida kiusatus kiiresti väita, et see on kergesti lahendatav. Kõik, mida pead tegema, on nakatamist korrata. Võibolla jah võibolla ei.

Tehisintellekti pookimine võib olla nii piiratud väärtusega, et hoolimata sellest, kui inimesed seda sada korda kogevad, on tulemus siiski marginaalne. Võimalik, et peate pookimist lihtsalt kordamise asemel võimendama.

Kujutage ette, et tehisintellektiga toidetud pookimist üritatakse tõhustada, kuid see läheb üle piiri. Võimendatud versioon põhjustab hüperreaktsioone. Jah, me oleme muutunud halvemast olukorrast hullemaks.

AI küberrikkumine

Kujutage ette, et tehisintellekti kasutatakse laialdaselt, et aidata inimestel end desinformatsiooni ja desinformatsiooni vastu nakatada.

Inimeste seas valitseb üldine sõltuvus. Nad teavad ja ootavad, et tehisintellekt esitab neile katkendeid, mis avavad nende silmad desinformatsioonile ja desinformatsioonile.

Tundub, et kõik on hästi ja hästi.

Kurjategija suudab mingil moel teha tehisintellekti kübermurde. Nad suruvad tehisintellektile hiilivalt peale soovitud desinformatsiooni, mida nad tahavad, et inimesed arvaksid, et see pole desinformatsioon. AI on loodud nii, et tegelik desinformatsioon näib olevat tõene. Samuti pannakse tõene teave näima desinformatsioonina.

Inimesed on täiesti snuukris. AI on neid desinformeerinud. Lisaks sellele, kuna nad olid muutunud tehisintellektist sõltuvaks ja kuna nad uskusid, et tehisintellekt teeb õiget asja, langevad nad selle rikutud tehisintellekti pärast konksu, nööri ja uppuma. Ilma kõhkluseta.

Arvestades, kui kergesti võib desinformatsioon edasi levida, võib kurjategijale meeldida, et seda tüüpi tehisintellekti olemasolu on nende lihtsaim ja kiireim viis oma salakavalate valede üle maailma levima panna. Irooniline on muidugi see, et olen kasutanud AI inokulaatorit haiguse sisuliseks levitamiseks.

Järeldus

Kas AI peaks meiega mõttemänge mängima?

Kas desinformatsiooni ja valeinformatsiooni pookimise AI võib olla ähvardav Trooja hobune?

Sellise õudusunenäo pärast muretsemiseks võite esitada sisulise põhjenduse.

Teised irvitavad sellise võimaluse üle. Inimesed on piisavalt targad, et teada saada, millal AI üritab neid petta. Inimesed ei lange sellise tilgutamise peale. Ainult idioodid võivad end sellise tehisintellektiga eksitada. Need on tavalised repliigid ja vastuargumendid.

Tahtmata näida, et imetleb täielikult inimesi ja inimloomust, pakun vaid, et on palju viiteid selle kohta, et inimesed võivad sattuda AI-sse, mis neid eksitab.

Võib-olla on selle kõige kohal veelgi suurem probleem.

Kes teeb tehisintellekti ja kuidas AI algoritmiliselt otsustab, mida peetakse desinformatsiooniks ja desinformatsiooniks?

Tänapäeval toimub maailmas laiemalt terve tulevahetus selle üle, mis on konkreetselt desinformatsioon ja desinformatsioon. Mõned väidavad, et faktid on faktid, seega ei saa kunagi tekkida segadust selle üle, mis on õige ja vale teave. Kuigi mõnikord peitub kurat detailides, on see päris kindel.

Hetkel viimane märkus. Abraham Lincoln on kuulus öelnud: „Sa võid lollitada kõiki inimesi ja osa inimesi kogu aeg, aga sa ei saa lollitada kõiki inimesi kogu aeg.”

Kas tehisintellekt, mida kasutatakse inimkonna desinformatsiooni ja desinformatsiooni nakatamiseks, on oluline vahend tagamaks, et kõiki inimesi ei saaks kogu aeg lollitada? Või võib seda kasutada suurema osa inimeste lollitamiseks?

Aeg näitab.

Ja see pole kindlasti desinformatsioon ega desinformatsioon.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/