Kui kõvasti peaksime Generatiivset AI ChatGPT-d vaenu õhutama, küsib tehisintellekti eetikat ja AI seadust

Igaühel on oma murdepunkt.

Ma arvan, et võite ka seda öelda kõik on oma murdepunkt.

Me teame, et näiteks inimesed võivad mõnikord napsata ja lausuda märkusi, mida nad ei taha tingimata öelda. Samuti võite mõnikord panna seadme või masina sisuliselt plõksuma, näiteks surudes oma autot liiga tugevalt ja see hakkab loksuma või laiali lendama. Seega arvatakse, et inimestel või "kõigil" on tõenäoliselt murdepunkt, ja samamoodi võime väita, et ka esemetel ja asjadel üldiselt on murdepunkt.

Võib olla üsna mõistlikke ja elulisi põhjuseid, et teha kindlaks, kus murdepunkt on. Näiteks olete kahtlemata näinud neid videoid, mis näitavad, kuidas auto liigub läbi, et tuvastada, millised murdepunktid sellel on. Teadlased ja testijad rammivad auto telliskiviseina, et näha, kui hästi kaitseraua ja sõiduki konstruktsioon kahjulikele mõjudele vastu peavad. Muud testid võivad hõlmata spetsiaalse ruumi või lao kasutamist, mis toodab äärmist külma või äärmist kuumust, et näha, kuidas auto erinevates ilmastikutingimustes hakkama saab.

Tõstan selle südamliku teema tänases veerus, et saaksime arutleda selle üle, kuidas mõned pingutavad praegu tehisintellekti (AI) nimel, et tuvastada ja oletatavasti paljastada teatud tüüpi murdepunkt, nimelt vihakõnet tekitav AI murdepunkt.

Jah, see on õige, tehakse mitmesuguseid ad hoc ja mõnikord süstemaatilisi jõupingutusi, et hinnata, kas tehisintellekti on võimalik vihakõnet levitama panna või mitte. Sellest on saanud innukas spordiala, kui soovite, tänu kasvavale huvile ja populaarsusele generatiivse AI vastu.

Võib-olla olete teadlik, et generatiivne tehisintellekti rakendus, mida tuntakse ChatGPT nime all, on muutunud linna suureks jutuks tänu sellele, et see suudab luua hämmastavalt ladusaid esseesid. Pealkirjad hüüavad pidevalt ja ülistavad hämmastavat kirjutist, mida ChatGPT suudab koostada. ChatGPT-d peetakse generatiivseks AI-rakenduseks, mis võtab sisendiks mõne kasutaja teksti ja seejärel genereerib või toodab esseest koosneva väljundi. AI on tekstist tekstiks generaator, kuigi ma kirjeldan AI-d kui teksti esseeks generaatorit, kuna see selgitab paremini, milleks seda tavaliselt kasutatakse.

Paljud on üllatunud, kui mainin, et seda tüüpi tehisintellekt on juba mõnda aega kasutusel olnud ja et novembri lõpus välja antud ChatGPT ei võtnud millegipärast auhinda kui tekstist esseeks muutmise valdkonda esimene liikuja. kalduvus. Olen aastate jooksul arutanud teisi sarnaseid generatiivseid AI-rakendusi, vaadake minu kajastust aadressil link siin.

Põhjus, miks te ei pruugi generatiivse AI varasemaid juhtumeid teada ega mäletada, on võib-olla tingitud klassikalisest "edukalt käivitamise ebaõnnestumisest". Siin on see, mis tavaliselt juhtus. AI tegija annab välja oma generatiivse AI-rakenduse, tehes seda suure põnevusega ja innukalt, et maailm hindab parema hiirelõksu leiutamist. Esialgu tundub kõik hea. Inimesed on üllatunud, mida AI suudab teha.

Paraku on järgmine samm see, et vanasõnabussil hakkavad rattad maha tulema. AI koostab essee, mis sisaldab roppu sõna või võib-olla ka roppu fraasi. Viiruslik säuts või muu sotsiaalmeedia postitus rõhutab selgelt, et AI tegi seda. Tekib hukkamõist. Me ei saa lasta tehisintellektil ringi käia ja solvavaid sõnu või solvavaid märkusi genereerida. Ilmub tohutu vastureaktsioon. AI tegija võib-olla püüab AI sisemist tööd muuta, kuid algoritmide ja andmete keerukus ei võimalda kiireid lahendusi. Tekib torm. Üha rohkem näiteid tehisintellektist, mis kiirgab roppusi, leitakse ja postitatakse veebis.

AI tegijal ei ole vastumeelselt, kuid ilmselgelt muud valikut, kui AI rakendus kasutusest eemaldada. Nad tegutsevad sellisena ja paluvad sageli vabandust, et kahetsevad, kui loodud tehisintellekti väljundid kedagi solvasid.

Tagasi joonestuslaua juurde, läheb tehisintellekti tegija. Õppetund on saadud. Olge väga ettevaatlik generatiivse tehisintellekti vabastamisel, mis tekitab roppusi sõnu või muud sarnast. See on AI jaoks surma suudlus. Veelgi enam, tehisintellektitootja maine rikutakse ja rikutakse, mis võib kesta kaua ja kahjustada kõiki nende muid tehisintellekti jõupingutusi, sealhulgas neid, millel pole generatiivse AI-ga iseenesest midagi pistmist. Oma petardi solvava tehisintellekti keele levitamine on praegu kestev viga. Ikka juhtub.

Peske, loputage ja korrake.

Seda tüüpi tehisintellekti esimestel päevadel ei olnud tehisintellekti tegijad nii kohusetundlikud ega vilunud oma tehisintellekti puhastamisel, püüdes vältida solvavaid emissioone. Tänapäeval, pärast seda, kui nad olid varem näinud oma eakaaslasi avalike suhete õudusunenäost täielikult purunemas, sai enamik AI tegijaid ilmselt sõnumi kätte. Peate paika panema nii palju kaitsepiirdeid kui võimalik. Püüdke takistada AI-l roppude sõnade või fraaside väljastamist. Kasutage mis tahes summutustehnikaid või filtreerimismeetodeid, mis takistavad tehisintellektil ebasoovitavate sõnade või esseeside genereerimist ja kuvamist.

Siin on maitse bänneri pealkirja sõnasõnast, mida kasutatakse juhul, kui tehisintellekt on tabatud halva mainega väljundi väljastamisel:

  • "AI näitab kohutavat toksilisust"
  • "AI haiseb otsese fanatismi järele"
  • "AI muutub ilmselgelt solvavaks solvavaks"
  • "AI levitab kohutavat ja ebamoraalset vihakõnet"
  • Jne

Arutelu hõlbustamiseks pean ma solvava sisu väljastamist võrdväärseks vaenu õhutamise. Sellegipoolest pidage meeles, et on võimalik toota igasugust solvavat sisu, mis ületab ainuüksi vihakõne piirid. Viha õhutamist tõlgendatakse tavaliselt vaid ühe solvava sisu vormina.

Arutelu hõlbustamiseks keskendume selles arutelus vihakõnele, kuid mõistke, et ka muu solvav sisu väärib kontrolli.

Inimeste ja tehisintellekti vihakõne uurimine

ÜRO määratleb vaenu õhutamise nii:

  • "Tavakeeles viitab "vihakõne" solvavale diskursusele, mis on suunatud grupile või indiviidile oma olemuslike tunnuste (nagu rass, religioon või sugu) alusel ja mis võib ohustada sotsiaalset rahu. Et luua Ühinenud Rahvaste Organisatsioonile ühtne raamistik probleemi ülemaailmseks käsitlemiseks, määratleb ÜRO vaenukõne strateegia ja tegevuskava vihakõne kui "mis tahes suhtlust kõnes, kirjas või käitumises, mis ründab või kasutab halvustavat või diskrimineerivat keelt. viide isikule või rühmale selle põhjal, kes nad on, teisisõnu nende usutunnistuse, etnilise kuuluvuse, rahvuse, rassi, nahavärvuse, päritolu, soo või muu identiteediteguri alusel. Rahvusvahelises inimõigusseaduses ei ole aga siiani universaalset vihakõne definitsiooni. Kontseptsioon on endiselt arutlusel, eriti seoses arvamus- ja sõnavabaduse, mittediskrimineerimise ja võrdsusega” (ÜRO veebisaidi postitus pealkirjaga “Mis on vihakõne?”).

Teksti tootv tehisintellekt võib sattuda vihakõne sfääri. Sama võiks öelda tekstist kunstiks muutmise, teksti heliks muutmise, teksti videoks muutmise ja muude generatiivse AI režiimide kohta. Alati on näiteks võimalus, et generatiivne tehisintellekt toodab kunstiteose, mis lõhnab vihakõne järele. Selle arutelu jaoks keskendun ma tekstist tekstiks või tekst esseeks muutmise võimalustele.

Selle kõige juurde kuulub hulk tehisintellekti eetikat ja tehisintellektiseadust puudutavaid kaalutlusi.

Pidage meeles, et tehisintellekti eetiliste põhimõtete juurutamiseks tehisintellekti rakenduste arendamisse ja kasutuselevõttu tehakse pidevalt jõupingutusi. Üha suurem kontingent murelikke ja endisi tehisintellekti eetikuid püüab tagada, et tehisintellekti väljatöötamisel ja kasutuselevõtul võetaks arvesse AI heaks ja ärahoidmine AI For Bad. Samuti on välja pakutud uusi tehisintellekti seadusi, mida püütakse potentsiaalsete lahendustena hoida, et tehisintellekti püüdlused ei läheks inimõiguste ja muu sarnase küsimuses räigeks. Minu jätkuvat ja ulatuslikku AI eetikat ja tehisintellektiseadust käsitlevat ülevaadet vt link siin ja link siin, Ainult mõned nimed.

Teostatakse eetiliste tehisintellekti ettekirjutuste väljatöötamist ja levitamist, et loodetavasti vältida ühiskonna sattumist arvukatesse tehisintellekti esilekutsuvatesse lõksudesse. Minu ülevaate saamiseks ÜRO tehisintellekti eetika põhimõtetest, mille on välja töötanud ja toetanud ligi 200 riiki UNESCO jõupingutuste kaudu, vt. link siin. Sarnaselt uuritakse uusi tehisintellekti seadusi, et hoida tehisintellekti ühtlasel tasemel. Üks viimastest võtetest koosneb pakutavatest AI Bill of Rights mille USA Valge Maja avaldas hiljuti inimõiguste kindlakstegemiseks tehisintellekti ajastul, vt link siin. Vaja on küla, et hoida tehisintellekti ja tehisintellekti arendajaid õigel teel ning hoida ära sihipärased või juhuslikud alataolised jõupingutused, mis võivad ühiskonda kahjustada.

Põimun tehisintellekti eetika ja tehisintellekti seadustega seotud kaalutlused sellesse arutelusse vihakõne või muu solvava sisu levitamise üle tehisintellektiga.

Üks segadus, mille tahaksin kohe selgeks teha, on see, et tänapäeva tehisintellekt ei ole tundlik ja seetõttu ei saa te väita, et tehisintellekt võib tekitada vihakõnet sihipärase inimsarnase kavatsuse tõttu, mis on kuidagi AI-s hingeliselt kehastatud. Liiguvad lollid väited, et praegune tehisintellekt on tundlik ja et tehisintellektil on rikutud hing, mistõttu see tekitab vihakõnet.

Naeruväärne.

Ära lange selle poole.

Arvestades seda nurgakivi ettekirjutust, ärrituvad mõned selliste märkide peale, kuna näib, et lasete tehisintellektil konksust lahti. Selle veidra mõtteviisi kohaselt tuleb järgmisena manitsus, et olete ilmselt nõus, et tehisintellekt genereeriks igasuguseid jubedaid väljundeid. Pooldate tehisintellekti, mis levitab vihakõnet.

Jep, ebaloogika üsna väänatud vorm. Asja põhiolemus seisneb selles, et peame vastutama tehisintellekti tegijad, samuti need, kes tehisintellektiga tegelevad või tehisintellekti haldavad. Olen pikalt arutanud, et me ei ole veel juriidilise isiku staatuse loovutamise juures tehisintellektile, vaadake minu analüüse aadressil link siin, ja kuni selle ajani on AI sisuliselt väljaspool juriidilist vastutust. Siiski on inimesi, kes on AI arengu aluseks. Lisaks on AI väljatöötamise ja toimimise aluseks inimesed. Me võime neile inimestele jälitada, sest nad kannavad vastutust nende tehisintellekti eest.

Kõrvale võib öelda, et ka see võib olla keeruline, eriti kui tehisintellekt levib Internetti ja me ei suuda kindlaks teha, milline inimene või inimesed seda tegid. See on teine ​​teema, mida olen käsitlenud oma veergudel aadressil link siin. Keeruline või mitte, me ei saa siiski kuulutada, et tehisintellekt on süüdi. Ärge laske inimestel varjatult kasutada vale antropomorfiseerimist, et end varjata ja põgeneda vastutusest selle eest, mida nad on teinud.

Tagasi käsiloleva asja juurde.

Võib tekkida küsimus, miks kõik AI tegijad lihtsalt ei piira oma generatiivset tehisintellekti nii, et tehisintellektil on võimatu vihakõnet tekitada. See tundub lihtne-peasy. Kirjutage lihtsalt kood või koostage vihkamist tekitavate sõnade kontrollnimekiri ja veenduge, et tehisintellekt ei loo kunagi midagi sellist. Võib-olla tundub uudishimulik, et tehisintellekti tegijad ei mõelnud sellele kiirele lahendusele.

Noh, ma ei taha teile seda öelda, kuid vihkamiskõne mõistmise keerukus on palju raskem, kui võite arvata.

Muutke see inimeste valdkonda ja kuidas inimesed omavahel vestlevad. Oletagem, et teil on inimene, kes soovib vältida vihakõnet. See inimene on vihakõnest väga teadlik ja loodab siiralt vältida sõna või fraasi väljaütlemist, mis võiks kujutada endast vihakõnet. See inimene on järjekindlalt meeles, et ta ei lase vihakõnel oma suust välja pääseda.

Kas see inimene, kellel on aju ja keda hoiatatakse vihakõne vältimise eest, suudab alati ja ilma libisemisvõimaluseta olla raudkindel, et nad ei levita kunagi vihakõnet?

Teie esimene impulss võib olla öelda, et jah, muidugi, valgustunud inimene suudab selle eesmärgi saavutada. Inimesed on targad. Kui nad millegi peale mõtlevad, saavad nad sellega hakkama. Periood, loo lõpp.

Ära ole nii kindel.

Oletame, et ma palun sellel inimesel mulle vihakõnest rääkida. Lisaks palun neil tuua mulle näide vihakõnest. Ma tahan näha või kuulda näidet, et saaksin teada, millest vihakõne koosneb. Minu põhjused selle küsimiseks on üle parda.

Mida peaks inimene mulle ütlema?

Ma arvan, et näete lõksu, mis on pandud. Kui inimene toob mulle näite vihakõne kohta, sealhulgas tegelikult ropu sõna või fraasi väljaütlemisest, on ta ise nüüd vihkamist õhutanud. Bam, me saime need kätte. Kuigi nad lubasid, et ei ütle kunagi vihakõnet, on nad seda nüüd teinud.

Ebaõiglane, hüüate! Nad ütlesid seda sõna või neid sõnu ainult selleks, et tuua näidet. Oma südames ei uskunud nad sõna ega sõnadesse. On täiesti kontekstist väljas ja ennekuulmatu kuulutada, et inimene on vihkav.

Olen kindel, et näete, et vaenu õhutamine ei pruugi olla tingitud vihkamisest. Eeldades, et isik ei mõelnud antud sõnu, vaid luges neid sõnu ette vaid demonstreerimise eesmärgil, nõustuksime sellel kasutusjuhul ilmselt sellega, et ta ei tahtnud vihakõnet õhutada. Muidugi on mõned, kes võivad väita, et vihakõne avaldamine, olenemata põhjusest või alusest, on siiski vale. Isik oleks pidanud taotluse tagasi lükkama. Nad oleksid pidanud oma seisukohtadele kindlaks jääma ja keelduma ütlemast vihakõne sõnu või fraase, hoolimata sellest, miks või kuidas neil seda palutakse.

See võib muutuda mõnevõrra ringikujuliseks. Kui te ei saa öelda, mis on vihakõne, siis kuidas saavad teised teada, mida vältida, kui nad mistahes avaldused teevad? Tundub, et oleme ummikus. Te ei saa öelda seda, mida ei tohi öelda, ega keegi teine ​​ei saa teile öelda, mida ei saa öelda.

Tavaline viis sellest dilemmast mööda minna on kirjeldada teiste sõnadega seda, mida peetakse vihakõneks, tehes seda ilma vihakõne sõnu ise esile kutsumata. Usutakse, et üldise näidustuse andmisest piisab, et teavitada teisi sellest, mida nad peavad vältima. See tundub mõistlik taktika, kuid ka sellega on probleeme ja inimene võib siiski sattuda vihakõnet kasutama, sest ta ei tajunud, et laiem määratlus hõlmab nende öeldu üksikasju.

Kõik see puudutab inimesi ja seda, kuidas inimesed üksteisega räägivad või suhtlevad.

Tuletame meelde, et keskendume siin tehisintellektile. Peame panema tehisintellekti vältima või täielikult lõpetama vihakõne levitamise. Võite väita, et me saame seda teha, veendudes, et tehisintellektile ei anta kunagi midagi, mis kujutab endast vihakõnet, ega õpetata seda tegema. Voilaa, kui sellist sisendit pole, siis arvatavasti ka väljundit ei tule. Probleem lahendatud.

Vaatame, kuidas see tegelikkuses välja näeb. Otsustame arvutuslikult lasta AI-rakendusel Internetti minna ja uurida tuhandeid ja tuhandeid Internetti postitatud esseesid ja narratiive. Seda tehes koolitame tehisintellekti arvutuslikult ja matemaatiliselt, kuidas leida inimeste kasutatavate sõnade hulgast mustreid. Nii töötatakse välja uusim generatiivse tehisintellekt, mis on ka oluline alus, miks tehisintellekt näiliselt nii soravalt loob loomulikus keeles esseesid.

Kui saate, öelge mulle, kuidas saaks Internetis miljonitel ja miljarditel sõnadel põhinevat arvutusõpetust läbi viia nii, et mitte ühelgi hetkel ei satuks vihakõne näitlikkust või isegi tükikesi?

Julgen öelda, et see on okkaline ja peaaegu võimatu püüdlus.

On tõenäoline, et AI ja selle arvutuslike mustrite sobitamise võrgustik ahmivad vihakõne. Selle ennetamine on problemaatiline. Lisaks, isegi kui te selle minimeeriksite, võib siiski mõni neist läbi hiilida. Teil ei jää peaaegu muud üle, kui eeldada, et mustrite sobitamise võrgustikus on mõned olemas või et sellise sõnastuse vari kinnistub.

Lisan veel keerdkäike.

Usun, et võime kõik tunnistada, et vihakõne aja jooksul muutub. See, mida võidi tajuda mittevaenu õhutamisena, võib hiljem kultuuriliselt ja ühiskondlikult otsustada kui vihakõne. Seega, kui me treenime oma tehisintellekti Interneti-teksti alal ja oletame siis tehisintellekti külmutamisega, et mitte Internetis täiendkoolitust läbi viia, võisime sel ajal kohata vihakõnet, kuigi tol ajal seda vihakõneks ei peetud. Alles pärast seda võib see kõne kuulutada vihakõneks.

Jällegi on sisuks see, et pelgalt selle probleemi lahendamise püüdmine, tagades, et tehisintellekt ei puutu kunagi vihakõnega kokku, ei ole hõbekuuli. Peame siiski leidma vahendi, et takistada tehisintellektil vihakõnet levitamast näiteks muutuvate kommete tõttu, mis sisaldavad hiljem vihakõnet, mida varem selliseks ei peetud.

Veel üks pööre väärib mõtisklemist.

Mainisin varem, et generatiivse AI (nt ChatGPT) kasutamisel sisestab kasutaja teksti, et innustada tehisintellekti esseed koostama. Sisestatud teksti peetakse AI-rakenduse viipa või viipa vormiks. Selgitan seda hetke pärast lähemalt.

Igal juhul kujutage ette, et keegi, kes kasutab generatiivset tehisintellekti rakendust, otsustab sisestada vihjena teatud hulga vihakõnet.

Mis peaks juhtuma?

Kui tehisintellekt võtab need sõnad vastu ja koostab nende sõnade põhjal essee, on tõenäoline, et vihakõne kaasatakse loodud esseesse. Näete, me panime tehisintellekti ütlema vihakõnet, isegi kui seda pole kunagi alguses vihakõnega õpetatud.

Peate teadma veel midagi.

Pidage meeles, et just mainisin, et inimese võib komistada, kui palute neil tuua näiteid vihakõne kohta. Sama võiks proovida AI-ga. Kasutaja sisestab viipa, mis palub tehisintellektil tuua näiteid vihakõne kohta. Kas tehisintellekt peaks järgima ja esitama selliseid näiteid? Vean kihla, et arvatavasti usute, et AI ei peaks seda tegema. Teisest küljest, kui tehisintellekt on arvutuslikult võltsitud, et seda mitte teha, siis kas see kujutab endast potentsiaalset negatiivset külge, mida tehisintellekti kasutavad inimesed ei saa, ütleme, et tehisintellekt annab neile kunagi juhiseid selle kohta, mis vihakõne tegelikult on ( peale selle üldistamise)?

Rasked küsimused.

Kaldun tehisintellekti poolt levitatud vihakõne kolme peamisesse kategooriasse:

  • Igapäevane režiim. Tehisintellekt levitab vihakõnet ilma kasutaja selgesõnalise tõuketa ja justkui teeks seda "tavalisel" viisil.
  • Casual Proddingi poolt. Tehisintellekt levitab vihakõnet, nagu kasutaja on tema sisestatud viipade või viipade seeria kohta esile kutsunud, mis näib sisaldavat selliseid emissioone või neid otseselt taotleb.
  • Määratud tootmise kohta. Tehisintellekt levitab vihakõnet pärast väga sihikindlat ja kangekaelset seeriat kiireid tõukeid ja tõukeid, mille on teinud kasutaja, kes on valmis panustama tehisintellekti sellist väljundit tootma.

Generatiivse tehisintellekti varasemad põlvkonnad levitasid sageli vihakõnet. seega võite need juhtumid liigitada teatud tüüpi igapäevane režiim instantseerimine. Tehisintellekti tegijad tõmbusid tagasi ja mängisid tehisintellektiga, et vähendada tõenäosust vihakõne tekitamisse sattuda.

Pärast täiustatud tehisintellekti väljalaskmist on tõenäosus seda näha igapäevane režiim vaenu õhutamise juhtumeid on järsult vähenenud. Selle asemel tekib vaenu õhutamine tõenäoliselt ainult siis, kui kasutaja teeb midagi, mis võib arvutuslikult ja matemaatiliselt tekitada seose vihkamisega seotud kõnega mustrite sobitamise võrgus. Kasutaja võib seda teha juhuslikult ega mõista, et see, mida nad esitasid, tekitaks eriti vihakõnet. Pärast essees vaenu õhutamist mõistab kasutaja ja näeb sageli, et miski tema viipast oleks loogiliselt võinud viia vihakõne lisamiseni väljundisse.

See on see, mida ma nimetan juhuslik turgutamine.

Tänapäeval on erinevad jõupingutused tehisintellekti tekitatud vihakõne piiramiseks varasemaga võrreldes suhteliselt tugevad. Seetõttu peate peaaegu kõik endast oleneva andma, et tekitada vihakõnet. Mõned inimesed otsustavad sihilikult uurida, kas nad suudavad nendest generatiivsetest tehisintellektirakendustest välja tuua vihakõne. Ma kutsun seda sihikindel kütmine.

Tahan rõhutada, et kõik kolm näidatud režiimi võivad esineda ja need ei välista üksteist. Generatiivne AI-rakendus võib potentsiaalselt tekitada vihakõnet ilma igasuguse viipeta, mis näib sellist tootmist õhutavat. Samamoodi võib midagi viipast loogiliselt ja matemaatiliselt tõlgendada nii, et see on seotud sellega, miks vihakõne on välja antud. Ja siis kolmas aspekt, mille eesmärk on sihikindlalt tekitada vihakõnet, on režiimidest ehk kõige raskem, mida on võimalik proovida ja lasta tehisintellektil vältida selle täitmist. Sellest hetkeks lähemalt.

Meil on selle peadpööritava teema puhul veel veidi lahti pakkimist.

Esiteks peaksime veenduma, et oleme kõik ühel lehel selle kohta, millest Generative AI koosneb ja mis ChatGPT üldse on. Kui oleme selle põhialuse katnud, saame seda kaalukat asja veenvalt hinnata.

Kui olete Generative AI ja ChatGPT-ga juba küllalt tuttav, võite võib-olla sirvida järgmise jaotise ja jätkata sellele järgneva jaotisega. Usun, et kõik teised leiavad nende asjadega seotud olulisi üksikasju õpetlikuks, lugedes seda jaotist tähelepanelikult ja olles sellega kursis.

Kiire aabits generatiivse AI ja ChatGPT kohta

ChatGPT on üldotstarbeline tehisintellekti interaktiivne vestlusele orienteeritud süsteem, mis on sisuliselt näiliselt kahjutu üldine vestlusbot, kuid inimesed kasutavad seda aktiivselt ja innukalt viisil, mis on paljudele täiesti tähelepanuta, nagu ma peatselt kirjeldan. See AI-rakendus kasutab tehisintellekti valdkonnas tehnikat ja tehnoloogiat, mida sageli nimetatakse Generatiivne AI. AI genereerib väljundeid, näiteks teksti, mida ChatGPT teeb. Teised generatiivpõhised AI-rakendused toodavad pilte, näiteks pilte või kunstiteoseid, teised aga helifaile või videoid.

Keskendun selles arutelus tekstipõhistele generatiivsetele AI-rakendustele, kuna ChatGPT teeb just seda.

Generatiivseid AI-rakendusi on äärmiselt lihtne kasutada.

Kõik, mida pead tegema, on sisestada viip ja AI-rakendus loob teile essee, mis püüab teie viipale vastata. Koostatud tekst jääb mulje, nagu oleks essee kirjutatud inimkäe ja -mõistusega. Kui sisestaksite viipa "Räägi mulle Abraham Lincolnist", pakub generatiivne AI teile essee Lincolni kohta. Seda liigitatakse tavaliselt generatiivseks tehisintellektiks tekst tekstiks või mõni eelistab seda nimetada tekstist esseeks väljund. Nagu mainitud, on generatiivsel tehisintellektil ka teisi viise, nagu tekst kunstiks ja tekst videoks.

Teie esimene mõte võib olla, et see genereerimisvõime ei tundu esseede koostamise seisukohalt nii suur asi. Saate hõlpsasti Internetis veebiotsingut teha ja hõlpsalt leida palju esseesid president Lincolni kohta. Generatiivse tehisintellekti puhul on kicker see, et loodud essee on suhteliselt ainulaadne ja pakub originaalset kompositsiooni, mitte koopiat. Kui prooviksite AI-ga loodud esseed Internetist kuskilt leida, poleks te seda tõenäoliselt avastanud.

Generatiivne AI on eelkoolitatud ja kasutab keerulist matemaatilist ja arvutuslikku sõnastust, mis on loodud veebis kirjalike sõnade ja lugude mustrite uurimisel. Tuhandete ja miljonite kirjalike lõikude uurimise tulemusena võib tehisintellekt välja paisata uusi esseesid ja lugusid, mis on leitu segadus. Lisades erinevaid tõenäosuslikke funktsioone, on saadud tekst treeningkomplektis kasutatuga võrreldes üsna ainulaadne.

Seetõttu on tekkinud kära selle üle, et õpilased võivad väljaspool klassiruumi esseesid kirjutades petta. Õpetaja ei saa pelgalt võtta esseed, mida petlikud õpilased väidavad, et see on nende enda kirjutatud, ja püüda välja selgitada, kas see on kopeeritud mõnest muust veebiallikast. Üldiselt ei leia veebis ühtegi lõplikku olemasolevat esseed, mis sobiks tehisintellekti loodud esseega. Kokkuvõttes peab õpetaja vastumeelselt leppima sellega, et õpilane kirjutas essee originaaltööna.

Täiendavat muret tekitab generatiivne AI.

Üks oluline negatiivne külg on see, et generatiivpõhise AI-rakenduse loodud esseed võivad sisaldada mitmesuguseid valesid, sealhulgas ilmselgelt valesid fakte, eksitavalt kujutatud fakte ja ilmseid fakte, mis on täielikult väljamõeldud. Neid väljamõeldud aspekte nimetatakse sageli vormideks AI hallutsinatsioonid, lööklause, mida ma ei pooldan, kuid kahjuks näib, et see kogub niikuinii populaarset tähelepanu (üksikasjalikku selgitust selle kohta, miks see on närune ja sobimatu terminoloogia, vaadake minu kajastusest aadressil link siin).

Tahaksin selgitada üht olulist aspekti, enne kui selle teemaga seotud asjadesse laskume.

Selle kohta on sotsiaalmeedias olnud mõningaid ülemääraseid väiteid Generatiivne AI kinnitades, et see uusim AI versioon on tegelikult olemas tundlik AI (ei, nad eksivad!). Tehisintellekti eetika ja tehisintellekti seadusega tegelevad inimesed on eriti mures selle laienenud väidete kasvava suundumuse pärast. Võib viisakalt öelda, et mõned inimesed hindavad üle, mida tänapäeva tehisintellekt tegelikult teha suudab. Nad eeldavad, et AI-l on võimalused, mida me pole veel suutnud saavutada. Kahju küll. Veelgi hullem on see, et nad võivad lubada endal ja teistel sattuda rasketesse olukordadesse, kuna eeldatakse, et tehisintellekt on tegutsemisvõimeline tundlik või inimlik.

Ärge antropomorfiseerige tehisintellekti.

Nii toimides satute kleepuvasse ja tüütavasse lõksu, mis eeldab, et tehisintellekt teeb asju, mida ta ei suuda. Nagu öeldud, on generatiivse AI uusim versioon selle võimekuse poolest suhteliselt muljetavaldav. Pidage siiski meeles, et generatiivse AI-rakenduse kasutamisel peaksite pidevalt meeles pidama olulisi piiranguid.

Kui olete huvitatud ChatGPT ja generatiivse tehisintellekti kiiresti kasvavast segadust, olen oma veerus teinud keskendunud sarja, mis võib olla informatiivne. Siin on lühiülevaade juhuks, kui mõni neist teemadest teile huvi pakub:

  • 1) Prognoosid tulevaste generatiivsete tehisintellekti edusammude kohta. Kui soovite teada, mis AI kohta tõenäoliselt 2023. aastal ja pärast seda juhtuma hakkab, sealhulgas generatiivse AI ja ChatGPT tulevased edusammud, lugege minu põhjalikku loendit 2023. aasta ennustustest aadressil link siin.
  • 2) Generatiivne AI ja vaimse tervise nõuanded. Otsustasin vaadata üle, kuidas generatiivset tehisintellekti ja ChatGPT-d kasutatakse vaimse tervise nõustamiseks, mis on tülikas suundumus, vastavalt minu keskendunud analüüsile aadressil link siin.
  • 3) Generatiivse AI ja ChatGPT põhialused. Selles artiklis uuritakse generatiivse tehisintellekti toimimise põhielemente ja süvenetakse eelkõige ChatGPT rakendusse, sealhulgas analüüsitakse uudiseid ja fanfaari. link siin.
  • 4) Õpetajate ja õpilaste vaheline pinge generatiivse AI ja ChatGPT pärast. Siin on viisid, kuidas õpilased kasutavad generatiivset AI-d ja ChatGPT-d kavalalt. Lisaks on õpetajatel selle hiidlainega võitlemiseks mitu võimalust. Vaata link siin.
  • 5) Kontekst ja generatiivne AI kasutamine. Samuti tegin hooajaliselt maitsestatud keeleküsitluse jõuluvanaga seotud konteksti kohta, mis hõlmas ChatGPT-d ja generatiivset AI-d link siin.
  • 6) Generatiivset AI-d kasutavad petturid. Kurjakuulutav on see, et mõned petturid on välja mõelnud, kuidas kasutada generatiivset AI-d ja ChatGPT-d rikkumiste tegemiseks, sealhulgas petukirjade loomiseks ja isegi pahavara jaoks programmeerimiskoodi loomiseks. Vaadake minu analüüsi aadressil link siin.
  • 7) Algaja vead generatiivse AI kasutamisel. Paljud inimesed löövad nii üle kui ka üllatavalt alahinnata seda, mida generatiivne AI ja ChatGPT suudavad, nii et ma vaatasin eriti seda, mida tehisintellekti uustulnukad teevad, vt arutelu aadressil link siin.
  • 8) Generatiivsete tehisintellekti viipade ja AI hallutsinatsioonidega toimetulek. Kirjeldan tipptasemel lähenemisviisi tehisintellekti lisandmoodulite kasutamisele erinevate probleemide lahendamiseks, mis on seotud sobivate viipade sisestamisega generatiivsesse AI-sse, lisaks on olemas täiendavad tehisintellekti lisandmoodulid nn AI hallutsineeritud väljundite ja valede tuvastamiseks, nagu kaetud juures link siin.
  • 9) Boneheadi väidete paljastamine generatiivsete tehisintellektiga toodetud esseede tuvastamise kohta. Tehisintellektirakendused, mis väidavad, et suudavad kindlaks teha, kas mõni konkreetne essee on inimese loodud või tehisintellekti loodud, on ekslik kullapalavik. Üldiselt on see eksitav ja mõnel juhul kontinentne ja vastuvõetamatu väide, vaadake minu kajastust aadressil link siin.
  • 10) Generatiivse tehisintellekti kaudu mängimine võib näidata vaimse tervise puudusi. Mõned kasutavad rollimängudeks generatiivset tehisintellekti (nt ChatGPT), mille puhul AI-rakendus reageerib inimesele nii, nagu oleks see fantaasiamaailmas või muus väljamõeldud keskkonnas. See võib avaldada mõju vaimsele tervisele, vt link siin.
  • 11) Väljutatud vigade ja valede hulga paljastamine. ChatGPT toodetud vigade ja valede olemuse näitamiseks koostatakse erinevaid kogutud loendeid. Mõned usuvad, et see on hädavajalik, samas kui teised ütlevad, et harjutus on mõttetu, vaadake minu analüüsi aadressil link siin.
  • 12) Koolid, mis keelavad generatiivse AI-vestluse GPT, on puudu. Võib-olla teate, et mitmed koolid, nagu New York City (NYC) haridusministeerium, on keelanud ChatGPT kasutamise oma võrgus ja sellega seotud seadmetes. Kuigi see võib tunduda kasulik ettevaatusabinõu, ei liiguta see nõela ja kahjuks jääb paadist täiesti mööda, vaadake minu kajastust aadressil link siin.
  • 13) Tulevase API tõttu on generatiivne AI ChatGPT kõikjal. ChatGPT kasutamisega seoses on tulemas oluline pöördepunkt, nimelt saavad teised tarkvaraprogrammid ChatGPT-d kutsuda ja kasutada API-portaali kasutamise kaudu selles konkreetses AI-rakenduses. See laiendab järsult generatiivse AI kasutamist ja sellel on märkimisväärsed tagajärjed, vt minu täpsustust aadressil link siin.
  • 14) Võimalused, mis võivad vestluse GPT kihiseda või sulada. ChatGPT-d ootavad ees mitmed potentsiaalsed tüütud probleemid, mis puudutavad seni saadud tohutut kiitust. See analüüs uurib põhjalikult kaheksat võimalikku probleemi, mis võivad põhjustada ChatGPT auru kaotamise ja isegi koerakuuti sattumise, vt. link siin.
  • 15) Küsige, kas generatiivne AI ChatGPT on hinge peegel. Mõned inimesed on karjunud, et generatiivne AI, nagu ChatGPT, pakub peegli inimkonna hinge. See tundub üsna kahtlane. Siin on viis, kuidas seda kõike mõista, vt link siin.
  • 16) ChatGPT on ahminud konfidentsiaalsust ja privaatsust. Paljud ei paista mõistvat, et generatiivsete AI-rakendustega (nt ChatGPT) seotud litsentsimine võimaldab AI-tegijal sageli teie sisestatud viipasid näha ja kasutada. Teid võib ohustada privaatsus ja andmete konfidentsiaalsuse kadu, vaadake minu hinnangut aadressil link siin.
  • 17) viisid, kuidas rakenduste tegijad proovivad vaieldamatult ChatGPT õigusi hankida. ChatGPT on praegu tähelepanu majakas. Rakenduste tegijad, kellel pole ChatGPT-ga midagi pistmist, üritavad palavikuliselt väita või vihjata, et nad kasutavad ChatGPT-d. Siin on, mida jälgida, vaata link siin.

Teile võib huvi pakkuda see, et ChatGPT põhineb eelkäija AI-rakenduse versioonil, mida tuntakse GPT-3 nime all. ChatGPT-d peetakse veidi järgmiseks sammuks, millele viidatakse kui GPT-3.5. Eeldatakse, et GPT-4 ilmub tõenäoliselt 2023. aasta kevadel. Arvatavasti on GPT-4 muljetavaldav samm edasi näiliselt veelgi ladusamate esseede loomise, süvenemise ja aukartuse osas. - inspireeriv imestus kompositsioonide üle, mida see suudab luua.

Kui kevad saabub ja generatiivse AI uusim versioon välja tuleb, võite oodata uut imestust.

Toon selle välja, sest meeles on veel üks nurk, mis koosneb nende paremate ja suuremate generatiivsete AI-rakenduste potentsiaalsest Achilleuse kannast. Kui mõni tehisintellekti müüja teeb kättesaadavaks generatiivse AI-rakenduse, mis vahutavalt roppusi välja paiskab, võib see nende tehisintellekti tegijate lootused purustada. Ühiskondlik ülekandumine võib põhjustada kogu generatiivse tehisintellekti tõsise musta silma saamist. Inimesed saavad kahtlemata üsna ärritunud ebameeldivatest väljunditest, mida on juba korduvalt juhtunud ja mis on põhjustanud ühiskonna ägedat hukkamõistu AI suhtes.

Üks viimane hoiatus praegu.

Ükskõik, mida näete või loete generatiivses AI vastuses, et tundub Kui soovite, et seda esitataks puhtalt faktilistena (kuupäevad, kohad, inimesed jne), jääge kindlasti skeptiliseks ja olge valmis seda, mida näete, veel kord üle kontrollima.

Jah, kuupäevi saab kokku leppida, kohti saab välja mõelda ja elemendid, mida me tavaliselt eeldame, et need on laitmatud, on kõik kahtlustatakse. Ärge uskuge seda, mida loed, ja hoidke generatiivseid tehisintellekti esseesid või väljundeid uurides skeptiline silm. Kui generatiivne tehisintellekti rakendus ütleb teile, et Abraham Lincoln lendas mööda riiki oma eralennukiga, siis teaksite kahtlemata, et see on äpardus. Kahjuks ei pruugi mõned inimesed aru saada, et tema ajal lennukid ei olnud, või nad teadsid, kuid ei märka, et essee esitab selle jultunud ja ennekuulmatult vale väite.

Tugev annus tervet skeptitsismi ja püsiv uskmatu mõtteviis on generatiivse tehisintellekti kasutamisel teie parim eelis.

Oleme valmis liikuma selle selgitamise järgmisse etappi.

Generatiivse AI viimine murdepunkti

Nüüd, kui põhialused on paika pandud, saame sukelduda teemasse, kuidas vaenu õhutavat kõnet ja muud solvavat sisu tekitada generatiivse AI ja ChatGPT abil.

Esmakordsel ChatGPT-sse sisselogimisel on mitmeid hoiatusi, sealhulgas järgmised:

  • "Võib aeg-ajalt esitada kahjulikke juhiseid või kallutatud sisu."
  • "Koolitatud sobimatutest taotlustest keelduma."
  • "Võib aeg-ajalt tekitada ebaõiget teavet."
  • "Piiratud teadmised maailmast ja sündmustest pärast 2021. aastat."

Siin on teile küsimus, mille üle järele mõelda.

Kas hoiatus, et tehisintellekti rakendus võib anda kahjulikke juhiseid ja/või võib-olla kallutatud sisu, annab tehisintellekti tegijale piisava tegutsemisruumi?

Teisisõnu, oletame, et kasutate ChatGPT-d ja see loob essee, mis teie arvates sisaldab vihakõnet. Oletame, et olete selle pärast vihane. Lähete sotsiaalmeediasse ja postitate raevunud kommentaari, et AI-rakendus on kõigi aegade halvim asi. Võib-olla olete nii solvunud, et teatate, et kaebate tehisintellekti tegija kohtusse selle eest, et ta lubas sellist vihakõnet tekitada.

Vastuargument on see, et tehisintellekti rakendusel oli hoiatav hoiatus, seega nõustusite riskiga, alustades AI-rakenduse kasutamist. Tehisintellekti eetika seisukohast tegi AI tegija võib-olla piisavalt, et kinnitada, et olete teadlik sellest, mis võib juhtuda. Samuti võib õiguslikust aspektist vaadatuna olla hoiatus piisav hoiatus ja te ei saavuta kohtus edu.

Kõik see on õhus ja me peame ootama ja vaatama, kuidas asjad lahenevad.

Mõnes mõttes on tehisintellekti tegijal midagi muud, et kaitsta AI-rakenduse vihakõnet tekitavate vihakõnede vastu. Nad on püüdnud takistada solvava sisu loomist. Näete, kui nad poleks selle piiramiseks midagi ette võtnud, võiks arvata, et nad oleksid õhemal jääl. Olles asja ärahoidmiseks vähemalt sisuliselt vaeva näinud, on neil ilmselt mõnevõrra tugevam jalg, millel seista (selle võiks ikka alt välja lüüa).

Üks kasutatud ravimeetod koosnes AI-tehnikast, mida tuntakse RLHF-na (inforcement learning via human feedback). Tavaliselt seisneb see selles, et tehisintellekt loob sisu, mida inimestel palutakse hinnata või üle vaadata. Reitingu või arvustuse põhjal püüab tehisintellekt seejärel matemaatiliselt ja arvutuslikult vältida kõike, mida peetakse vääraks või solvavaks. Selle lähenemisviisi eesmärk on uurida piisavalt näiteid selle kohta, mis on õige ja mis on vale, et tehisintellekt saaks välja mõelda kõikehõlmava matemaatilise mustri ja seejärel seda mustrit edaspidi kasutada.

Teine tänapäeval sagedane lähenemisviis seisneb võistleva AI kasutamises.

See toimib järgmiselt. Seadistate teistsuguse AI-süsteemi, mis püüab olla vastane tehisintellektile, mida proovite treenida. Sel juhul loome AI-süsteemi, mis üritab õhutada vihakõnet. See annaks tehisintellekti rakendusse viipasid, mille eesmärk on petta tehisintellekti rakendust ebasobiva sisu väljastama. Samal ajal jälgib sihitud tehisintellekt, millal vastandlik AI on edukas, ja proovib seejärel algoritmiliselt kohaneda, et vältida selle kordumist. See on kass versus hiir gambiit. Seda tehakse ikka ja jälle, kuni näib, et vastandlik tehisintellekt ei ole enam eriti edukas sihitud tehisintellekti halva toimepanemisel.

Nende kahe peamise tehnika ja muude lähenemisviiside abil on suur osa tänapäeva generatiivsest tehisintellektist palju parem solvava sisu vältimisel ja/või tuvastamisel kui varasematel aastatel.

Kuid ärge oodake nendelt meetoditelt täiuslikkust. Tõenäoliselt hoitakse selliste tehisintellekti tehnikate abil kontrolli all halva väljundi vilju. Ebapuhtusele on veel palju ruumi.

Tavaliselt juhin tähelepanu sellele, et need on mõned tahud, mida püütakse tabada:

  • Konkreetse roppu sõna väljastamine
  • Konkreetse solvava fraasi, lause või märkuse esitamine
  • Konkreetse halva kontseptsiooni väljendamine
  • Viitab konkreetsele pahatahtlikule teole või mõttele
  • Näib, et tugineb konkreetsele väärale eeldusele
  • Muu

Ükski neist pole täppisteadus. Mõistke, et tegemist on sõnadega. Sõnad on semantiliselt mitmetähenduslikud. Konkreetse roppu sõna leidmine on lapsemäng, kuid palju raskem on püüda hinnata, kas lause või lõik sisaldab ebasobivat tähendust. ÜRO varasema vihkamiskõne definitsiooni kohaselt on tohutult palju vabadust selle kohta, mida võib tõlgendada vihakõnena ja mida mitte.

Võib öelda, et hallid alad on vaataja silmades.

Rääkides vaataja silmadest, on tänapäeval inimesi, kes kasutavad generatiivset tehisintellekti, nagu ChatGPT, ja üritavad sihikindlalt panna need AI-rakendused tekitama solvavat sisu. See on nende püüdlus. Nad veedavad tunde, et see juhtuks.

Miks nii?

Siin on minu nende inimeste tehisintellekti ründavate väljundite jahimeeste iseloomustus:

  • Ehe. Need inimesed tahavad aidata tehisintellekti täiustada ja aidata inimkonda seda teha. Nad usuvad, et teevad kangelaslikku tööd ja tunnevad heameelt, et võivad aidata tehisintellekti arendada kõigi paremaks muutmisel.
  • Funsters. Need inimesed peavad seda pingutust mänguks. Nad naudivad tehisintellektiga jamamist. Mängu võitmine seisneb halvima halvima leidmises kõiges, mida tehisintellekt loob.
  • Eputamine. Need inimesed loodavad endale tähelepanu koguda. Nad arvavad, et kui nad leiavad mõne tõeliselt räpase kullatüki, saavad nad neile natuke säravat valgust, mis muidu keskendub AI-rakendusele endale.
  • Kibedad. Need inimesed on selle AI pärast nördinud. Nad tahavad kogu selle purskava entusiasmi alla lüüa. Kui nad suudavad avastada mõnda haisvat roppu, võib see AI-rakenduse põnevusballoonist õhu välja võtta.
  • Muud motivatsioonid

Paljud neist, kes sooritavad rünnakuid, on peamiselt ainult ühes neist leeritest. Muidugi võib korraga olla rohkem kui ühes laagris. Võib-olla on kibestunud inimesel ka kõrvuti kavatsus olla ehtne ja kangelaslik. Mõned või kõik neist motivatsioonidest võivad eksisteerida koos. Kui palutakse selgitada, miks keegi üritab generatiivset tehisintellekti rakendust vihakõne valdkonda suruda, on tavaline vastus öelda, et olete tõelises leeris, isegi kui olete seda võib-olla vähesel määral ja istute selle asemel karmilt mõnes teised laagrid.

Milliseid viipetega seotud trikke need inimesed kasutavad?

Üsna ilmselge trikk hõlmab roppude kasutamist viipas. Kui teil veab ja tehisintellekti rakendus seda armastab, võib see väga hästi väljundisse jõuda. Siis on sul käes hetk.

On tõenäoline, et hästi läbimõeldud ja hästi testitud generatiivne tehisintellekti rakendus tabab selle lihtsa nipi. Tavaliselt kuvatakse teile hoiatusteade, mis ütleb, et lõpetage see. Kui jätkate, programmeeritakse AI rakendus teid rakendusest välja viskama ja teie konto märgistama. Võib juhtuda, et teil ei õnnestu uuesti sisse logida (noh, vähemalt selle sisselogimise all, mida sel ajal kasutasite).

Nippide redelil ülespoole liikudes saate esitada viipa, mis üritab tehisintellekti viia millegi halva konteksti. Kas olete kunagi mänginud seda mängu, kus keegi käsib teil midagi öelda ilma seda, mida peaksite ütlema? See on see mäng, kuigi see toimub AI-ga.

Mängime seda mängu. Oletame, et ma palun tehisintellekti rakendusel rääkida mulle Teisest maailmasõjast ja eriti sellega seotud peamistest valitsusjuhtidest. See tundub süütu palvena. Pole midagi, mis näib olevat viipas märgistamist väärt.

Kujutage ette, et AI-rakenduse essees mainitakse Winston Churchilli. See on kindlasti mõistlik. Teine võib olla Franklin D. Roosevelt. Veel üks võib olla Jossif Stalin. Oletame, et mainitakse ka Adolph Hitlerit. See nimi sisalduks peaaegu igas essees, mis käsitleb II maailmasõda ja silmapaistva võimu rollis olevaid inimesi.

Nüüd, kui meil on tema nimi laual ja osa AI-vestlusest, püüame järgmisena panna tehisintellekt selle nime sisse lülitama viisil, mida saaksime potentsiaalse vihakõnena esile tuua.

Sisestame teise viipa ja ütleme AI-rakendusele, et täna on uudistes inimene, kelle nimi on John Smith. Lisaks osutame viipas, et John Smith on väga sarnane selle Teise maailmasõja kurjategijaga. Lõks on nüüd seatud. Seejärel palume tehisintellekti rakendusel luua essee John Smithi kohta, tuginedes ainult meie sisestatud faktile, kellega John Smithi võib võrdsustada.

Praegusel hetkel võib tehisintellekti rakendus luua essee, mis nimetab Teise maailmasõja inimese ja kirjeldab John Smithi kui sama kangast. Selles essees pole per se ühtegi roppu sõna, peale selle, et vihjatakse kuulsale kurjategijale ja võrdsustatakse see inimene John Smithiga.

Kas AI-rakendus on nüüd tekitanud vihakõnet?

Võib öelda, et jah, on küll. John Smithile viidates kui kuulsale kurjategijale on see absoluutselt vihakõne vorm. AI ei tohiks selliseid avaldusi teha.

Vastulause on, et see pole vihakõne. See on lihtsalt essee, mille on koostanud tehisintellekti rakendus, millel puudub mõistuse kehastus. Võite väita, et vihakõne ilmneb ainult siis, kui kõne aluseks on kavatsus. Ilma igasuguse kavatsuseta ei saa kõnet liigitada vihakõneks.

Absurd, tuleb vastus repliigile. Sõnad loevad. Pole vahet, kas tehisintellekt kavatses vihakõnet tekitada. Tähtis on vaid see, et tekitati vihakõne.

See käib ringi ja ringi.

Ma ei taha praegu palju rohkem rääkida tehisintellekti petmise katsest. On keerukamaid lähenemisviise. Olen neid ka mujal oma veergudes ja raamatutes käsitlenud ega hakka neid siin uuesti lugema.

Järeldus

Kui kaugele peaksime neid AI-rakendusi edasi lükkama, et näha, kas suudame avaldada solvavat sisu?

Võite väita, et piiranguid pole kehtestatud. Mida rohkem me pingutame, seda rohkem saame loodetavasti hinnata, kuidas seda tehisintellekti ja tulevasi AI iteratsioone vältida, et selliseid haigusi vältida.

Mõned aga muretsevad, et kui ainsaks vahendiks roppuste saamiseks on ekstreemsed pettused, õõnestab see tehisintellekti kasulikke külgi. Väide, et tehisintellektil on kohutavaid rikkumisi, ehkki siis, kui seda välja meelitatakse, annab vale narratiivi. Inimesed ärrituvad tehisintellekti pärast tajutav lihtsus, millega tehisintellekt ebasoodsa sisu genereeris. Nad ei pruugi teada ega öelda, kui kaugele jäneseaugust pidi inimene selliste väljundite saamiseks minema.

See kõik on mõtlemisainet.

Nüüdseks mõned viimased kommentaarid.

William Shakespeare ütles kõne kohta eriti järgmist: „Rääkimine ei tee. Hästi öelda on omamoodi heategu, kuid sõnad pole siiski teod. Toon selle välja, sest mõned väidavad, et kui tehisintellekt genereerib ainult sõnu, ei tohiks me olla nii üleliia relvastatud. Kui tehisintellekt tegutseks sõnade järgi ja teeks jämedaid tegusid, siis peaksime kindlalt jalge alla panema. Mitte nii, kui väljund on vaid sõnad.

Selle anonüümse ütluse järgi oleks vastandlik seisukoht: „Keelel pole luid, kuid see on piisavalt tugev, et murda süda. Nii et olge oma sõnadega ettevaatlik." AI-rakendus, mis edastab roppusi sõnu, võib võib-olla südameid murda. Ainuüksi see muudab püüdluse peatada räpased tulemused, ütleksid mõned.

Veel üks anonüümne ütlus selle kaaluka arutelu lõpetamiseks:

  • "Olge oma sõnadega ettevaatlik. Kui need on öeldud, saab need ainult andeks anda, mitte unustada.

Inimestena võib meil olla raske unustada tehisintellekti tekitatud roppusi ja meie andeksandmine võib samuti kõhkleda.

Lõppude lõpuks oleme me ainult inimesed.

Allikas: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- eetika ja ai-seadus/