AI eetika seab teravalt kahtluse alla inimhääle kloonimise, näiteks teie surnud sugulaste omade hääle kloonimises, mis on ette nähtud kasutamiseks tehisintellekti autonoomsetes süsteemides

Oih, pealtnäha vinge uus tehnika on ennast ja selle tegijat kuuma vette saanud.

Pean silmas tehisintellektil põhineva inimhääle kloonimise esilekerkimist kui uut tehnoloogiat, mis suutis sattuda viimaste päevade uudiste hulka. Sel juhul on ettevõtteks Amazon ja selle pidevalt arenev Alexa.

Minu kolumni lugejad võivad meenutada, et olin varem kajastanud ebasündsat möllu, mis juhtus, kui teatati, et Alexa julgustas üht noort pistma senti pistikupessa (ärge tehke seda!), vaadake minu kajastust aadressilt link siin. Sel juhul keegi õnneks viga ei saanud ja tagajärjeks oli see, et ilmselt oli Alexa AI süsteem saavutanud eelneva viirusetrendi ja ilma igasuguse terve mõistuse hinnanguta kordas lihtsalt hullumeelset soovitust, kui tal paluti midagi lõbusat ette võtta. laps suhtleb Alexaga. See tõstab esile tehisintellekti eetikaga seotud mured, et meid on uputamas tehisintellekt, millel puudub igasugune näiline terve mõistuslik arutluskäik. See on eriti proovilepanev probleem, millega AI silmitsi seisab ja mis jätkab trotsimist tehisintellekti kehastamiseks (minu analüüsi jaoks tehisintellektil põhineva terve mõistuse tuletamise kohta pingutused, vt link siin).

Viimane tolmuimeja hõlmab hääle kloonimist, mida tuntakse ka kui hääle replikatsiooni. Uusimad tehnoloogiad ja tehisintellekt tõstavad tehisintellekti eetika ja eetilisi kaalutlusi. Minu jätkuvat kõikehõlmavat tehisintellekti eetikat ja eetilist tehisintellekti käsitlevat ülevaadet vt link siin ja link siin, Ainult mõned nimed.

AI-põhine hääle kloonimine on lihtne kontseptsioon.

AI-süsteem on programmeeritud salvestama mõnda teie öeldud sõnu. Seejärel proovib AI teie kõnemustreid arvutuslikult välja selgitada. Tuvastatud kõnemustrite põhjal proovib AI seejärel edastada helikõnet, mis kõlab täpselt nagu teie. Keeruline osa on see, et kõne hõlmab sõnu, mida te ei olnud varem tehisintellektile helinäidistena esitanud. Teisisõnu peab tehisintellekt matemaatiliselt hindama, kuidas teie sõnu võiksite rääkida. See hõlmab kõiki kõne omadusi, nagu toon, hääle tõus ja langemine, kõne tempo või kiirus jne.

Kui kuulete, kuidas inimene üritab esineda teise inimesena, võite tavaliselt aru saada, et see pingutus on esinemine. Lühiajalises perspektiivis, näiteks kui matkija kasutab vaid mõnda sõna, võib olla raske aru saada, et hääl pole algne kõneleja. Veelgi enam, kui jäljendaja matkib sõnu, mida algne kõneleja tegelikult rääkis, on tõenäoline, et ta suudab häälestada oma hääle teise inimese häälele rohkem selle konkreetse lausungi jaoks.

Lühidus ja täpselt samade sõnade kuulmine võivad võimaldada kellelgi esineda kellegi teisena.

Väljakutseks saab katta sõnu, mida teine ​​inimene pole rääkinud või mille kohta jäljendaja pole kunagi kuulnud, et inimene neid konkreetseid sõnu kõneleks. Olete mõnevõrra hämar, kui proovite aru saada, kuidas jäljendatud inimene oleks need sõnad öelnud. Hea uudis on see, et kui keegi teine, kes jäljendajat kuulab, ei tea, kuidas algne isik oleks sõnu öelnud, võib jäljendaja olla tõelisest häälest suhteliselt kaugel, kuid siiski tunduda edev ja sihikindel.

Samuti tahaksin võrrandist hetkeks eemaldada matkimise maneerid ja füüsilise liikumise. Matkijat nähes võite end kõigutada, kui ta suudab oma nägu kortsutada või käsi vehkida viisil, mis jäljendab ka kehastatavat isikut. Lisatud keha ja näo näpunäited panevad teie meeled mõtlema, et ka hääl on surnud, kuigi see ei pruugi nii olla. Hääle jäljendamise purist nõuab, et kriteeriumina tuleks kasutada ainult häält, et teha kindlaks, kas hääl jäljendab tabavalt kehastatavat isikut.

Kindlasti olete näinud erinevaid sügavvõltsitud videoid, mis tänapäeval sotsiaalmeedias levivad. Keegi muudab video nutikalt ümber, et videosse ilmuks kellegi teise nägu, mis katab näo, mis oli algses salvestises kellelgi teisel. Sellega kaasneb tavaliselt ka hääle sügavvõlts. Saate kahekordse vea, kuna videot muudetakse visuaalselt sügava võltsitud tehisintellektiga ja heli muudetakse sügava võltsitud AI abil.

Siinse arutelu huvides keskendun ainult AI-põhistele süvavõltsitud heli aspektidele, mida, nagu varem mainitud, nimetatakse tavaliselt hääle kloonimiseks või hääle replikatsiooniks. Mõned nimetavad seda jultunult hääleks purgis.

Olen kindel, et mõned teist manitsevad praegu, et meil on juba mõnda aega olnud võimalus häälte kloonimiseks kasutada arvutiprogramme. See pole iseenesest midagi uut. Ma nõustun. Samal ajal peame tunnistama, et see kõrgtehnoloogiline võime muutub aina paremaks. Noh, ma ütlen, et parem ja parem, aga võib-olla, nagu te hetke pärast näete, peaksin ütlema, et see muutub üha murettekitavamaks ja murettekitavamaks.

Hoidke seda mõtet.

Häälkloonimise tehnoloogiline osavus areneb kindlasti edasi. Näiteks varem oleks pidanud AI-heli replikatsiooniprogrammi "koolitama", rääkides terve loo sega- ja sobitamissõnadest. Sarnaselt kuulsa või kurikuulsa pruunrebase joonega, mis hüppas üle laisa koera (joon, mille eesmärk on panna keegi katma kõik tähestiku tähed), on spetsiaalselt koostatud lühijutte, mis sisaldavad sõnade segu pannes teid ütlema piisavalt sõnu ja laia valikut sõnu, et tehisintellekti mustri sobitamine oleks palju lihtsam.

Võimalik, et olete pidanud lugema mitu lehekülge sõnu, sageli ka sõnu, mida teil on raske hääldada ega ole isegi kindel, mida need tähendavad, et võimaldada piisavalt AI-mustrite sobitamist. Selleks võib kuluda mitu minutit või mõnikord tunde, et anda tehisintellektile piisavalt heli, mida kasutada teie hääle erinevate mustrite leidmiseks. Kui muudaksite selle koolitustegevuse lühikeseks, on tõenäoline, et kõik teie sõbrad, kes teie häält hästi tunnevad, saavad sellest tuleneva hääle replikatsiooni kergesti maha.

Okei, tehisintellekti arendajate huvi keskendus heli replikatsiooni aspektide optimeerimisele. AI ehitajatele meeldivad väljakutsed. Väidetavalt on nad hingelt optimeerijad. Andke neile probleem ja nad kipuvad optimeerima, olenemata sellest, kuhu see võib viia (mainin seda eelsättena, mis saab peagi selgemaks).

Vasta mulle sellele:

  • Milline on väikseim helinäidise kogus, mida oleks vaja inimese hääle maksimaalseks kloonimiseks ja mille helinäidis võib olla peaaegu mis tahes juhuslikult lubatud sõnade kogum, kuid siiski võimaldab hääle kloonimisel luua peaaegu kõiki sõnu, mida kunagi räägitakse kas sihitud hääl ja heli on sisuliselt identne selle inimese häälega vestluses või muus kontekstuaalses valikus?

Seal on palju lahti pakkimist.

Pidage meeles, et soovite minimaalset helinäidist, mis maksimaalselt klooniks häält, nii et sellest tulenevad tehisintellekti lausungid selles nüüd automatiseeritud paljundatud hääles tunduvad tegelikust inimesest täiesti eristamatud. See on keerulisem, kui võite arvata.

See on peaaegu nagu see mängusaade, kus peate proovima laulu nimetada kõige vähem kuuldud nootide põhjal. Mida vähem noote mängitakse, seda raskem on arvata, millise lauluga on tegemist. Kui teie oletus on vale, kaotate punkte või kaotate mängu. Järgneb võitlus, kas peaksite kasutama ainult ühte nooti, ​​mis on võimalikult väike vihje, kuid siis on teie tõenäosus laulu ära arvata arvatavasti oluliselt vähenenud. Mida rohkem noote kuulete, seda suurem on tõenäosus õige laulu äraarvamiseks, kuid lubate ka teistel võistlejatel suuremat võimalust arvata.

Pidage meeles, et hääle kloonimise puhul käsitleme ka ettekirjutatud sõnade mõistet mis tahes sõnadega. Kui inimene ütleb sõnu "Te ei saa tõega hakkama" ja me tahame, et tehisintellekt matkiks või kehastaks isikut, saab tehisintellekt arvutuslikult tõenäoliselt mustrile hõlpsasti kinni haarata. Teisest küljest oletame, et meil on need sõnad ainult nii, nagu see inimene ütleb: "Kas see on kõik, mida sa pead minult küsima" ja me tahame neid sõnu kasutada selleks, et tehisintellekt ütleks: "Te ei saa tõega hakkama." Ma arvan, et näete ühe sõnade komplekti treenimise raskust ja ekstrapoleerimist täiesti erinevatele sõnadele.

Veel üks raske element on öeldud sõnade kontekst. Oletame, et paneme teid lauset heli salvestama, kui olete rahulik ja rahulik. Tehisintellekt kujundab need sõnad. See võib ka mõjutada teie hääle rahulikkust. Kujutage ette, et me tahame, et tehisintellekt teeskleks, et see olete sina, kui karjute hullult ja vihaselt nagu hornet. Kui AI moonutab algset mustrit teie hääle täpselt vihaseks versiooniks, võib see olla hirmutav.

Milliseid miinimume me vaatame?

Praegu on eesmärk murda minutimärk.

Haarake salvestatud häält, mille jaoks teil on vähem kui minuti jagu heli, ja laske tehisintellektil teha kõik hämmastavad hääle kloonimised ainult selle väikese näidise põhjal. Tahan selgitada, et peaaegu igaüks saab koostada tehisintellekti, kes seda suudab üldiselt vähem kui ühe minutiga, kuigi tulemuseks olev häälekloon on räpane ja kergesti tuvastatav kui mittetäielik. Jällegi olen selgesõnaliselt ja kindlalt nõus, et proovivõtuaeg on minimaalne ja vahepeal on hääle kloonimine maksimaalne. Dolt võib saavutada minimaalse sämplimise, kui neil lubatakse ka hääle kloonimisel olla jämedalt submaksimaalne.

See on lõbus ja põnev tehnoloogiline väljakutse. Võib-olla mõtlete selle tegemise väärtuse või eeliste üle. Mis eesmärki me otsime? Millist kasu saame inimkonnale oodata, kui suudame nii tõhusalt ja tõhusalt teha AI-põhist hääle replikatsiooni?

Ma tahan, et te mõtleksite selle lihava küsimuse üle.

Vale vastus võib sind tahtmatult pudruhunnikusse viia.

Siin on midagi, mis tundub optimistlik ja täiesti positiivne.

Oletame, et meil võib olla vanaaegseid salvestusi kuulsatest inimestest, nagu Abraham Lincoln, ja saime neid tolmuseid helilõike kasutada tehisintellektil põhineva häälklooni loomiseks. Seejärel võisime kuulda Lincolni Gettysburgi kõnet rääkimas, nagu oleksime seal päeval, mil ta lausus nelja partituuri ja seitse aastat tagasi meeldejääva kõne. Vahemärkusena võib öelda, et kahjuks ei ole meil ühtegi Lincolni hääle helisalvestist (tehnoloogiat veel ei eksisteerinud), küll aga on meil president Benjamin Harrisoni (esimene USA president, kellel on tehtud helisalvestis) helisalvestisi. ) ja pärast seda teised presidendid.

Usun, et me kõik nõustuksime tõenäoliselt sellega, et tehisintellektil põhineva hääle kloonimise konkreetne kasutamine on täiesti hea. Tõenäoliselt sooviksime seda rohkem kui siis, kui näitleja üritaks täna teeselda, et nad räägivad nagu Lincoln. Näitleja mõtleb arvatavasti välja selle, mis nende arvates Lincolni tegelik hääl kõlab. See oleks väljamõeldis, võib-olla kaugel sellest, mis Lincolni hääl oli. Selle asemel, kasutades hästi kvalifitseeritud AI hääle kloonimise süsteemi, oleks vähe vaidlusi selle üle, kuidas Lincolni hääl tegelikult kõlas. Tehisintellekt oleks faktiliselt õige, vähemalt selles osas, kui hea on AI sihitud hääle replikatsioonis.

Tehisintellekti häälkloonimise headuse kategoorias saame sellise kasutusjuhtumiga võidu saada.

Ei taha olla sünge, kuid isegi sellel ilmselt kõikehõlmaval kasutamisel on varjukülg.

Keegi kasutab tehisintellekti hääle kloonimise süsteemi, et välja selgitada Theodore Roosevelti ("Teddy") hääl, meie hinnatud 26.th Ameerika Ühendriikide president, loodusteadlane, looduskaitsja, riigimees, kirjanik, ajaloolane ja peaaegu üldiselt hinnatud isikuks. Tema kõnesid, mille kohta meil pole ajalooliselt säilinud heliversioone, võiks nüüd "rääkida", nagu räägiks ta täna isiklikult. Kiiduväärt tõuge ajaloo õppimisele.

Muudame selle inetuks, lihtsalt selleks, et paljastada selle varjuküljed.

Me kasutame Teddy AI-põhist hääleklooni, et lugeda kõnet, mille pidas kuri diktaator. Tehisintellekt ei hooli sellest, mida ta räägib, kuna tehisintellektis puudub tundlikkus. Sõnad on lihtsalt sõnad või täpsemini lihtsalt häälitsused.

Te võite olla ehmunud, et keegi teeb midagi sellist alakätt. Miks kuradi pärast kasutatakse tuntud ja austatud Theodore Roosevelti tehisintellektil põhinevat kloonhäält kõne pidamiseks, mida Teddy algselt ei teinud, vaid lisaks sellele räägib ka teemal, mis kujutab põlastusväärset kurjust. diktaator?

See on ennekuulmatu, võite hüüda.

Lihtsalt tehtud, tuleb vastus.

Sisuliselt on tehisintellektil põhineva hääle replikatsiooniga seotud üks väga oluline mure see, et me avastame end ootamatult võltskõnedest ja -ütlustest, millel pole mingit pistmist ajalooliste faktide või täpsustega. Kui neid tehakse ja avaldatakse piisavalt, võib meil tekkida segadus, mis on fakt ja mis on väljamõeldis.

Näete ohtralt, kuidas see võib tekkida. Tehisintellektil põhineva hääleklooni abil salvestab keegi Woodrow Wilsoni kõne, mida ta tegelikult kunagi ei pidanud. See on postitatud Internetti. Keegi teine ​​kuuleb salvestust ja usub, et see on päris asi. Nad postitavad selle mujale, mainides, et leidsid selle suurepärase Woodrow Wilsoni ajaloolise salvestise. Varsti kasutavad ajalootundide õpilased kõne kirjaliku versiooni lugemise asemel heli.

Keegi ei tea, kas kõne pidas Woodrow Wilson või mitte. Võib-olla oli, võib-olla mitte, ja kõik arvavad, et see pole kummalgi juhul oluline (noh, need, mis ei ole keskendunud ajaloolisele täpsusele ja faktidele). Muidugi, kui kõne on jõhker, annab see ajaloolisest isikust väära mulje või desinformatsiooni. Ajalugu ja ilukirjandus liidetakse üheks.

Usun, et olete loodetavasti veendunud, et see on AI-põhise hääle kloonimisega seotud negatiivne külg.

Jällegi saame selliseid asju juba teha, ilma uuema ja täiustatud tehisintellektil põhineva hääle replikatsioonita, kuid selle tegemine muutub lihtsamaks ja tekkival helil on väga raske eristada tõelist ja võltsitud heli. Tänapäeval saate tavalisi helitootmisprogramme kasutades tavaliselt väljundit kuulata ja sageli hõlpsasti kindlaks teha, et heli on võlts. AI edusammude tõttu ei suuda te üsna varsti enam oma kõrvu uskuda.

Nii halb kui ajalooliste tegelaste häälekloonimine ka poleks, peame läbi mõtlema tänapäeva elavate inimestega seotud võib-olla eriti jõhkra kasutuse.

Esiteks, kas olete kunagi kuulnud mõneti populaarsest kelmusest, mille käigus keegi kehastab end ülemuse või sellega samaväärsena? Mõni aasta tagasi oli häiriv moeröögatus helistada restorani või poodi ja esineda asutuse bossina. Võltsimine tähendaks seda, et töötaja käskis teha naeruväärseid asju, mida nad sageli kohusetundlikult teeksid, uskudes, et räägivad oma ülemusega.

Ma ei taha sattuda sellistesse raevukatesse rikkumistesse, kuid teine ​​asjakohane on helistada kellelegi, kes võib olla vaegkuulja, ja teeselda, et on tema lapselaps või lapselaps. Matkija püüab veenda vanavanemat, et ta annaks nende abistamiseks raha või päästaks neid mingil moel. Esindatud hääle põhjal aetakse vanavanemat nii tegema. Põlastusväärne. Häbiväärne. Kurb.

Oleme jõudmas ajastusse, kus tehisintellektil põhinev häälekloonimine võimaldab steroididel, kui oleksite, häälega seotud pettuste ja pettuste tulekut. Tehisintellekt teeb häälte paljundamisel nii märkimisväärset tööd, et igaüks, kes seda häält kuuleb, vannub vande all, et kõnelejaks oli tegelik inimene.

Kui kaugele see võib minna?

Mõned on mures, et näiteks aatomirelvade vabastamine ja sõjalised rünnakud võivad juhtuda siis, kui keegi kasutab tehisintellektil põhinevat häälklooni, mis meelitab teisi uskuma, et tipptasemel sõjaväelane andis otsest käsku. Sama võib öelda igaühe kohta, kes on silmapaistval kohal. Kasutage ülitäpset tehisintellekti häälklooni, et panna pangajuht vabastama miljoneid dollareid raha, tehes seda seetõttu, et teid eksitatakse uskuma, et nad räägivad pangakliendiga.

Varasematel aastatel poleks selle tegemine AI-ga olnud tingimata veenev. Hetkel, kui inimene telefoni teises otsas hakkab küsimusi esitama, peaks AI ette valmistatud skriptist kõrvale kalduma. Sel hetkel halveneks hääle kloonimine, mõnikord radikaalselt. Ainus vahend pettuse jätkamiseks oli vestluse stsenaariumi tagasi surumine.

Seda tüüpi tehisintellektiga, mis meil praegu on, sealhulgas loomuliku keele töötlemise (NLP) edusammud, saate skriptist loobuda ja AI häälekloon võib tunduda kõnelevat loomulikul viisil (see ei ole alati nii, ja veel on võimalusi AI komistamiseks).

Enne kui hakkame lähemalt uurima tehisintellektil põhineva häälkloonimise metsikuid ja viljuvaid kaalutlusi, paneme paika mõned täiendavad põhialused väga olulistel teemadel. Peame põgusalt sukelduma tehisintellekti eetikasse ja eriti masinõppe (ML) ja süvaõppe (DL) tulekusse.

Võib-olla olete ähmaselt teadlik, et tänapäeval üks valjemaid hääli tehisintellekti valdkonnas ja isegi väljaspool tehisintellekti valdkonda seisneb nõudmises eetilise tehisintellekti suurema väljanägemise poole. Vaatame, mida tähendab viidata tehisintellekti eetikale ja eetilisele tehisintellektile. Lisaks uurime, mida ma mõtlen masinõppest ja süvaõppest rääkides.

Üks konkreetne AI eetika segment või osa, mis on pälvinud palju meedia tähelepanu, koosneb tehisintellektist, millel on ebasoodsad eelarvamused ja ebavõrdsused. Võib-olla olete teadlik, et kui AI uusim ajastu algas, tekkis tohutu entusiasm selle vastu, mida mõned praegu kutsuvad. AI heaks. Kahjuks hakkasime selle ülevoolava elevuse kannul olema tunnistajaks AI For Bad. Näiteks on selgunud, et erinevad AI-põhised näotuvastussüsteemid sisaldavad rassilisi ja soolisi eelarvamusi, mida olen arutanud link siin.

Püüdlused, mille vastu võidelda AI For Bad on aktiivselt käimas. Pealegi häälekas juriidiline Ebaõigete tegude ohjeldamise püüdlustes on ka sisuline tõuge tehisintellekti eetika omaksvõtmise suunas, et parandada tehisintellekti alatust. Arvatakse, et me peaksime tehisintellekti arendamiseks ja kasutuselevõtuks vastu võtma ja toetama peamised eetilised tehisintellekti põhimõtted, tehes seda nii, et AI For Bad ning samal ajal eelistatava kuulutamine ja propageerimine AI heaks.

Seoses sellega pooldan ma AI kasutamist tehisintellekti hädade lahendamise osana, võitledes tulega sellisel mõtteviisil. Näiteks võime manustada eetilised tehisintellekti komponendid tehisintellektisüsteemi, mis jälgib, kuidas ülejäänud AI asju teeb ja võib seega reaalajas tabada mis tahes diskrimineerivaid jõupingutusi, vt minu arutelu aadressil link siin. Meil võiks olla ka eraldi AI-süsteem, mis toimiks teatud tüüpi tehisintellekti eetikamonitorina. Tehisintellekti süsteem toimib järelevaatajana, et jälgida ja tuvastada, millal mõni teine ​​tehisintellekt läheb ebaeetilist kuristikku (vt minu analüüsi selliste võimaluste kohta link siin).

Mõne hetke pärast jagan teiega mõningaid AI eetika üldpõhimõtteid. Selliseid nimekirju vedeleb siin-seal palju. Võib öelda, et universaalse veetluse ja üksmeele ainsat loetelu pole veel olemas. See on kahetsusväärne uudis. Hea uudis on see, et vähemalt AI eetika loendid on hõlpsasti kättesaadavad ja need kipuvad olema üsna sarnased. Kokkuvõttes viitab see sellele, et teatud tüüpi põhjendatud lähenemise kaudu leiame tee AI-eetika üldise sarnasuse poole.

Esiteks käsitleme lühidalt mõningaid üldisi eetilisi tehisintellekti ettekirjutusi, et illustreerida, mis peaks olema AI loomisel, väljatöötamisel või kasutajal ülioluline kaalutlus.

Näiteks nagu väitis Vatikan aastal Rooma kutse tehisintellekti eetikale ja nagu ma olen põhjalikult käsitlenud link siin, need on nende tuvastatud kuus peamist tehisintellekti eetikapõhimõtet:

  • Läbipaistvus: Põhimõtteliselt peavad AI-süsteemid olema seletatavad
  • Kaasamine: Arvestada tuleb kõigi inimeste vajadustega, et kõik saaksid kasu ning kõigile saaks pakkuda parimaid võimalikke tingimusi eneseväljenduseks ja arenemiseks.
  • Vastutus: Need, kes AI kasutamist kavandavad ja juurutavad, peavad tegutsema vastutustundlikult ja läbipaistvalt
  • Erapooletus: Ärge looge ega tegutsege erapoolikuse järgi, kaitstes nii õiglust ja inimväärikust
  • Usaldusväärsus: AI-süsteemid peavad suutma töökindlalt töötada
  • Turvalisus ja privaatsus: AI-süsteemid peavad töötama turvaliselt ja austama kasutajate privaatsust.

Nagu väitis USA kaitseministeerium (DoD) oma Tehisintellekti kasutamise eetilised põhimõtted ja nagu ma olen põhjalikult käsitlenud link siin, need on nende kuus peamist tehisintellekti eetikapõhimõtet:

  • Vastutav: DoD töötajad rakendavad asjakohasel tasemel otsustusvõimet ja hoolitsust, jäädes samas vastutavaks tehisintellekti võimaluste arendamise, juurutamise ja kasutamise eest.
  • Võrdne: Osakond astub tahtlikke samme, et minimeerida AI võimaluste tahtmatut eelarvamust.
  • Jälgitav: Osakonna tehisintellekti võimekust arendatakse ja rakendatakse nii, et asjaomastel töötajatel oleks asjakohane arusaam tehisintellekti võimete puhul kohaldatavast tehnoloogiast, arendusprotsessidest ja töömeetoditest, sealhulgas läbipaistvatest ja auditeeritavatest metoodikatest, andmeallikatest ning kavandamisprotseduuridest ja dokumentatsioonist.
  • usaldusväärne: Osakonna tehisintellekti võimalustel on selgesõnalised ja täpselt määratletud kasutusalad ning selliste võimaluste ohutust, turvalisust ja tõhusust testitakse ja tagatakse kindlaksmääratud kasutusviiside piires kogu nende elutsükli jooksul.
  • Reguleeritav: Osakond kavandab ja kavandab tehisintellekti võimeid, et täita nende kavandatud funktsioone, võimaldades samal ajal tuvastada ja vältida soovimatuid tagajärgi ning võimet välja lülitada või deaktiveerida kasutusele võetud süsteemid, mis näitavad ettekavatsematut käitumist.

Olen arutanud ka erinevaid tehisintellekti eetika põhimõtete kollektiivseid analüüse, sealhulgas olen käsitlenud teadlaste koostatud kogumit, mis uuris ja koondas arvukate riiklike ja rahvusvaheliste tehisintellekti eetikapõhimõtete olemust artiklis "The Global Landscape Of AI Ethics Guidelines" (avaldatud sisse loodus) ja mida minu kajastus uurib aadressil link siin, mis viis selle nurgakivide loendini:

  • läbipaistvus
  • Õiglus ja õiglus
  • Mittepahatahtlikkus
  • Vastutus looduse ees
  • Privaatsus
  • Kasulikkus
  • Vabadus ja autonoomia
  • Usalda
  • Jätkusuutlikkus
  • Väärikus
  • Solidaarsus

Nagu võite otse arvata, võib nende põhimõtete aluseks olevate üksikasjade väljaselgitamine olla äärmiselt raske. Veelgi enam, pingutus muuta need laiad põhimõtted millekski täiesti käegakatsutavaks ja piisavalt üksikasjalikuks, et neid AI-süsteemide loomisel kasutada, on samuti kõva pähkel. Üldjoontes on lihtne vehkida selle üle, mis on tehisintellekti eetika ettekirjutused ja kuidas neid üldiselt järgida, samas kui tehisintellekti kodeerimisel peab olema tõeline kumm, mis teega kokku puutub, on olukord palju keerulisem.

Tehisintellekti arendajad peavad kasutama tehisintellekti eetika põhimõtteid koos nendega, kes juhivad tehisintellekti arendustegevust, ja isegi nendega, kes lõpuks AI-süsteeme kasutavad ja hooldavad. Kõiki sidusrühmi kogu tehisintellekti arendamise ja kasutamise elutsükli jooksul arvestatakse eetilise tehisintellekti väljakujunenud normide järgimise raames. See on oluline esiletõst, kuna tavaliselt eeldatakse, et tehisintellekti eetika põhimõtetest peavad kinni pidama „ainult kodeerijad” või need, kes programmeerivad tehisintellekti. Nagu varem öeldud, on tehisintellekti väljatöötamiseks ja väljatöötamiseks vaja küla, mille jaoks kogu küla peab olema kursis ja järgima tehisintellekti eetika ettekirjutusi.

Teeme ka kindlaks, et oleme tänapäeva tehisintellekti olemuse osas ühel lainel.

Tänapäeval pole AI-d, mis oleks tundlikud. Meil pole seda. Me ei tea, kas tundlik tehisintellekt on võimalik. Keegi ei oska täpselt ennustada, kas saavutame tundliku tehisintellekti, ega seda, kas tundlik tehisintellekt tekib mingil imekombel spontaanselt arvutusliku kognitiivse supernoova kujul (mida tavaliselt nimetatakse singulaarsuseks, vt minu kajastust aadressil link siin).

AI tüüp, millele ma keskendun, koosneb mittetundlikust tehisintellektist, mis meil praegu on. Kui me tahtsime metsikult spekuleerida tundlik AI, see arutelu võib minna radikaalselt teises suunas. Tundlik tehisintellekt oleks väidetavalt inimliku kvaliteediga. Peaksite arvestama, et tundlik tehisintellekt on inimese kognitiivne vaste. Veelgi enam, kuna mõned oletavad, et meil võib olla üliintelligentne tehisintellekt, on mõeldav, et selline tehisintellekt võib lõpuks olla inimestest targem.

Hoidkem asjad maalähedasemalt ja arvestagem tänapäevase arvutusliku mittetundliku AI-ga.

Mõistke, et tänapäeva tehisintellekt ei ole võimeline inimese mõtlemisega võrdselt "mõtlema". Kui suhtlete Alexa või Siriga, võib vestlusvõime tunduda inimese võimetega sarnane, kuid tegelikkus on see, et see on arvutuslik ja sellel puudub inimese tunnetus. AI uusim ajastu on laialdaselt kasutanud masinõpet (ML) ja süvaõpet (DL), mis võimendavad arvutusmustrite sobitamist. See on viinud tehisintellektisüsteemideni, millel on inimesele sarnased kalduvused. Samal ajal pole tänapäeval ühtegi tehisintellekti, millel oleks justkui terve mõistus ega kognitiivne imestus jõulise inimmõtlemise kohta.

ML/DL on arvutusliku mustrite sobitamise vorm. Tavaline lähenemisviis on see, et kogute andmeid otsustusülesande kohta. Sisestate andmed ML/DL arvutimudelitesse. Need mudelid püüavad leida matemaatilisi mustreid. Pärast selliste mustrite leidmist, kui see on leitud, kasutab AI-süsteem neid mustreid uute andmete leidmisel. Uute andmete esitamisel rakendatakse kehtiva otsuse tegemiseks "vanadel" või ajaloolistel andmetel põhinevaid mustreid.

Arvan, et võite arvata, kuhu see liigub. Kui inimesed, kes on teinud mustrilisi otsuseid, on kaasanud ebasoodsaid eelarvamusi, on tõenäoline, et andmed peegeldavad seda peenelt, kuid olulisel viisil. Masinõppe või süvaõppe arvutusmustrite sobitamine püüab lihtsalt andmeid vastavalt matemaatiliselt jäljendada. Tehisintellektiga loodud modelleerimisel iseenesest ei paista tervet mõistust ega muid tundlikke aspekte.

Lisaks ei pruugi AI arendajad ka aru saada, mis toimub. ML/DL-i salapärane matemaatika võib raskendada praegu varjatud eelarvamuste väljaselgitamist. Võiksite õigustatult loota ja eeldada, et AI-arendajad testivad potentsiaalselt maetud eelarvamusi, kuigi see on keerulisem, kui võib tunduda. On kindel võimalus, et isegi suhteliselt ulatusliku testimise korral on ML/DL-i mustrite sobitamise mudelites siiski kallutusi.

Võite kasutada kuulsat või kurikuulsat kõnekäänd prügi sisse prügi välja viimine. Asi on selles, et see sarnaneb pigem eelarvamustega, mis salakavalalt infundeeritakse tehisintellekti sukeldunud eelarvamustest. AI algoritmi otsuste tegemine (ADM) muutub aksiomaatiliselt koormatud ebavõrdsustega.

Pole hea.

Pöördume tagasi AI-põhise hääle kloonimise juurde.

Hiljutisel konverentsil oli Amazoni ettekanne mõeldud selleks, et tutvustada tehisintellektil põhineva häälkloonimise soovitavaid külgi ja tuua esile uusim tipptasemel tehisintellekt, mida Alexas oma võimete edendamiseks kasutatakse. Uudisteteadete kohaselt oli ettevalmistatud näide, mis pidi olema südantsoojendav ja meeleolukas, see, et laps palus Alexal, et tema vanaema loeks neile ette loo Võlur Oz. Publikule öeldi, et vanaema on siit ilmast lahkunud ja see oli vahend, et laps saaks sisuliselt taastada ühenduse oma kallilt hinnatud vanavanemaga. Kõik see oli ilmselt osa Amazoni koostatud videost, et aidata tutvustada Alexa arendusmeeskonna uusimaid tehisintellekti häälkloonimise läbimurdeid (hõlmab funktsioone, mida pole veel ametlikult avalikuks kasutamiseks käivitatud).

Üks reaktsioon sellele näitele on see, et võiksime olla väga liigutatud, et laps kuuleb taas oma vanaema häält. Eeldatakse, et vanaema ei olnud loo täielikku lugemist juba salvestanud, seega tegi tehisintellekti kloonimine seda tööd, et anda asjadele mulje, nagu teeks vanaema nüüd kogu lugemist.

Tähelepanuväärne ja suurepärane viis lähedastega ühenduse loomiseks, keda enam meiega pole.

Mitte kõik reporterid ja analüütikud (pluss Twitter) ei olnud seda edusammu soosivalt tõlgendanud. Mõned nimetasid seda lausa jubedaks. Väidetavalt oli surnud lähedase hääle taasluua püüdmine kummaline ja pisut veider ettevõtmine.

Küsimusi on palju, näiteks:

  • Kas laps satuks segadusse ja usuks, et surnud lähedane on veel elus?
  • Kas laps võib nüüd sattuda mingisse ebameeldivasse vempu või petusse, kuna arvatakse, et vanaema on ikka veel meiega?
  • Kas laps võib surnud lähedasest kuuldes kannatada ja nüüdseks taas meeleheitel vanavanemat igatseda, justkui avaks juba lahenenud emotsionaalseid haavu?
  • Kas laps arvab, et lahkunu võib rääkida teisest küljest, nimelt see müstiline hääl, mis näib olevat just tema vanaema, räägib temaga hauast?
  • Kas on mõeldav, et laps arvab, et tehisintellekt on kuidagi kehastanud tema vanaema, antropomorfiseerides tehisintellekti nii, et laps kasvab üles, uskudes, et tehisintellekt suudab inimesi täielikult kopeerida?
  • Oletame, et laps vaimustub vanaema tehisintellektiga reprodutseeritud häälest nii, et laps muutub kinnisideeks ja kasutab seda häält igasuguseks heli kuulamiseks?
  • Kas häält kopeeriv müüja võib kasutada seda häält teiste jaoks, kes kasutavad sama üldist süsteemi, ilma perekonnalt selgesõnalise loata ja seega väljamõeldud häälest "kasu saamata"?
  • Ja nii edasi.

Oluline on mõista, et saate välja võluda sama palju negatiivset kui positiivset või ütleme nii palju positiivset kui negatiivset. Nende tehisintellekti edusammude taga on kompromissid. Ainult mündi ühe poole vaatamine on võib-olla lühinägelik.

Peaasi on veenduda, et me käsitleme nende probleemide kõiki külgi. Ärge olge oma mõtlemises hägune. Võib olla lihtne uurida ainult positiivseid külgi. Võib olla lihtne uurida ainult negatiivseid külgi. Peame uurima mõlemat ja välja mõtlema, mida saab teha, et loodetavasti võimendada positiivseid külgi ja püüda vähendada, kõrvaldada või vähemalt leevendada negatiivseid külgi.

Teatud määral on seetõttu AI eetika ja eetiline tehisintellekt nii oluline teema. AI eetika ettekirjutused panevad meid valvsaks jääma. Tehisintellekti tehnoloogid võivad mõnikord olla hõivatud tehnoloogiaga, eriti kõrgtehnoloogia optimeerimisega. Nad ei pea tingimata arvestama suuremate ühiskondlike tagajärgedega. Asjakohase tehisintellekti loomiseks on ülioluline omada AI-eetikat ja teha seda tehisintellekti arendamise ja kasutamisega lahutamatult.

Lisaks tehisintellekti eetika kasutamisele on vastav küsimus, kas meil peaks olema seadusi, mis reguleeriksid AI erinevaid kasutusviise, näiteks tehisintellektil põhinevaid häälkloonimise funktsioone. Föderaalsel, osariigi ja kohalikul tasandil kehtestatakse uued seadused, mis puudutavad tehisintellekti väljatöötamise ulatust ja olemust. Selliste seaduste väljatöötamine ja jõustamine toimub järk-järgult. AI eetika on vähemalt kaalutletud vahepeatus.

Sellegipoolest väidavad mõned, et me ei vaja uusi tehisintellekti hõlmavaid seadusi ja et meie olemasolevad seadused on piisavad. Tegelikult hoiatavad nad ette, et kui me mõned neist tehisintellekti seadustest vastu võtame, tapame kuldhane, piirates tehisintellekti edusamme, mis pakuvad tohutuid ühiskondlikke eeliseid. Vaadake näiteks minu kajastust aadressil link siin ja link siin.

Vean kihla, et selle kaaluka arutelu praegusel hetkel soovite mõnda illustreerivat näidet, mis võiksid seda teemat tutvustada. Seal on eriline ja kindlasti populaarne näidete kogum, mis on mulle südamelähedane. Näete, et tehisintellekti, sealhulgas eetiliste ja juriidiliste tagajärgede eksperdina, palutakse mul sageli leida realistlikke näiteid, mis tutvustavad tehisintellekti eetika dilemmasid, et teema mõnevõrra teoreetiline olemus oleks hõlpsamini hoomatav. Üks muljetavaldavamaid valdkondi, mis seda eetilist tehisintellektiprobleemi ilmekalt esitleb, on tehisintellektil põhinevate tõeliste isejuhtivate autode tulek. See on mugav kasutusjuht või näide selle teema kohta rohkeks aruteluks.

Siin on tähelepanuväärne küsimus, millele tasub mõelda: Kas tehisintellektil põhinevate tõeliste isejuhtivate autode tulek valgustab midagi tehisintellektil põhineva hääle kloonimise kohta ja kui jah, siis mida see näitab?

Lubage mul veidike küsimus lahti pakkida.

Esiteks pange tähele, et tõelises isejuhtivas autos ei ole inimjuhti. Pidage meeles, et tõelisi isejuhtivaid autosid juhitakse tehisintellekti juhtimissüsteemi kaudu. Roolis pole vaja inimjuhti, samuti pole ette nähtud, et inimene saaks sõidukit juhtida. Minu ulatusliku ja pideva autonoomsete sõidukite (AV-de) ja eriti isejuhtivate autode kajastuse kohta vt link siin.

Tahaksin veelgi selgitada, mida mõeldakse tõeliste isejuhtivate autode all.

Isesõitvate autode tasemete mõistmine

Selgituseks võib öelda, et tõelised isejuhtivad autod on need, kus tehisintellekt juhib autot täiesti iseseisvalt ja juhtimisülesande täitmisel puudub inimabi.

Neid juhita sõidukeid peetakse 4. ja 5. tasemeks (vt minu selgitust aadressil see link siin), samas kui autot, mis nõuab inimjuhilt ühist juhtimiskoormust, peetakse tavaliselt 2. või 3. tasemel. Sõiduülesandeid ühiselt jagavaid autosid kirjeldatakse kui poolautonoomseid ja tavaliselt sisaldavad need mitmesuguseid automatiseeritud lisandmoodulid, mida nimetatakse ADAS-iks (Advanced Driver-Assistance Systems).

Tõelist isejuhtivat autot 5. tasemel veel ei ole ja me ei tea veel isegi, kas seda on võimalik saavutada või kui kaua selleni jõudmine aega võtab.

Samal ajal püüavad 4. taseme jõupingutused saada järk-järgult veojõudu, läbides väga kitsaid ja selektiivseid avalike maanteede katseid, kuigi on vaidlusi selle üle, kas see testimine peaks olema iseenesest lubatud (me kõik oleme katses elu või surma merisead Mõned väidavad, et see toimub meie kiirteedel ja kõrvalteedel, vaadake minu kajastust aadressil see link siin).

Kuna poolautonoomsed autod nõuavad inimese juhti, ei erine seda tüüpi autode kasutuselevõtt märkimisväärselt tavapäraste sõidukite juhtimisest, nii et nende teema käsitlemiseks pole iseenesest palju uut (ehkki nagu näete) hetke pärast on järgmised punktid üldiselt kohaldatavad).

Poolautonoomsete autode puhul on oluline, et avalikkust tuleb hoiatada häirivast aspektist, mis on viimasel ajal esile kerkinud, nimelt sellest hoolimata, et hoolimata nendest inimjuhtidest, kes pidevalt postitavad videoid, kuidas nad magavad 2. või 3. taseme auto roolis, , peame kõik vältima eksitavat veendumust, et juht võib poolautonoomse auto juhtimisel juhtida tähelepanu juhtimisülesandelt ära.

Teie olete sõiduki juhtimistoimingute eest vastutav isik, sõltumata sellest, kui palju automaatikat võib 2. või 3. tasemele visata.

Isejuhtivad autod ja tehisintellektil põhinev hääle kloonimine

4. ja 5. taseme tõeliste isesõitvate sõidukite korral ei ole juhtimises osalenud ükski inimene.

Kõik sõitjad on reisijad.

AI teeb sõitu.

Üks aspekt, mida kohe arutada, hõlmab asjaolu, et tänapäevases tehisintellekti juhtimissüsteemides osalev tehisintellekt ei ole mõistlik. Teisisõnu, tehisintellekt on kokku arvutipõhise programmeerimise ja algoritmide kollektiiv ning kindlasti pole ta võimeline arutlema samal viisil, nagu seda suudavad inimesed.

Miks on see rõhuasetus sellele, et tehisintellekt ei ole tundlik?

Kuna tahan rõhutada, et tehisintellekti juhtimissüsteemi rolli üle arutledes ei omista ma tehisintellektile inimlikke omadusi. Pange tähele, et tänapäeval on tehisintellekt antropomorfiseerida pidevalt ja ohtlikult. Sisuliselt määravad inimesed tänasele tehisintellektile inimesesarnase tundlikkuse, hoolimata vaieldamatust ja vaieldamatust asjaolust, et sellist tehisintellekti veel pole.

Selle selgitusega saate ette kujutada, et tehisintellekti juhtimissüsteem ei tea oma olemuselt kuidagi sõidu tahke. Juhtimine ja kõik sellega kaasnev tuleb programmeerida isejuhtiva auto riist- ja tarkvara osana.

Sukeldume lugematutesse aspektidesse, mis sellel teemal mängima tulevad.

Esiteks on oluline mõista, et kõik AI isejuhtivad autod ei ole ühesugused. Kõik autotootjad ja isejuhtivad tehnoloogiafirmad kasutavad isejuhtivate autode väljatöötamisel oma lähenemisviisi. Sellisena on raske teha põhjalikke väiteid selle kohta, mida AI-juhtimissüsteemid teevad või mitte.

Lisaks, kui väidetakse, et tehisintellekti juhtimissüsteem ei tee mõnda konkreetset asja, võivad sellest hiljem mööda minna arendajad, kes tegelikult programmeerivad arvuti seda tegema. Samm -sammult täiustatakse ja laiendatakse tehisintellekti juhtimissüsteeme järk -järgult. Olemasolevat piirangut ei pruugi süsteemi tulevases iteratsioonis või versioonis enam olla.

Loodan, et see annab piisava hulga hoiatusi, et toetuda sellele, mida kavatsen käsitleda.

Visandame stsenaariumi, mis võib AI-põhist hääle kloonimist võimendada.

Vanem ja tema laps istuvad tehisintellektil põhinevasse isejuhtivasse autosse. Nad lähevad oma kohalikku toidupoodi. Eeldatavasti tuleb see suhteliselt sündmustevaene sõit. Lihtsalt iganädalane autosõit poodi, kuigi juht on tehisintellektiga juhtimissüsteem ja vanem ei pea sõitma.

Lapsevanema jaoks on see suur õnnistus. Selle asemel, et keskenduda juhtimisele ja juhtimisega tegelemisele, saab vanem pühendada oma tähelepanu oma lapsele. Nad saavad autonoomses sõidukis koos mängida ja väärtuslikku aega veeta. Kui tavaliselt häirib vanem autojuhtimise ajal tähelepanu ning muutub tõenäoliselt ärevaks ja närviliseks, liikudes tiheda liiklusega tänavatel ja suheldes teiste läheduses olevate hulljulgete autojuhtidega, siis siin on vanem nendest muredest õndsalt teadlik ja suhtleb oma kalli lapsega ainult meeldivalt.

Vanem räägib tehisintellekti juhtimissüsteemiga ja käsib tehisintellektil nad toidupoodi viia. Tüüpilise stsenaariumi korral reageerib AI neutraalse helihääletuse kaudu, mida võite tuttavalt kuulda tänapäeva Alexa või Siri kaudu. Tehisintellekt võib vastata väitega, et toidupood on 15-minutilise sõidu kaugusel. Lisaks võib tehisintellekt väita, et isejuhtiv auto paneb need poe ette.

See võib sellise stsenaariumi korral olla tehisintellekti ainus häälega seotud tegevus. Võimalik, et kui isejuhtiv auto jõuab toidupoe lähedale, võib tehisintellekt öelda midagi sihtkoha lähenemise kohta. Autonoomsest sõidukist väljudes võib olla ka hääleline meeldetuletus, et võtke asjad endaga kaasa.

Olen selgitanud, et mõned tehisintellekti juhtimissüsteemid on justkui jutuvad kassid. Nad on programmeeritud inimestest sõitjatega sujuvamaks ja pidevaks suhtlemiseks. Kui satud sõidujagamissõidukisse, mida juhib inimene, tahad mõnikord, et juht oleks jutukas. Lisaks tere ütlemisele võite soovida, et nad räägiksid teile kohalikest ilmastikutingimustest või juhiksid tähelepanu muudele kohtadele, mida piirkonnas näha. Kõik ei taha jutukas kassi, seega peaks tehisintellekt olema välja töötatud nii, et ta peaks dialoogi pidama ainult siis, kui inimene seda nõuab, vaata minu kajastust aadressil link siin.

Nüüd, kui mul on kõik kindlaks tehtud, muudame asju väikesel, kuid olulisel moel.

Teeskle, et tehisintellekti juhtimissüsteemil on AI-põhine hääle kloonimise funktsioon. Oletame ka, et vanem külvas varem AI-hääle kloonimise, esitades lapse vanaema helilõigu. Üllatus, mõtleb vanem, ma lasen tehisintellekti juhtimissüsteemil rääkida nii, nagu see oleks lapse surnud vanaema.

Toidupoodi sõites suhtleb tehisintellekti juhtimissüsteem vanema ja lapsega, kasutades kogu aeg ainult vanaema kloonitud häält.

Mida sa sellest arvad?

Jube või meeldejääv?

Ma tõstan asju järsult. Sea end valmis. Kinnita turvavöö.

Mõned usuvad nagu mina, et lõpuks lubame lastel AI-põhiste isejuhtivate autodega ise sõita, vt minu analüüsi aadressil link siin.

Tänapäeva inimese juhitavates autodes peab alati kohal olema täiskasvanud inimene, sest seaduse järgi peab roolis olema täiskasvanud juht. Praktilistel eesmärkidel ei saa te kunagi last istuda liikuvas autos, mis on ise sõidukis (jah, ma tean, et seda juhtub, näiteks suure filmistaari silmapaistev 10-aastane poeg, kes hiljuti tagandas väga kallis auto teise väga kalliks autoks, aga igatahes on need haruldused).

Tänapäeva lapsevanemad vaidleksid tõenäoliselt karmilt vastu sellele, et lubataks oma lastel sõita isejuhtivas autos, mille sõidukis pole täiskasvanut, kes täidaks järelevalvet või valvab oma lapsi. Ma tean, et seda tundub peaaegu võimatu ette kujutada, kuid ma vean kihla, et kui isejuhtivad autod on levinud, aktsepteerime paratamatult mõtet, et lapsed on isejuhtivas autos sõites ilma täiskasvanuteta.

Võtke arvesse mugavuse tegurit.

Olete tööl ja teie ülemus kihutab teid ülesandega toime tulema. Peate oma lapse koolist ära tooma ja pesapallitrenni viima. Oled takerdunud kivi ja raske koha vahele, kuna lepitad ülemusega liiga või ei vii last harjutusväljakule. Keegi teine, keda te teate, ei paku teie lapsele lifti. Kui midagi, siis kindlasti ei taha te kasutada sõidujagamisteenust, millel on inimjuht, sest loomulikult oleksite mures selle pärast, mida see võõras täiskasvanu võib teie lapsele sõidu ajal öelda või teha.

Pole probleemi, ärge muretsege, kasutage lihtsalt tehisintellektil põhinevat isejuhtivat autot. Suunate isejuhtiva auto kaugjuhtimisega lapsele järele minema. Isejuhtiva auto kaamerate kaudu saate näha ja jälgida, kuidas teie laps autonoomsesse sõidukisse siseneb. Lisaks on olemas sissepoole suunatud kaamerad ja saate jälgida oma last kogu sõiduteekonna vältel. See tundub sama ohutu kui mitte turvalisem kui paluda võõral inimjuhil teie lapsele lifti pakkuda. Sellegipoolest tunnevad mõned õigustatult muret, et kui autojuhtimine läheb viltu, jäetakse laps endale ja ükski täiskasvanu ei tule kohe kohale, et last aidata või juhendada.

Kui jätta kõrvale arvukad pahandused, oletame, et sama vanem ja laps, keda ma eelmises stsenaariumis kirjeldasin, on okei, kui laps läheb sõitma ilma vanema juuresolekuta. Lihtsalt nõustuge, et see on lõpuks elujõuline stsenaarium.

Siin on finaali kicker.

Iga kord, kui laps AI-põhises isejuhtivas autos sõidab, tervitatakse teda ja suhtleb tehisintellektiga, kuna see kasutab tehisintellektil põhinevat hääle kloonimist ja kopeerib lapse surnud vanaema häält.

Mida arvate nendest õuntest?

Kui isejuhtivas autos viibis ka vanem, võiksime ehk vabandada tehisintellekti häälekasutust, sest vanem annab lapsele nõu, mis toimub, kui AI-heli kõneleb. Aga kui vanemat pole kohal, eeldame nüüd, et lapsel on vanaema hääle replikatsiooniga idülliliselt hästi.

See on kindlasti üks nendest peatumishetkedest, mil tuleb tõsiselt mõelda, kas see on lapsele hea või halb.

Järeldus

Teeme väikese mõtteeksperimendi, et neid kaalukaid asju mõtiskleda.

Palun pakkuge kolm kindlalt välja positiivne AI-põhise hääle kloonimise põhjused.

Ma ootan, kuni sa nendega välja tuled.

Järgmiseks mõtle kindlalt välja kolm negatiivne põhjused, mis takistavad tehisintellektil põhineva hääle kloonimise tulekut.

Ma eeldan, et olete mõne välja mõelnud.

Ma mõistan, et kahtlemata võite leida palju rohkem põhjuseid kui kolm, millest igaüks seda tehnoloogiat kas pooldab või ei pooldab. Kas teie arvates kaaluvad negatiivsed positiivsed üles? On neid kriitikuid, kes väidavad, et me peaksime sellistele jõupingutustele panustama.

Mõned tahavad proovida ja blokeerida ettevõtteid tehisintellektil põhineva häälkloonimise kasutamisest, kuid mõistavad, et see on üks klassikalisi raskusi. Iga ettevõte, kes selle kasutamise lõpetab, on tõenäoline, et mõni teine ​​ettevõte hakkab seda kasutama. Kella külmutamine või seda tüüpi tehisintellekti kõrvale nihutamine on peaaegu võimatu.

Selle teema viimases märkuses kujutage ette, mis võib juhtuda, kui suudame kunagi saavutada tundliku tehisintellekti. Ma ei ütle, et see juhtub. Me võime igal juhul spekuleerida ja näha, kuhu see võib viia.

Esiteks kaaluge arusaadavat tsitaati rääkimise ja hääle omamise kohta. Madeleine Albright ütles kuulsalt: "Mul kulus hääle arendamiseks üsna kaua aega ja nüüd, kui mul see on, ei kavatse ma vait olla."

Kui me suudame toota tajuvat tehisintellekti või tekib mõistus mingil moel isegi siis, kui me seda otseselt esile ei too, siis milline hääl peaks sellel tehisintellektil olema? Oletame, et see suudab kasutada oma tehisintellektil põhinevat hääle kloonimist ja seega toota mis tahes inimese häält mõne noorukikese helijupi abil, mis võib olla selle inimese lausutuna saadaval. Selline tehisintellekt võib siis rääkida ja teid petta, et uskuda, et tehisintellekt on näiliselt see inimene.

Võib-olla soovib AI omada oma häält ja tahtlikult välja töötada hääle, mis on täiesti erinev kõigist teistest inimhäältest, soovides olla eriline oma võluval moel.

Jumal, see jätab inimese peaaegu sõnatuks.

Allikas: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- mõeldud-kasutamiseks-ai-autonoomsetes süsteemides/