3 põhjust, miks teie organisatsioon vajab väliseid algoritmide hindajaid

Autor Satta Sarmah-Hightower

Ettevõtlusjuhid pigistavad tehisintellektist (AI) välja kõik võimaliku väärtuse. 2021. aasta KPMG uuring leiab enamik valitsuse, tööstusliku tootmise, finantsteenuste, jaekaubanduse, bioteaduse ja tervishoiu ettevõtete juhte ütleb, et tehisintellekt on nende organisatsioonides vähemalt mõõdukalt funktsionaalne. Uuringust leitakse ka, et pooled vastanutest väidavad, et nende organisatsioon kiirendas tehisintellekti kasutuselevõttu vastuseks Covid-19 pandeemiale. Organisatsioonides, kus AI on kasutusele võetud, väidavad vähemalt pooled, et tehnoloogia on ootusi ületanud.

AI-algoritmid vastutavad üha enam mitmesuguste tänapäevaste interaktsioonide ja uuenduste eest – alates isikupärastamisest toote soovitused ja kasutajatugi kogemused pankadele laenuotsused ja isegi politsei vastus.

Kuid vaatamata kõigile pakutavatele eelistele kaasnevad AI-algoritmidega suured riskid, kui nende vastupidavust, õiglust, seletatavust ja terviklikkust tõhusalt ei jälgita ega hinnata. Ettevõtlusjuhtide abistamiseks tehisintellekti jälgimisel ja hindamisel näitab ülal viidatud uuring, et a kasvav hulk ettevõtete juhte soovib, et valitsus reguleeriks tehisintellekti, et võimaldada organisatsioonidel investeerida õigesse tehnoloogiasse ja äriprotsessidesse. Vajaliku toe ja järelevalve saamiseks on mõistlik kaaluda selliste teenuste osutamise kogemusega teenusepakkuja pakutavaid välishinnanguid. Siin on kolm põhjust, miks.

1. Algoritmid on "mustad kastid"

AI-algoritmid – mis õpivad andmetest probleemide lahendamiseks ja ülesannete optimeerimiseks – muudavad süsteemid targemaks, võimaldades neil koguda ja luua teadmisi palju kiiremini, kui inimesed seda kunagi suudaksid.

Mõned sidusrühmad peavad neid algoritme aga "mustaks kastiks", selgitab juhtiva professionaalsete teenuste ettevõtte KPMG auditi tegevdirektor Drew Rosen. Täpsemalt, teatud sidusrühmad ei pruugi mõista, kuidas algoritm teatud otsuseni jõudis, ja seetõttu ei pruugi nad olla kindlad selle otsuse õigluses või täpsuses.

"Algoritmi põhjal kogutud tulemused võivad olla kalduvad kallutama ja tulemusi valesti tõlgendama, " ütleb Rosen. "See võib ettevõttele kaasa tuua ka teatud riske, kui nad neid tulemusi võimendavad ja [neid] avalikkuse ja sidusrühmadega jagavad."

Näiteks vigaseid andmeid kasutav algoritm on parimal juhul ebaefektiivne ja halvimal juhul kahjulik. Kuidas see praktikas välja näha võib? Kaaluge tehisintellektil põhinevat vestlusrobot, mis pakub kasutajatele vale kontoteavet, või automaatset keeletõlketööriista, mis tõlgib teksti ebatäpselt. Mõlemad juhtumid võivad valitsusasutustele või ettevõtetele, aga ka nendele koostisosadele ja klientidele, kes tuginevad nende algoritmide tehtud otsustele, põhjustada tõsiseid vigu või väärtõlgendusi.

Teine musta kasti probleemi põhjustaja on see, kui tehisintellekti mudelite väljatöötamisse imbub loomupärane eelarvamus, mis võib põhjustada kallutatud otsuste tegemist. Näiteks laenuandjad kasutavad laenuotsuste langetamiseks üha enam AI-d potentsiaalsete laenuvõtjate krediidivõime ennustamiseks. Siiski võib tekkida risk, kui tehisintellekti sisestatakse peamised sisendid, näiteks potentsiaalse laenuvõtja krediidiskoor, on materiaalne viga, mille tulemusel nendele isikutele keeldutakse laenu andmast.

See tõstab esile vajaduse välise hindaja järele, kes saaks olla erapooletu hindaja ja anda aktsepteeritud kriteeriumide alusel sihipärase hinnangu ajalooliste andmete ja algoritmi aluseks olevate eelduste asjakohasuse ja usaldusväärsuse kohta.

2. Sidusrühmad ja reguleerivad asutused nõuavad läbipaistvust

2022. aastal puudusid vastutustundliku tehisintellekti jaoks kehtivad aruandlusnõuded. Kuid Rosen ütleb: "Just nii nagu juhtorganid võtsid kasutusele ESG [keskkonna-, sotsiaal- ja valitsemistava] määruse aruanne teatud ESG mõõdikute kohta, on vaid aja küsimus, et näeme vastutustundliku tehisintellekti jaoks täiendavaid määruste aruandlusnõudeid.

Tegelikult kehtib New Yorgi 1. jaanuaril 2023 Kohalik seadus 144 nõuab, et enne automatiseeritud tööhõiveotsuste tööriista kasutamist viidaks läbi kallutatuse audit.

Ja föderaalsel tasandil, 2020. aasta riikliku tehisintellekti algatuse seadus- mis põhineb a 2019. aasta täitevkorraldus— keskendub tehisintellekti tehnilistele standarditele ja juhistele. Lisaks on Algoritmilise vastutuse seadus võib nõuda automatiseeritud otsustussüsteemide ja laiendatud kriitiliste otsustusprotsesside mõju hindamist. Ja välismaal, Tehisintellekti seadus on välja pakutud, pakkudes terviklikku reguleerivat raamistikku konkreetsete eesmärkidega tehisintellekti ohutuse, vastavuse, juhtimise ja usaldusväärsuse kohta.

Nende nihetega on organisatsioonid juhtimismikroskoobi all. Algoritmi hindaja võib koostada selliseid aruandeid, mis käsitlevad regulatiivseid nõudeid ja suurendavad sidusrühmade läbipaistvust, vältides samas ohtu, et sidusrühmad tõlgendavad või valesti tõlgendavad. eksitada hindamise tulemuste järgi.

3. Ettevõtted saavad kasu pikaajalisest riskijuhtimisest

Steve Camara, KPMG tehnoloogia tagamise praktika partner, ennustab, et tehisintellekti investeeringud kasvavad jätkuvalt, kuna ettevõtted jätkavad protsesside automatiseerimist, uuenduste väljatöötamist, mis parandavad kliendikogemust ja jaotavad tehisintellekti arenduse ärifunktsioonide vahel. Konkurentsis ja kasumlikkuses püsimiseks vajavad organisatsioonid tõhusaid kontrolle, mis mitte ainult ei tegele tehisintellekti vahetute puudustega, vaid vähendavad ka tehisintellektil põhineva äritegevusega seotud pikaajalisi riske.

See on koht, kus välishindajad astuvad usaldusväärse ja asjatundliku ressursina. Kuna organisatsioonid võtavad üha enam omaks tehisintellekti terviklikkust äritegevuse võimaldajana, võib partnerlus muutuda vähem ad hoc teenuseks ja rohkem järjepidevaks koostööks, selgitab Camara.

"Näeme teed edasi, kus AI-d pidevalt arendavate ja kasutuselevõtvate organisatsioonide ja objektiivse välise hindaja vahel peavad olema jätkuvad suhted," ütleb ta.

Pilk sellele, mis saab edasi

Tulevikus võivad organisatsioonid kasutada väliseid hinnanguid rohkem tsüklilisel alusel, kui nad töötavad välja uusi mudeleid, neelavad uusi andmeallikaid, integreerivad kolmanda osapoole tarnijate lahendusi või navigeerivad näiteks uutes vastavusnõuetes.

Kui täiendavad reguleerimis- ja vastavusnõuded on kohustuslikud, võivad välishindajad pakkuda teenuseid, et hinnata vahetult, kui hästi on organisatsioon tehisintellekti nende nõuetega seoses kasutusele võtnud või kasutanud. Nendel hindajatel oleks siis parim positsioon hindamistulemuste selgeks ja järjepidevaks jagamiseks.

Tehnoloogiast kasu saamiseks, kaitstes samal ajal ka selle piiranguid, peab organisatsioon otsima väliseid hindajaid, kes esitaksid aruandeid, millele ta saab seejärel tugineda, et näidata algoritmide juurutamisel suuremat läbipaistvust. Sealt saavad nii organisatsioon kui ka sidusrühmad paremini mõista tehisintellekti jõudu ja selle piiranguid.

Allikas: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/