Microsoft täiustab AI Chatboti turvalisust, et tõrjuda pettureid

Microsoft Corp on lisanud Azure AI Studiosse mitmeid turbefunktsioone, mis peaksid aja jooksul jätkuvalt vähendama tõenäosust, et selle kasutajad konfigureerivad tehisintellekti mudelid režiimi, mis paneks nad ebanormaalselt või sobimatult käituma.Redmondis asuv rahvusvaheline tehnoloogiaettevõte, Washington kirjeldas täiustusi ajaveebi postituses, rõhutades tehisintellekti interaktsioonide terviklikkuse tagamist ja usalduse suurendamist kasutajabaasi vastu.

Kiired kilbid ja palju muud 

Peamiste arengute hulgas on "kiirekilpide" loomine, mis on loodud tehisintellektiga vestlusrobotidega vesteldes kiirete süstide leidmiseks ja tapmiseks. Need on niinimetatud jailbreakid ja on põhimõtteliselt kasutajate sisendid, mis on tahtlikult kujundatud nii, et need kutsuvad esile AI mudelite soovimatu vastuse.

Näiteks Microsoft mängib oma osa kaudselt kiirete süstidega, kus on võimalik kurjade korralduste täitmine ja selline stsenaarium võib kaasa tuua tõsiseid turvatagajärge nagu andmete vargus ja süsteemi kaaperdamine. Microsofti vastutustundliku tehisintellekti tootejuhi Sarah Birdi sõnul on mehhanismid võtmetähtsusega nende ainulaadsete ohtude tuvastamisel ja neile reageerimisel reaalajas.

Microsoft lisab, et peagi ilmuvad kasutaja ekraanile hoiatused, mis viitavad sellele, kui mudel avaldab tõenäoliselt valet või eksitavat teavet, tagades sellega suurema kasutajasõbralikkuse ja usalduse.

Usalduse loomine AI tööriistade vastu 

Microsofti jõupingutused on osa suuremast algatusest, mille eesmärk on anda inimestele kindlustunne üha populaarsemaks muutuva generatiivse AI vastu, mida kasutatakse laialdaselt üksiktarbijatele ja äriklientidele suunatud teenustes. Pärast juhtumeid, kus kasutajad said Copiloti vestlusbotiga veidraid või kahjulikke väljundeid tootma panna, astus Microsoft läbi peene hambakammi. See toetab tulemust, mis näitab vajadust tugeva kaitse järele mainitud manipuleerivate taktikate vastu, mis tõenäoliselt tõusevad koos tehisintellekti tehnoloogiate ja populaarsete teadmistega. Ennustamine ja seejärel leevendamine on ründemudelite äratundmine, näiteks kui ründaja kordab küsitlemist või annab rollimängus juhiseid.

OpenAI suurima investorina ja strateegilise partnerina nihutab Microsoft vastutustundlike ja ohutute generatiivsete AI-tehnoloogiate kaasamise ja loomise piire. Mõlemad on pühendunud Generative AI vastutustundlikule kasutuselevõtule ja ohutusmeetmete alusmudelitele. Kuid Bird möönis, et need suured keelemudelid ei ole manipuleerimiskindlad, isegi kui neid hakatakse nägema suure osa tulevase tehisintellekti innovatsiooni alusena.

Nendele alustele tuginemine nõuab palju enamat kui pelgalt mudelitele endile lootmist; see vajaks terviklikku lähenemist tehisintellekti ohutusele ja turvalisusele.

Microsoft teatas hiljuti oma Azure AI Studio turvameetmete tugevdamisest, et näidata ja tagada ennetavaid samme muutuva AI-ohtude maastiku kaitsmiseks.

Selle eesmärk on vältida tehisintellekti väärkasutust ning säilitada tehisintellekti interaktsiooni terviklikkus ja usaldusväärsus, kaasates õigeaegsed ekraanid ja hoiatused.

Tehisintellekti tehnoloogia pideva arengu ja selle kasutuselevõtuga paljudes igapäevaelu valdkondades on Microsoftil ja ülejäänud tehisintellekti kogukonnal viimane aeg säilitada väga valvsa turvalisuse hoiak.

Allikas: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/