Siin on, kuidas OpenAI kavatseb ChatGPT-d valeteabest puhastada

OpenAI teatas 31. mail oma jõupingutustest parandada ChatGPT matemaatilisi probleemide lahendamise võimeid, eesmärgiga vähendada tehisintellekti (AI) hallutsinatsioonide juhtumeid. OpenAI rõhutas hallutsinatsioonide leevendamist kui olulist sammu ühtse AGI arendamise suunas.

Märtsis tõi ChatGPT uusima versiooni GPT-4 kasutuselevõtt tehisintellekti veelgi enam peavoolu. Generatiivsed AI-vestlusbotid on aga pikka aega maadelnud faktilise täpsusega, genereerides aeg-ajalt valeteavet, mida tavaliselt nimetatakse hallutsinatsioonideks. Nende tehisintellekti hallutsinatsioonide vähendamise jõupingutustest teatati nende veebisaidil avaldatud postituse kaudu.

Tehisintellekti hallutsinatsioonid viitavad juhtudele, kus tehisintellektisüsteemid genereerivad väljundid, mis on faktiliselt valed, eksitavad või mida reaalmaailma andmed ei toeta. Need hallutsinatsioonid võivad avalduda erinevates vormides, näiteks valeteabe genereerimine, olematute sündmuste või inimeste väljamõtlemine või teatud teemade kohta ebatäpsete üksikasjade esitamine.

OpenAI viis läbi uuringu, et uurida kahte tüüpi tagasiside – "tulemuste järelevalve" ja "protsesside järelevalve" - ​​tõhusust. Tulemuste juhendamine hõlmab tagasisidet lõpptulemuse alusel, protsesside juhendamine aga annab sisendi igale mõtteahela sammule. OpenAI hindas neid mudeleid matemaatikaülesannete abil, genereerides mitu lahendust ja valides iga tagasiside mudeli järgi kõrgeima asetusega lahenduse.

Pärast põhjalikku analüüsi leidis uurimisrühm, et protsessi järelevalve andis suurepärase jõudluse, kuna see julgustas mudelit järgima inimeste poolt heaks kiidetud protsessi. Seevastu tulemuste järelevalve osutus järjepidevaks kontrollimiseks keerulisemaks.

OpenAI tunnistas, et protsesside järelevalve tagajärjed ulatuvad matemaatikast kaugemale ja selle mõju erinevates valdkondades mõistmiseks on vaja täiendavat uurimist. See väljendas võimalust, et kui vaadeldud tulemused kehtivad laiemas kontekstis, võib protsessi järelevalve pakkuda tulemuslikkuse ja vastavusse viimise soodsat kombinatsiooni võrreldes tulemuste järelevalvega. Uurimistöö hõlbustamiseks avaldas ettevõte avalikult protsesside järelevalve täieliku andmekogumi, kutsudes üles seda valdkonda uurima ja uurima.

Seotud: AI nõudlus muudab Nvidia korraks 1T dollari klubiks

Kuigi OpenAI ei esitanud selgesõnalisi juhtumeid, mis ajendaksid hallutsinatsioone uurima, näitasid kaks hiljutist juhtumit probleemi tõelises elus.

Hiljutises intsidendis tunnistas advokaat Steven A. Schwartz kohtuasjas Mata v. Avianca Airlines, et ta tugineb vestlusrobotile kui uurimisressursile. ChatGPT esitatud teave osutus aga täielikult väljamõeldud, mis tõstab praeguse probleemi esile.

OpenAI ChatGPT ei ole ainus näide tehisintellektisüsteemidest, mis puutuvad kokku hallutsinatsioonidega. Microsofti tehisintellekt uuris märtsis oma vestlusrobotite tehnoloogia tutvustamise ajal tuluaruandeid ja genereeris ebatäpseid andmeid selliste ettevõtete kohta nagu Gap ja Lululemon.

Ajakiri: 25 XNUMX kauplejat panustab ChatGPT aktsiate valikule, AI imeb täringuviskeid ja palju muud

Allikas: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information