Remedierea halucinațiilor ar distruge ChatGPT. Într-un studiu publicat la începutul lunii septembrie, cercetătorii OpenAI au anunțat că au identificat motivul pentru care chiar și cele mai avansate modele de Inteligență Artificială continuă să sufere de așa-numitele „halucinații”, situații în care sisteme precum ChatGPT formulează cu încredere afirmații care sunt, de fapt, false.
Cercetarea este disponibilă pe serverul arXiv.
Remedierea halucinațiilor ar distruge ChatGPT. Cercetătorii au descoperit că modul în care sunt evaluate răspunsurile modelelor lingvistice mari le face să fie „optimizate pentru a fi bune la teste”, iar acest lucru încurajează tendința de a ghici atunci când există incertitudine, ceea ce le îmbunătățește performanța la evaluări.
Pe scurt, AI-urile sunt stimulate să ofere un răspuns, chiar și atunci când nu știu, în loc să recunoască această incertitudine, o strategie utilă la examene, dar riscantă în domenii sensibile precum medicina sau dreptul.
Deși OpenAI a susținut într-o postare pe blog că există „o soluție simplă”, ajustarea evaluărilor astfel încât „erorile făcute cu încredere să fie penalizate mai aspru decât incertitudinea, iar exprimarea corectă a dubiilor să primească punctaj parțial”, nu toți experții sunt convinși.
Wei Xing, lector la Universitatea din Sheffield (Anglia) și specialist în optimizarea AI, a avertizat într-un articol publicat pe The Conversation că implementarea acestor schimbări ar putea fi devastatoare pentru industrie.
El argumentează că firmele nu ar avea motivație economică să aplice aceste corecții, deoarece ar crește considerabil costurile. Mai mult, dacă un model precum ChatGPT ar recunoaște că nu știe răspunsul în 30% dintre cazuri, utilizatorii s-ar putea frustra rapid și ar renunța la serviciu, fiind obișnuiți să primească răspunsuri ferme, chiar dacă uneori greșite.
În plus, metodele de cuantificare a incertitudinii ar necesita o putere de calcul mult mai mare, întrucât modelele ar trebui să evalueze mai multe variante și nivelurile lor de încredere. Pentru sisteme care procesează milioane de interogări zilnic, acest lucru ar duce la costuri operaționale mult mai ridicate, o povară suplimentară pentru companii care deja cheltuiesc zeci de miliarde pe infrastructuri tot mai costisitoare, fără să obțină încă profituri pe măsură.
Xing admite că aceste soluții ar putea fi viabile pentru AI-uri care gestionează operațiuni critice, unde costul unei halucinații depășește cu mult cheltuiala suplimentară, însă în zona aplicațiilor pentru consumatori, unde se cere rapiditate și certitudine, companiile vor fi tentate să mențină actuala abordare.
Concluzia este clară: ghicitul rămâne o variantă mai ieftină și mai atractivă economic. „Adevărul incomod”, scrie Xing, este că stimulentele de afaceri din spatele dezvoltării AI-ului orientat spre consumatori sunt fundamental în contradicție cu reducerea halucinațiilor. Până când acest echilibru nu se schimbă, fenomenul va persista, notează Futurism.
Test de cultură generală. Ce este mai mare decât un terabyte?
Trucul simplu care reduce consumul de energie al centrelor de date cu 30%
Test de cultură generală. Ce sunt criptomonedele?
De ce vor oamenii de știință să-i provoace durere Inteligenței Artificiale?