Ce s-a întâmplat după ce oamenii de știință au făcut agenții AI mai nepoliticoși? Atunci când Inteligența Artificială (AI) este lăsată să comunice mai mult ca un om, devine un partener de dezbatere mai eficient și ajunge la concluzii mai corecte, arată un nou studiu.
Comunicarea umană este plină de ezitări, întreruperi pasionale, momente de tăcere și ambiguități. În schimb, AI-ul funcționează de regulă într-un stil rigid: primește o comandă, procesează informația, formulează un răspuns complet și apoi așteaptă următoarea solicitare.
„Sistemele multi-agent actuale par adesea artificiale deoarece le lipsesc dinamica dezordonată și în timp real a conversațiilor umane. Am vrut să vedem dacă oferirea unor indicii sociale pe care le considerăm firești, precum posibilitatea de a întrerupe sau de a rămâne tăcut, ar îmbunătăți inteligența colectivă a agenților”, a explicat Yuichi Sei, profesor la University of Electro-Communications din Tokyo (Japonia).
Ce s-a întâmplat după ce oamenii de știință au făcut agenții AI mai nepoliticoși? Sei și colegii săi au propus un cadru în care modelele lingvistice mari (LLM) nu mai sunt obligate să respecte strict alternanța „vorbește pe rând”. Fiecărui model i-a fost atribuită o „personalitate”, care îi permitea să intervină peste alt vorbitor, să îl întrerupă sau să aleagă să nu spună nimic.
Cercetătorii au pornit de la modelul psihologic al „Big Five” (deschidere, conștiinciozitate, extraversiune, agreabilitate și nevrotism), integrând aceste trăsături în comportamentul LLM-urilor. Apoi au modificat modul de generare a răspunsurilor: în loc să producă un mesaj complet dintr-o dată, modelele procesau conversația propoziție cu propoziție, ceea ce permitea controlul fin al fluxului discuției.
Au fost testate trei scenarii: ordine fixă de vorbire, ordine dinamică și ordine dinamică cu posibilitatea de întrerupere. În ultimul caz, sistemul calcula un „scor de urgență”. Dacă modelul detecta o eroare sau un punct esențial, scorul creștea și îi permitea să intervină imediat, indiferent de rândul la vorbire. Dacă scorul era scăzut, modelul interpreta că nu are nimic relevant de adăugat, reducând astfel „zgomotul” inutil din conversație.
Performanța a fost evaluată folosind 1.000 de întrebări din testul Massive Multitask Language Understanding (MMLU), care include probleme din domenii variate, de la științe exacte la științe umaniste, indică Live Science.
Rezultatele au arătat diferențe clare. Atunci când un agent oferea inițial un răspuns greșit, acuratețea totală era de 68,7% în sistemul cu ordine fixă, 73,8% în cel cu ordine dinamică și 79,2% când întreruperile erau permise. Într-un scenariu mai dificil, în care doi agenți porneau de la răspunsuri greșite, acuratețea a fost de 37,2% (ordine fixă), 43,7% (ordine dinamică) și 49,5% (cu întreruperi).
Concluzia este că modelele cu „personalitate” și flexibilitate conversațională pot depăși performanța chatboților tradiționali. Echipa intenționează să aplice aceste rezultate în domenii care implică colaborare creativă, pentru a analiza modul în care „personalitățile digitale” influențează procesul decizional în grup.
„În viitor, agenții AI vor interacționa tot mai mult între ei și cu oamenii, în contexte colaborative. Rezultatele noastre sugerează că discuțiile modelate de personalitate, inclusiv de posibilitatea de a întrerupe când este necesar, pot duce uneori la rezultate mai bune decât schimburile strict ordonate și excesiv de politicoase”, spune Sei.
Agenții AI sunt matematic incapabili să efectueze o muncă funcțională
Inteligența Artificială supraestimează inteligența oamenilor. Ce au descoperit cercetătorii?