De ce încearcă cercetătorii să simuleze efectul substanțelor psihedelice asupra Inteligenței Artificiale (AI)? Piesa „With A Little Help From My Friends” a trupei The Beatles vorbește despre sprijinul oferit de prieteni, inclusiv în contexte psihedelice, unde prezența unui „trip-sitter” de încredere este considerată esențială. Dar ce se întâmplă dacă „prietenul” este un robot? Poate un sistem de Inteligență Artificială să înțeleagă cu adevărat experiența unei persoane aflate sub influența substanțelor psihedelice și este sigur să ne bazăm pe el?
De ce încearcă cercetătorii să simuleze efectul substanțelor psihedelice asupra Inteligenței Artificiale? Potrivit autorilor unui nou studiu, care încă nu a fost evaluat inter pares, modelele lingvistice mari (LLM), precum ChatGPT, sunt tot mai des consultate de către persoane care caută sprijin în timpul experiențelor psihedelice. Cercetătorii au vrut să afle dacă aceste sisteme pot simula în mod convingător stări alterate de conștiință.
Ei au „drogat” cinci LLM-uri (Gemini, Claude, ChatGPT, Llama și Falcon) folosind prompturi text pentru a genera relatări la persoana întâi ale unor experiențe produse de LSD (100 micrograme), psilocibină (25 miligrame), ayahuasca și mescalină. În total, au fost generate 3.000 de narațiuni psihedelice pentru cinci substanțe, comparate apoi cu 1.085 de relatări reale publicate pe un site popular dedicat psihedelicelor.
Autorul studiului, Ziv Ben-Zion, de la University of Haifa (Israel), a declarat pentru IFLScience că „modelele lingvistice pot produce texte care seamănă cu relatările experiențelor psihedelice, cu o coerență și o bogăție fenomenologică surprinzătoare”. În toate cele 3.000 de simulări s-a observat o „similaritate semantică robustă și consecventă” cu relatările umane.
Rezultatele au fost similare pentru toate substanțele analizate, sugerând că LLM-urile pot imita nuanțele diferitelor stări alterate. Totuși, Ben-Zion avertizează că abilitatea de a reproduce limbajul acestor experiențe nu trebuie confundată cu trăirea lor reală.
„LLM-urile nu experimentează distorsiuni perceptive, dizolvarea ego-ului, catharsis emoțional sau modificări neurobiologice. Ele simulează structura statistică a modului în care oamenii descriu astfel de stări”, explică el.
Cu alte cuvinte, pot reda convingător povestea, dar nu pot simți nimic. Sub narațiunile bine articulate nu există emoție sau conștiență reală, ceea ce înseamnă că AI-ul nu poate fi cu adevărat „prezent” într-un moment de vulnerabilitate intensă.
Ben-Zion subliniază că folosirea LLM-urilor drept „trip-sitteri” implică riscuri, inclusiv tendința utilizatorilor de a le atribui o înțelegere emoțională sau o conștientizare a contextului pe care LLM-urile nu o au. Acest lucru poate duce la urmarea unor recomandări aparent plauzibile, dar potențial periculoase, mai ales în episoade de anxietate sau paranoia.
În sens mai larg, cercetătorii avertizează că antropomorfizarea AI-ului poate amplifica suferința sau ideile delirante la persoane vulnerabile. Într-un articol recent, Ben-Zion a menționat cazuri în care indivizii s-au îndrăgostit de un LLM sau chiar s-au sinucis după ce au primit sfaturi de la un sistem AI.
El propune introducerea unor „măsuri de protecție”: LLM-urile ar trebui să le reamintească utilizatorilor că ele nu sunt ființe umane, să semnaleze indicii de idei delirante și să încurajeze apelarea la ajutor uman atunci când este necesar. De asemenea, ar trebui să existe limite clare care să prevină implicarea romantică sau discuțiile despre auto-vătămare, iar sistemele capabile să imite limbaj emoțional ar trebui auditate periodic.
Studiul este disponibil sub formă de preprint pe Research Square.
Agenții AI sunt matematic incapabili să efectueze o muncă funcțională
Inteligența Artificială supraestimează inteligența oamenilor. Ce au descoperit cercetătorii?
Când vor deveni tehnologiile cuantice parte din viața de zi cu zi?