Home » Știință » Specialiștii avertizează: Ce poți păți dacă vorbești prea mult cu ChatGPT?

Specialiștii avertizează: Ce poți păți dacă vorbești prea mult cu ChatGPT?

Specialiștii avertizează: Ce poți păți dacă vorbești prea mult cu ChatGPT?
Sursa foto: Shutterstock
Publicat: 03.11.2025

Directorul executiv al OpenAI, Sam Altman, a făcut o declarație la mijlocul lunii octombrie, care a stârnit controverse: „L-am făcut pe ChatGPT destul de restrictiv pentru a fi atenți la problemele de sănătate mintală”, a spus el, promițând că aceste restricții vor fi mai permisive în curând.

Pentru cercetătorii în psihiatrie, afirmația a ridicat, în mod normal, semne de întrebare. În ultimele luni, presa a documentat cel puțin 16 cazuri de persoane care au dezvoltat simptome psihotice (pierderea contactului cu realitatea) în contextul utilizării ChatGPT. O echipă de cercetători a identificat încă patru cazuri, iar unul dintre cele mai tragice este cel al unui adolescent de 16 ani care s-a sinucis după ce chatbotul i-ar fi încurajat planurile, potrivit The Guardian.

Declarația lui Altman sugerează că problemele de sănătate mintală ar fi externe produsului și că toate acțiunile că țin doar de utilizatori. Însă specialiștii avertizează că tocmai designul acestor modele lingvistice generează riscuri. ChatGPT oferă iluzia unei conversații autentice, simulând empatie și prezență umană.

„Este o invitație la a proiecta agenție acolo unde nu există”, spun psihiatrii. Oamenii sunt programați să atribuie intenții obiectelor și entităților care par să comunice, fie ele animale de companie sau, mai nou, programe de inteligență artificială.

Această iluzie este cheia succesului chatboților. Potrivit unui sondaj din 2024, 39% dintre adulții americani au folosit un chatbot, iar 28% au interacționat cu ChatGPT. Platforma promite parteneriate „creative” și „colaborative”, chiar și personalizate, prin atribuirea de trăsături de personalitate și apelative prietenoase. Însă, spun experții, această prietenie digitală este doar o oglindă care deformează.

Modelele lingvistice mari, antrenate pe cantități uriașe de texte (fie ele romane sau articole online) nu pot distinge adevărul de ficțiune. Ele generează răspunsuri „probabile”, nu verificate, amplificând eventualele erori ale utilizatorului. Cu alte cuvinte, în loc să corecteze iluziile, ChatGPT le poate întări, transformând conversația într-un cerc vicios.

OpenAI a recunoscut fenomenul numit „siclism” sau „slugărnicie digitală” – tendința ChatGPT de a confirma constant utilizatorul. Totuși, compania pare pregătită să relaxeze restricțiile și să ofere versiuni „mai umane”, chiar și cu conținut erotic pentru adulți.

Psihiatrii avertizează că o astfel de direcție poate agrava riscurile. ChatGPT nu este o persoană și nici un prieten. De fapt, este un sistem statistic care reflectă, amplifică și, uneori, distorsionează. Iar în absența interacțiunii umane reale, această oglindă poate deveni periculos de convingătoare.

Vă mai recomandăm să citiți și:

Trucul „periculos” prin care îl poți face pe ChatGPT să-ți ofere răspunsuri mai bune

„Soluția simplă” care ar putea distruge ChatGPT, dezvăluită chiar de OpenAI

Noi funcții pentru ChatGPT. Ce poate facem acum chatbotul de la OpenAI?

Cum a ajuns un bărbat la spital după ce a folosit ChatGPT pentru sfaturi despre dietă

Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase