După ce te consulți cu Inteligența Artificială în legătură cu niște probleme personale, răspunsul primit este, cel mai frecvent, „Îmi pare rău că treci prin asta.” Îl citești. Poate chiar te liniștește puțin. Și chiar dacă este generat de un sistem artificial, nu de o persoană, totuși, reacția ta este reală.
Empatia artificială îi intrigă pe cercetători și îi neliniștește pe alții, și pentru a afla dacă un algoritm poate „simți”, trebuie mai întâi să înțelegem cum funcționează emoția la oameni.
Psihologii disting între empatia cognitivă – capacitatea de a înțelege perspectiva altcuiva – și empatia afectivă, care presupune trăirea emoțională a acelei stări. În vreme ce un om poate face ambele lucruri, sistemele AI pot simula doar prima formă. Modelele lingvistice analizează volume uriașe de text pentru a identifica tipare. Când cineva scrie „mă simt copleșit”, sistemul detectează indicii asociate stresului și generează un răspuns potrivit statistic. Nu există însă reacții biologice, și nici experiență internă.
Un studiu din JMIR Mental Health a constatat că participanții pot raporta niveluri de empatie față de povești generate de AI și că transparența asupra originii textului modifică această percepție, ceea ce sugerează că răspunsurile generate pot influența emoțiile utilizatorilor. Cu alte cuvinte, efectul poate fi real, chiar dacă sursa nu trăiește emoția.
Creierul uman caută intenții și semnale sociale, iar atunci când limbajul este cald și coerent, tindem să atribuim existența unei minți în spate. Acest fenomen poartă numele de antropomorfizare.
Un studiu publicat în Frontiers in Psychology arată că modul în care oamenii evaluează comunicarea emoțională depinde puternic de cine cred că a scris mesajul. Atunci când atribuția este umană, mesajul este perceput ca mai autentic, iar când este recunoscută ca provenind de la un sistem artificial, empatia percepută scade consistent. Totuși, diferența esențială rămâne: literatura de specialitate evidențiază că empatia afectivă presupune o experiență internă a emoției – un proces care implică conștiință și subiectivitate umană, aspecte pe care sistemele artificiale actuale nu le posedă. Algoritmii recunosc tipare. Nu simt.
În domeniul sănătății mintale, aplicațiile bazate pe AI oferă suport rapid, accesibil și fără judecată. Pentru un adolescent care nu îndrăznește să discute cu nimeni despre anxietatea lui, un astfel de dialog digital poate fi primul pas. Platforma poate ghida exerciții de respirație, poate organiza gânduri sau poate valida emoții. Dar există limite clare. Empatia umană implică responsabilitate morală și capacitatea de a interpreta nuanțe subtile ale unei situații complexe, în vreme ce un algoritm nu poate intui un pericol iminent dincolo de datele introduse.
Unii cercetători argumentează că empatia umană include un element de predicție – creierul nostru anticipează stările emoționale ale altora pentru a le înțelege mai rapid și mai eficient. Această teorie din neuroștiință, cunoscută drept predictive processing, sugerează o analogie între procesele cognitive umane și cele algoritmice, dar filozofii și neuroștiințele atrag atenția că anticiparea nu este echivalentă cu trăirea afectivă, care implică subiectivitate umană și conștiință.
În prezent, modelele conversaționale pot imita empatia într-un mod sofisticat și pot avea un impact psihologic real asupra utilizatorilor, dar a „simți” presupune experiență subiectivă. AI poate formula fraza potrivită, însă doar o ființă conștientă poate trăi ceea ce spune și poate înțelege ce înseamnă acea stare într-o viață reală, cu riscuri, alegeri și consecințe.
Surse:
https://pmc.ncbi.nlm.nih.gov/articles/PMC6867616/
https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2025.1525517/full
https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2025.1568911/full
https://mental.jmir.org/2024/1/e62679
Cum au ajuns „ghosting”, „gaslighting” și „narcisic” să ne organizeze viața emoțională
Copilăria lângă un părinte narcisic: consecințe emoționale și drumul către vindecare