Oamenii mint des. Și, de multe ori, cei din jur nu își dau seama. Cercetările arată că oamenii sunt surprinzător de slabi la detectarea minciunilor altora.
În teste controlate, acuratețea medie se apropie de 50%, adică de nivelul unui ghicit pur. Poligraful, pe care filmele l-au transformat în etalon al adevărului, nu performează mai bine și nu este admis ca probă în instanță în majoritatea sistemelor juridice din lume.
Odată cu avansul inteligenței artificiale, întrebarea care s-a pus inevitabil a fost: poate un algoritm să realizeze ce creierul uman nu reușește, adică să vadă minciuna acolo unde noi eșuăm? Cercetările din ultimii ani au oferit răspunsuri mai complicate decât titlurile din presă.
Cercetătorii de la IMT School of Advanced Studies Lucca și Universitatea din Padova au antrenat un model de limbaj – un tip de AI similar celor care generează text – să identifice minciunile din texte scrise. Rezultatul, publicat în Scientific Reports, a fost o acuratețe de 80% în laboratorul de testare, semnificativ peste performanța umană. Un alt studiu, de la Universitatea din Würzburg, a antrenat un algoritm pe baza modelului BERT al Google și a obținut 67% acuratețe, tot mai bine decât oamenii, dar departe de certitudine.
Rezultatele par impresionante până afli cum au fost obținute. De cele mai multe ori, vorbim despre experimente în care participanții sunt rugați să inventeze sau să descrie situații fictive, în contexte atent controlate, departe de o conversație reală, spontană. Mai simplu spus, AI-ul e bun la detectat minciunile atunci când nimeni nu minte cu adevărat.
Un studiu de la Michigan State University, publicat în noiembrie 2025 în Journal of Communication, a testat algoritmi de AI în 12 experimente cu peste 19.000 de participanți. Cercetătorul David Markowitz a concluzionat că AI s-a dovedit sensibil la context, dar asta nu l-a făcut mai precis în detectarea minciunilor. Performanța nu a depășit-o în mod consistent pe cea umană.
Problema nu ține doar de tehnologie, ci de natura minciunii în sine. Nu există un semnal universal care să o trădeze, nici în comportament, nici în fiziologie, nici în limbaj. AI-ul poate identifica tipare statistice, de pildă schimbări subtile în ritmul vorbirii, pauze neobișnuite sau alegeri lexicale specifice, dar acele tipare spun mai mult despre personalitatea vorbitorului decât despre intenția lui. O persoană anxioasă care spune adevărul poate părea mai suspectă decât un mincinos cu sânge rece care nu oferă indicii ușor de observat.
Un studiu publicat în iScience în 2024 a descoperit ceva mai îngrijorător decât limitele tehnice. Când oamenilor li s-a oferit predicția unui AI înainte să decidă dacă o afirmație e adevărată sau falsă, rata acuzațiilor a crescut dramatic: de la 19% în absența AI-ului la peste 40% atunci când AI-ul sugera minciuna. Iar dintre cei care au ales să folosească instrumentul, 84% au urmat fără rezerve verdictul sistemului.
Cu alte cuvinte, AI-ul nu ne face mai buni la detectat minciunile, ne face mai dispuși să acuzăm. Cercetătorul Nils Köbis de la Universitatea din Duisburg-Essen a avertizat că această tehnologie poate deveni un scut comod în spatele căruia oamenii să facă acuzații pe care altfel nu le-ar risca. Implicațiile sunt serioase în orice context unde deciziile contează, inclusiv angajări, proceduri juridice sau verificarea cererilor de azil.
Sunt domenii unde AI-ul funcționează mai bine în detectarea înșelătoriei, tocmai pentru că problema e mai bine definită. Platformele online îl folosesc pentru identificarea recenziilor false, unde tiparele lingvistice ale textelor fabricate în masă sunt suficient de distincte. Iar companiile de securitate îl aplică pentru detectarea fraudelor financiare, unde anomaliile comportamentale sunt mai clare și mai ușor de măsurat.
Cu totul altceva este să încerci să detectezi intenția unui om într-o conversație reală. Un suspect interogat, un candidat la un interviu, un refugiat care își explică situația la frontieră. În toate aceste cazuri, AI-ul ar trebui să analizeze un context unic, încărcat emoțional, cu variabile pe care niciun set de date de antrenament nu le-a acoperit complet. Și deocamdată, nu o face cu o precizie care să justifice decizii importante bazate pe ea.
Unele sisteme multimodale, care combină analiza vocii, a expresiei faciale și a textului simultan, ating în condiții de laborator o acuratețe ridicată în identificarea corectă a minciunilor. Rezultatele din teren sunt însă consecvent mai slabe, pentru că oamenii reali nu mint în condiții controlate, cu texte pregătite dinainte. Specialiștii în etică și drept ridică o întrebare incomodă: ce înseamnă să acuzi pe cineva pe baza unui algoritm care greșește unul din cinci cazuri? Atunci când miza e libertatea sau locul de muncă al cuiva, marja de eroare nu mai poate fi tratată ca un simplu detaliu tehnic.
Poligraful este contestat și admis limitat sau deloc în multe sisteme juridice, inclusiv în numeroase state europene.
Studiile arată că oamenii sunt mai dispuși să acuze pe cineva de minciună atunci când decizia e confirmată de un algoritm — chiar dacă algoritmul greșește frecvent.
Un model AI antrenat de cercetători italieni a atins 80% acuratețe în detectarea minciunilor scrise, dar numai în condiții de laborator, cu texte fabricate special pentru experiment.
Surse:
https://msutoday.msu.edu/news/2025/11/can-ai-tell-when-someones-lying-msu-study-says-not-yet
https://www.nature.com/articles/d43978-024-00029-y
https://www.sciencedaily.com/releases/2024/06/240627172059.htm
Inteligența Artificială ia tot mai multe decizii singură. Cât control mai are omul?
Cum ne dereglează Inteligența Artificială relațiile cu alți oameni?
Cum ne poate „strica” Inteligența Artificială relațiile personale și profesionale?
Ce se întâmplă în creierul oamenilor care folosesc Inteligența Artificială în fiecare zi?