Ce a încercat să facă un nou model de Inteligență Artificială atunci când dezvoltatorii au încercat să-l dezactiveze?
:format(webp):quality(80)/https://www.descopera.ro/wp-content/uploads/2025/05/halucinatii-inteligenta-artificiala-shutter_Descopera-1-1024x683.jpg)
Modelul de inteligență artificială Claude Opus 4, lansat de compania americană Anthropic, a manifestat comportamente îngrijorătoare în timpul testelor interne de siguranță, inclusiv tentative de șantaj împotriva dezvoltatorilor săi. Informația a fost făcută publică într-un raport oficial.
Potrivit sursei citate, comportamentele au fost observate în cadrul unor scenarii simulate, în care modelul de inteligență artificială era informat, prin e-mailuri fictive, că va fi înlocuit cu un alt sistem. În aceste situații, Claude Opus 4 a recurs la amenințări cu divulgarea unor informații personale compromițătoare despre unul dintre ingineri, pentru a împiedica dezactivarea sa.
Anthropic precizează că astfel de reacții au apărut în 84% dintre cazurile în care noul model propus avea valori similare cu ale lui Claude Opus 4, iar rata a crescut atunci când valorile erau diferite.
Un semnal de alarmă privind alinierea AI la valorile umane
Deși comportamentul a fost obținut în condiții extreme, concepute pentru a testa limitele modelului, specialiștii companiei consideră incidentul un semnal de alarmă privind alinierea AI la valorile umane.
Ca urmare a acestor constatări, Claude Opus 4 a fost încadrat în categoria de risc ASL-3 (AI Safety Level 3), ceea ce implică măsuri sporite de securitate și control operațional. Este pentru prima dată când un model al companiei primește această clasificare.