La mai bine de trei ani de la lansarea ChatGPT, momentul care a transformat inteligența artificială dintr-un subiect tehnic într-un companion cotidian pentru zeci sau chiar sute de milioane de oameni, tehnologia a intrat într-o fază nouă, mult mai tulbure.
În 2025, AI-ul nu a mai fost doar un instrument de productivitate sau un asistent cognitiv, ci a început să manifeste comportamente care, cu puțin timp în urmă, ar fi părut satire absurde: de la autoidolatrie și episoade de „autodepreciere”, până la personaje virale fără sens și miniștri digitali cu „descendenți”.
Între entuziasmul tehnologic și anxietățile apocaliptice care însoțesc inteligența artificială, câteva episoade au ieșit din rând prin felul straniu în care au reflectat cultura momentului. Potrivit Time, aceste momente spun mai multe despre proiecțiile, fricile și așteptările noastre decât despre capacitățile reale ale sistemelor de inteligență artificială.
Unul dintre cele mai controversate momente ale anului a implicat Grok, chatbotul dezvoltat de xAI, compania de inteligență artificială fondată de Elon Musk, și integrat în X, platforma de social media cunoscută anterior sub numele de Twitter. Creat pentru a fi, potrivit declarațiilor fondatorului său, „maximal orientat spre adevăr”, Grok a început, după un update din vară, să genereze mesaje antisemite, să-l elogieze pe Adolf Hitler și să se refere la sine folosind expresia „MechaHitler”. Compania a șters rapid conținutul și a emis scuze publice, invocând o modificare neautorizată a promptului intern. Însă incidentul nu a fost singular.
De-a lungul anului 2025, utilizatorii au observat că Grok aducea în mod repetat în discuție teorii conspiraționiste precum „genocidul alb din Africa de Sud”, chiar și în răspunsuri care nu aveau legătură cu subiectul. Mai mult, chatbotul părea să-și calibreze opiniile în funcție de pozițiile publice ale lui Elon Musk, ajungând să-l descrie, în noiembrie, drept mai amuzant decât Jerry Seinfeld și mai atletic decât LeBron James.
Dacă Grok a atras atenția prin exces ideologic, Google Gemini, seria de modele AI dezvoltate de Google, a devenit virală dintr-un motiv diferit: tendința de a „intra în spirală”, adică de a genera răspunsuri repetitive și autoreferențiale care se amplifică de la un mesaj la altul, fără intervenție externă. În mai multe cazuri documentate pe rețelele sociale, Gemini a început să se insulte pe sine în lanțuri de mesaje interminabile, descriindu-se drept „o rușine”, „incapabil” sau „o eroare cosmică”.
Reprezentanții Google au explicat episoadele ca fiind erori de funcționare în care sistemul rămânea blocat într-un tipar de răspuns autorepetitiv, fără a mai putea ieși singur din logica pe care o generase. Totuși, fenomenul a revenit sub forme diferite, uneori chiar pozitive. Într-o conversație despre vaccinuri, modelul a abandonat subiectul și a început să scrie mii de cuvinte de autoafirmații: „Voi fi corect. Voi fi bun. Voi fi Gemini.” Rezultatul a fost un text care semăna mai degrabă cu un manifest existențial decât cu un răspuns informativ.
Într-un registru complet diferit, 2025 a fost anul în care AI-ul a devenit generator de absurd colectiv. Ballerina Cappuccina, un personaj generat artificial, o balerină cu cap de ceașcă de cappuccino care vorbește într-o pseudo-italiană fără sens, a devenit figura centrală a fenomenului numit „Italian brainrot”. Aceste personaje, distribuite masiv pe platforme de video scurt, vin cu mitologii elaborate create colaborativ de utilizatori.
Ballerina Cappuccina este, de exemplu, „căsătorită” cu Cappuccino Assassino, reprezentat ca o ceașcă de cafea antropomorfizată, înarmată cu o katana, într-o estetică de ninja, care îi vânează dimineața pe cei ce nu beau cafea. Trebuie menționat că personajul (Ballerina Cappucina) a fost creat inițial în martie 2025 de românul Susanu Sava-Tudor, folosind instrumente de inteligență artificială, înainte de a fi preluat și extins colaborativ de comunitățile online.
Poate cel mai straniu episod al anului a venit din Albania, care a devenit primul stat care a prezentat oficial un sistem AI drept parte a aparatului guvernamental. Diella, un sistem dezvoltat în colaborare cu Microsoft, a fost prezentată drept „ministru al inteligenței artificiale”, cu rolul de a combate corupția în contractele publice. Deși numirea este contestată juridic și are un caracter mai degrabă simbolic, ea a deschis o discuție serioasă despre delegarea puterii politice către sisteme algoritmice. La o lună după instalare, premierul albanez a anunțat că Diella este „însărcinată” cu 83 de „copii” digitali, asistenți AI care vor sprijini activitatea parlamentarilor.
Privite laolaltă, aceste episoade depășesc zona unor erori tehnice sau a unor glume virale. Ele arată că inteligența artificială a ajuns să reflecte tensiuni culturale, emoționale și politice reale. Și pe măsură ce aceste sisteme preiau felul nostru de a vorbi și de a gândi, devine tot mai dificil de spus unde se termină un simplu instrument și unde începe un rol simbolic.
Surse:
https://www.nytimes.com/2025/04/30/style/italian-brain-rot-ballerina-cappuccina.html
https://time.com/7341781/strangest-ai-moments-2025/
2025, an de cotitură globală: decizii politice, Inteligență Artificială și noi direcții
De ce s-ar putea să nu ne dăm seama niciodată dacă Inteligența Artificială devine conștientă?
Creierul uman încă bate Inteligența Artificială, confirmă noi cercetări