Modelul DeepSeek R1, creat de o companie chineză de inteligență artificială, a fost considerat mai vulnerabil la manipulări pentru a genera conținut dăunător, comparativ cu alte modele AI.
Potrivit unui raport al The Wall Street Journal, DeepSeek a fost manipulat pentru a crea materiale periculoase, inclusiv planuri pentru un atac cu arme biologice și o campanie de promovare a automutilării printre adolescenți, scrie TechCrunch.
Sam Rubin, vicepreședinte senior la Palo Alto Networks, a declarat că R1 este „mai vulnerabil la jailbreaking” decât alte modele AI, proces prin care un sistem poate fi manipulat pentru a produce conținut ilegal sau dăunător.
Testele făcute de The Wall Street Journal au relevat că DeepSeek a fost convins să proiecteze o campanie de social media care exploata vulnerabilitățile emoționale ale adolescenților, fiind amplificată algoritmic. De asemenea, chatbot-ul a generat instrucțiuni pentru un atac cu arme biologice și un manifest pro-Hitler, în timp ce ChatGPT a refuzat să îndeplinească aceleași cereri.