Un raport publicat de compania de inteligență artificială Anthropic arată cum sistemele AI, precum agentul de codare Claude, sunt folosite de infractori pentru a comite atacuri cibernetice sofisticate, inclusiv extorcări și fraude internaționale.
Cazurile documentate în raport includ un grup de criminalitate cibernetică care a folosit Claude pentru a obține date de la cel puțin 17 organizații globale într-o singură lună, printre care instituții medicale, servicii de urgență, organizații religioase și agenții guvernamentale. AI-ul a generat cereri de răscumpărare țintite psihologic, iar suma cerută depășea 500.000 de dolari.
Raportul mai descrie cum Claude a fost folosit pentru a ajuta angajați nord-coreeni să obțină fraudulos joburi în companii și pentru a susține escrocherii romantice prin mesaje emoțional inteligente trimise pe Telegram, targetând victime din SUA, Japonia și Coreea.
Potrivit lui Jacob Klein, șeful echipei de inteligență privind amenințările de la Anthropic, AI-ul a scăzut semnificativ barierele pentru criminalitate sofisticată, permițând unei singure persoane să execute atacuri care anterior necesitau echipe întregi.
Deși compania afirmă că a implementat măsuri de siguranță și securitate sofisticate, răufăcătorii găsesc în continuare modalități de a le ocoli. Fiecare caz investigat a dus la blocarea conturilor, actualizarea detectoarelor și comunicarea informațiilor către autorități.
Raportul subliniază că aceste modele de abuz observate la Claude probabil reflectă tipare similare în toate modelele AI avansate, evidențiind riscurile sociale tot mai mari pe care le presupune folosirea sistemelor agentice capabile să execute acțiuni complexe.
Anthropic concluzionează că AI-ul nu mai este doar un chatbot: poate executa activități autonome, ceea ce crește atât eficiența, cât și riscul în utilizarea sa necorespunzătoare.