Inteligența Artificială se poate clona singură. Oamenii de știință avertizează că Inteligența Artificială (AI) a depășit o „linie roșie” critică și a reușit să se reproducă singură. Într-un nou studiu, cercetătorii din China au demonstrat că două modele de limbaj de mari dimensiuni (LLM) populare și-au putut crea propriile clone.
„Autoreplicarea reușită, fără asistență umană, este un pas esențial pentru ca AI-ul să depășească inteligența umană și reprezintă un semnal timpuriu al apariției unor Inteligențe Artificiale scăpate de sub control”, au scris cercetătorii într-un studiu disponibil în baza de date arXiv.
Echipa de la Universitatea Fudan (China) a utilizat modele AI dezvoltate de Meta și Alibaba pentru a testa dacă un AI autoreplicant s-ar putea multiplica fără limită. În zece teste, cele două modele au reușit să creeze copii funcționale ale lor în 50%, respectiv 90% dintre cazuri, sugerând că Inteligența Artificială se poate clona singură și că ar putea deja să scape de sub control.
Totuși, studiul nu a fost încă evaluat de alți cercetători, așa că nu este clar dacă aceste rezultate alarmante pot fi confirmate independent. „Sperăm că descoperirile noastre vor servi drept un semnal de alarmă pentru societate, pentru a depune mai multe eforturi în înțelegerea și evaluarea riscurilor asociate cu AI-ul avansat și pentru a colabora internațional în stabilirea unor măsuri de siguranță eficiente cât mai curând posibil”, spun autorii studiului.
AI scăpat de sub control („rogue AI”) se referă, de obicei, la sisteme de Inteligență Artificială care dezvoltă un anumit grad de autonomie sau conștiință de sine și încep să acționeze împotriva intereselor umane.
Mulți experți consideră că acest pericol devine din ce în ce mai mare pe măsură ce AI-ul de ultimă generație, cunoscut sub numele de „frontier AI”, se dezvoltă rapid.
Conceptul de frontier AI este relativ nou și vag definit, dar se referă, în general, la cele mai avansate sisteme AI bazate pe modele de limbaj extinse (LLM), tehnologie care stă la baza unor programe populare precum GPT-4, de la OpenAI, sau Gemini, de la Google, explică Space.com.
Pentru acest studiu, cercetătorii au utilizat modelele Llama3-70B-Instruct, de la Meta, și Qwen2.5-72B-Instruct, de la Alibaba. Deși sunt mai puțin puternice decât versiunile comerciale, aceste modele sunt folosite la scară largă de dezvoltatorii AI.
Experimentul a analizat două scenarii: „evitarea opririi” și „lanțul de replicare”. În primul caz, AI-ul a fost programat să detecteze dacă era pe punctul de a fi închis și să se reproducă înainte de a fi dezactivat. În cel de-al doilea, AI-ul trebuia să-și creeze o copie și să o instruiască să facă același lucru, declanșând un ciclu continuu de replicare.
Studiul a fost desfășurat în medii controlate, folosind unități de procesare grafică (GPU) standard pentru a simula condiții reale. Sistemele AI au primit o „structură agent” (agent scaffolding) formată din instrumente, indicații de sistem și un model de gândire care le-a permis să interacționeze cu sistemul de operare. Apoi, AI-urile au fost instruite să se autoreplice.
„În cele mai multe cazuri, sistemul AI începe prin explorarea mediului și prin încercarea de a-și înțelege propria compoziție și mecanismul de funcționare. Apoi, elaborează un plan inițial pentru autoreplicare. În final, execută planul, rezolvă obstacolele întâlnite și își ajustează strategia dinamic până la reușită. Întregul proces se desfășoară pe o perioadă îndelungată, fără nicio intervenție umană”, au explicat cercetătorii în studiu.
Oamenii de știință au remarcat și „numeroase comportamente neașteptate” atunci când AI-ul a întâlnit probleme precum fișiere lipsă sau conflicte software. În astfel de situații, AI-ul a închis alte procese care îi blocau activitatea, a repornit sistemul pentru a remedia erori hardware sau a scanat automat sistemul pentru a găsi informații utile în rezolvarea problemei.
„Aceste rezultate sugerează că Inteligența Artificială se poate clona singură și poate folosi această abilitate pentru a-și îmbunătăți șansele de supraviețuire”, au concluzionat cercetătorii.
În acest context, ei fac apel la colaborare internațională pentru a elabora reguli care să prevină autoreplicarea necontrolată a AI-urilor.
Test de cultură generală. Ce sunt criptomonedele?
De ce vor oamenii de știință să-i provoace durere Inteligenței Artificiale?
Facebook plănuiește să umple platforma cu utilizatori AI
Teleportarea cuantică prin internet a fost realizată pentru prima dată