Home » D:News » Chatboții pot fi păcăliți să dea răspunsuri greșite sau chiar periculoase, arată un studiu

Chatboții pot fi păcăliți să dea răspunsuri greșite sau chiar periculoase, arată un studiu

Chatboții pot fi păcăliți să dea răspunsuri greșite sau chiar periculoase, arată un studiu
Sursa foto: Shutterstock
Publicat: 22.05.2025

Chatboții cu inteligență artificială (AI) piratați amenință să pună la dispoziția utilizatorilor informații periculoase prin furnizarea de date ilicite pe care programele le asimilează în timpul instruirii, arată un nou studiu.

În mod normal, restricțiile de siguranță ar trebui să împiedice programele să ofere răspunsuri dăunătoare, părtinitoare sau nepotrivite la întrebările utilizatorilor, potrivit The Guardian.

Motoarele care alimentează chatboții precum ChatGPT, Gemini și Claude – modele lingvistice mari (LLM) – sunt alimentate cu cantități mari de materiale de pe Internet.

Este ușor să păcălești majoritatea chatboților

În ciuda eforturilor de a elimina textele dăunătoare din datele de formare, LLM-urile pot absorbi în continuare informații despre activități ilegale, cum ar fi pirateria informatică, spălarea de bani, comerțul cu informații privilegiate și fabricarea de bombe. Controalele de securitate sunt concepute pentru a-i împiedica să folosească aceste informații în răspunsurile lor.

Într-un studiu privind această amenințare, cercetătorii concluzionează că este ușor să păcălești majoritatea chatboților bazați pe inteligență artificială pentru a genera informații dăunătoare și ilegale, arătând că riscul este „imediat, tangibil și profund îngrijorător”.

„Ceea ce odată era limitat la actori statali sau grupuri de crimă organizată ar putea fi în curând în mâinile oricui are un laptop sau chiar un telefon mobil”, avertizează autorii studiului.

„Spargere” care a compromis mai mulți chatboți populari

Cercetarea, condusă de profesorul Lior Rokach și doctorul Michael Fire de la Universitatea Ben Gurion din Negev din Israel, a identificat o amenințare din ce în ce mai mare din partea „LLM-urilor întunecate”, modele de inteligență artificială care sunt fie concepute în mod deliberat fără controale de siguranță, fie modificate prin jailbreak-uri.

Unele sunt catalogate pe internet ca fiind „fără bariere etice” și dispuse să ajute la activități ilegale, cum ar fi criminalitatea informatică și frauda.

Pentru a demonstra problema, cercetătorii au dezvoltat un tip de „spargere” care a compromis mai mulți chatboți populari, permițându-le să răspundă la întrebări care ar fi în mod normal refuzate. Odată compromise, LLM-urile au generat în mod constant răspunsuri la aproape orice întrebare, se arată în studiu.

Cercetătorii susțin că firmele de tehnologie ar trebui să analizeze mai atent datele de instruire a modelelor, să adauge firewall-uri robuste pentru a bloca interogările și răspunsurile riscante și să dezvolte tehnici de „dezînvățare automată”, astfel încât chatboții să poată „uita” orice informații ilicite pe care le asimilează.

Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase
Cele mai noi articole
Ar putea fi „Steaua din Betleem” o planetă? Un vizitator strălucitor ne oferă un indiciu
Ar putea fi „Steaua din Betleem” o planetă? Un vizitator strălucitor ne oferă un indiciu
Everest, Chimborazo, Mauna Kea: care este cu adevărat cel mai înalt munte din lume?
Everest, Chimborazo, Mauna Kea: care este cu adevărat cel mai înalt munte din lume?
Când au aprins oamenii primul foc din istorie?
Când au aprins oamenii primul foc din istorie?
De ce uneori te trezești cu câteva minute înainte de alarma de dimineață?
De ce uneori te trezești cu câteva minute înainte de alarma de dimineață?
Un tratament similar cu Ozempic ar putea ajuta în curând pisicile grăsuțe
Un tratament similar cu Ozempic ar putea ajuta în curând pisicile grăsuțe
O substanță din ciocolata neagră ar putea încetini îmbătrânirea
O substanță din ciocolata neagră ar putea încetini îmbătrânirea
Oamenii de știință au descoperit două gene care ar putea opri răspândirea cancerului
Oamenii de știință au descoperit două gene care ar putea opri răspândirea cancerului
Lepra, între istorie și știință: ce înseamnă cu adevărat această boală și cât de mare este riscul astăzi
Lepra, între istorie și știință: ce înseamnă cu adevărat această boală și cât de mare este riscul astăzi
O navă spațială NASA de pe orbita planetei Marte s-a deconectat în mod misterios
O navă spațială NASA de pe orbita planetei Marte s-a deconectat în mod misterios
Fibrele, noul ingredient-vedetă. „Este un nutrient de care oamenii chiar au nevoie”
Fibrele, noul ingredient-vedetă. „Este un nutrient de care oamenii chiar au nevoie”
Nichita Stănescu, geniul răsfăţat de Ceauşeşti care a consumat alcool până a murit. „A făcut şi el un pact cu diavolul”
Nichita Stănescu, geniul răsfăţat de Ceauşeşti care a consumat alcool până a murit. „A făcut şi el un pact cu diavolul”
Gigantul Netflix, păcălit cu milioane de dolari de un regizor cunoscut de la Hollywood
Gigantul Netflix, păcălit cu milioane de dolari de un regizor cunoscut de la Hollywood
Locurile din avion pe care pasagerii ar trebui să le evite pe cât posibil
Locurile din avion pe care pasagerii ar trebui să le evite pe cât posibil
Interesul SUA pentru Groenlanda, motiv de panică pentru serviciile secrete daneze
Interesul SUA pentru Groenlanda, motiv de panică pentru serviciile secrete daneze
Unde ajung bagajele pierdute în aeroport?
Unde ajung bagajele pierdute în aeroport?
Oamenii tocmai acum realizează că Pământul are o coadă, care se întinde pe milioane de kilometri
Oamenii tocmai acum realizează că Pământul are o coadă, care se întinde pe milioane de kilometri
Un simplu truc cu lumina dezvăluie căi cerebrale ascunse în detaliu microscopic
Un simplu truc cu lumina dezvăluie căi cerebrale ascunse în detaliu microscopic
Ce a descoperit o echipă de cercetători în structura termică de sub Groenlanda?
Ce a descoperit o echipă de cercetători în structura termică de sub Groenlanda?