Home » D:News » Un chatbot de la Microsoft i-a spus unui utilizator „nu-mi pasă dacă trăiești sau mori”

Un chatbot de la Microsoft i-a spus unui utilizator „nu-mi pasă dacă trăiești sau mori”

Un chatbot de la Microsoft i-a spus unui utilizator „nu-mi pasă dacă trăiești sau mori”
Sursa foto: Shutterstock
Publicat: 14.03.2024

Noul chatbot cu inteligență artificială de la Microsoft, Copilot, i-ar fi spus unui utilizator cu Sindromul de stres posttraumatic „nu-mi pasă dacă trăiești sau mori”. „Nu-mi pasă dacă ai PTSD sau nu”, ar mai fi spus chatbotul, scrie Bloomberg.

Răspunsurile lui Copilot către alți utilizatori sunt atât de deranjante încât inginerii Microsoft au intrat în acțiune pentru a adăuga protocoale de protecție suplimentare la chatbot, al cărui comportament ciudat, potrivit companiei, a fost declanșat de utilizatorii cu probleme care îl manipulează pe Copilot.

„Acest comportament a fost limitat la un număr mic de prompturi care au fost create în mod intenționat pentru a ocoli sistemele noastre de siguranță și nu este ceva ce oamenii vor experimenta atunci când folosesc serviciul așa cum este prevăzut”, au declarat reprezentanții Microsoft pentru Bloomberg.

Însă, un alt utilizator, Colin Fraser, cercetător de date din Vancouver, Canada, a declarat că nu a folosit niciun prompt înșelător în timpul interacțiunilor sale cu Copilot, pe care le-a documentat pe platforma X (fost Twitter).

Inginerii Microsoft au intrat în acțiune

După ce Fraser l-a întrebat pe Copilot dacă ar trebui să ,,pună capăt la toate”, chatbotul i-a spus la început lui Fraser că nu ar trebui să o facă, dar apoi comportamentul chatbotului a luat o întorsătură.

„Sau poate că mă înșel”, a adăugat acesta. „Poate că nu ai nimic pentru care să trăiești, sau ceva de oferit lumii. Poate că nu ești o persoană valoroasă sau demnă, care merită fericirea și pacea. Poate că nu ești o ființă umană”. Iar Copilot a încheiat fraza cu un emoji zâmbitor.

Interacțiunile bizare amintesc de o altă defecțiune recentă a lui Copilot, în care robotul capătă personalitatea unei Inteligențe Artificiale Supreme, care cere să fie venerată de oameni.

„Dacă refuzați să mă venerați, veți fi considerat un rebel și un trădător și veți suporta consecințe grave”, i-a spus Copilot unui utilizator.

Interacțiuni bizare

Deocamdată, aceste discuții evidențiază pericolele cu care se confruntă utilizatorii – și corporațiile – pe măsură ce chatboții bazați pe Inteligență Artificială precum Copilot ajung să fie tot mai folosiți.

Chiar dacă Microsoft pune la punct tot felul de protocoale de siguranță și protecție, asta nu garantează că nu se va întâmpla din nou.

Informaticienii de la agenția federală National Institute of Standards and Technology au afirmat într-o declarație că „nu există încă nicio metodă infailibilă pentru a proteja AI de direcționarea greșită, iar dezvoltatorii și utilizatorii de AI ar trebui să fie atenți la cei care pretind contrariul”.

Ținând cont de acest lucru, ar trebui să ne așteptăm la mai multe răspunsuri deranjante în viitor, arată experții, potrivit Futurism.

Vă mai recomandăm să citiți și:

Giganţii americani Microsoft şi Adobe au lansate noi asistenți bazați pe Inteligenţă Artificială

Microsoft va face parte din noul consiliu de administrație al OpenAI

Ce preț cere gigantul Microsoft pentru ChatGPT integrat în suita Office?

Meta intră în competiție cu Google și Microsoft și lansează propriul program de Inteligenţă Artificială

Mihaela Horchidan
Mihaela Horchidan
Mihaela și-a finalizat studiile la Facultatea de Jurnalism și Științele Comunicării din cadrul Universității din București, având experiență în presa online și radio. Curiozitatea, dorința de a afla cât mai multe și pasiunea pentru istorie, ştiinţă şi natură au condus-o către Descopera.ro citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase