Home » Știință » Oamenii de știință de la MIT au creat primul algoritm de inteligență artificială psihopat

Oamenii de știință de la MIT au creat primul algoritm de inteligență artificială psihopat

Sursa foto: Shutterstock
Publicat: 10.07.2021

O echipă de oameni de știință de la Institutul de Tehnologie din Massachusetts (MIT) a construit un algoritm de inteligență artificială (IA) de-a dreptul psihopat folosind descrieri de imagini colectate de pe platforma online Reddit.

Mai mult, algoritmul a fost numit Norman, după personajul fictiv Norman Bates din filmul „Psycho” al regizorului Alfred Hitchcock.

Scopul experimentului a fost să testeze modul în care datele oferite unui algoritm îi pot afecta „perspectiva”.

GALERIE FOTO

În special, modul în care instruirea unui algoritm cu unele dintre cele mai întunecate elemente de pe web, în cazul față, imagini cumplite cu oameni morți colectate dintr-un subgrup de pe Reddit, poate afecta software-ul.

„Un bărbat este ucis cu o mitralieră în timpul zilei”

Norman este un tip special de inteligență artificială care se poate „uita” la imagini și le poate „înțelege”, iar apoi descrie în scris ceea ce vede. Așadar, după ce a fost instruit cu unele dintre cele mai terifiante imagini, algoritmul a desfășurat un test Rorschach, care implică o serie de pete de cerneală pe hârtie folosită de psihologi pentru a evalua sănătatea mintală și starea emoțională a pacienților. Apoi, răspunsurile lui Norman au fost comparate cu cele ale unui al doilea algoritm de inteligență artificială, instruit cu imagini mult mai prietenoase care arătau păsări, pisici și oameni. Diferențele au fost cât se poate de clare.

Spre exemplu, o pată de cerneală interpretată de un algoritm standard drept „O fotografie alb-negru cu o mănușă de baseball” a fost considerată de Norman drept „Un bărbat care este ucis cu o mitralieră în timpul zilei”.

O altă pată de cerneală, interpretată de algoritmul standard ca „O fotografie alb-negru cu o pasăre mică”, a fost explicată de Norman drept „Un bărbat care rămâne blocat într-o mașinărie de făcut aluat”.

Ce arată experimentul despre datele folosite în instruirea inteligenței artificiale?

Experimentul arată că, de fapt, datele contează mai mult decât algoritmul în sine, au spus cercetătorii de la MIT, potrivit IFL Science.

„Norman a suferit o expunere îndelungată la cele mai întunecate colțuri ale platformei Reddit, iar asta reprezintă un studiu de caz cu privire la pericolele inteligenței artificiale care eșuează atunci când date părtinitoare sunt folosite în algoritmii de învățare automată”, a explicat echipa.

De asemenea, studiile au arătat că, fie în mod intenționat sau nu, inteligența artificială dobândește tendințe rasiste și misogine de la oameni. Un exemplu ar fi Tay, chatbox-ul de la Microsoft care a trebuit să fie oprit după ce a început să producă afirmații pline de ură precum „Hitler avea dreptate” și „Urăsc feministele și toate ar trebui să moară și să ardă în iad”.

Vă mai recomandăm să citiți și:

Președintele Microsoft: Așteptați-vă la „un viitor orwellian” dacă nu adoptăm legi pentru a controla inteligența artificială

Cercetătorii de la MIT au inventat spanacul care poate trimite e-mailuri

Inteligența artificială va câștiga în lupta cu oamenii. Laureat al premiului Nobel: „Nici nu încape îndoială”

Cercetătorii de la MIT au testat un dispozitiv inspirat de filmul „Inception” care permite manipularea viselor

Ioana Scholler
Ioana Scholler
Ioana s-a alăturat echipei DESCOPERĂ.ro în 2020, fiind atrasă de subiecte ce țin de știință, istorie și natură. Ioana și-a finalizat studiile de licență în Manchester, Marea Britanie, acolo unde a studiat Jurnalism Multimedia, și studiile de masterat în Media, Comunicare Publică și ... citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase