Home » Știință » Inteligența artificială care te judecă mai rău ca o soacră. De ce a fost creată?

Inteligența artificială care te judecă mai rău ca o soacră. De ce a fost creată?

Inteligența artificială care te judecă mai rău ca o soacră. De ce a fost creată?
Sursa foto: Shutterstock
Publicat: 30.04.2022

Cercetătorii din domeniul învățării automate instruiesc rețelele neuronale să judece superficial oamenii, iar rezultatele sunt pe cât de brutale, pe atât de familiare. Așa a fost creată inteligența artificială care te judecă mai rău ca o soacră.

Un studiu despre AI cu prejudecăți, publicat în revista Proceedings of the National Academy of Sciences, descrie modul în care cercetătorii au instruit modelul astfel încât să judece atributele fețelor umane așa cum procedează oamenii la o primă întâlnire și cum l-au antrenat să manipuleze fotografiile pentru a evoca diferite atribute, cum ar fi „de încredere” sau „dominant”.

„Setul nostru de date nu doar că conține prejudecăți. Acesta le reflectă în mod deliberat”, a spus Joshua Peterson, cercetător postdoctoral în informatică la Princeton, citat de Futurism.

„Am adunat peste 1 milion de prejudecăți umane pentru a instrui un model care poate să prezică și să manipuleze primele impresii date de diverse fețe!”, scria Peterson pe Twitter pe 21 aprilie.

Inteligența artificială care te judecă nu este corectă politic

Lucrarea din PNAS notează că Inteligența Artificială care te judecă reflectă atât de mult judecata umană încât tinde să asocieze caracteristici fizice obiective, cum ar fi mărimea sau culoarea pielii cuiva, cu atribute variind de la „încredere” la „privilegii”.

Într-adevăr, în discuția începută în social media, Peterson a explicat că cele mai multe dintre cele 34 de valori de judecată pe care cercetătorii le-au folosit pentru a antrena AI-ul aveau inferențe politice corespondente.

De exemplu, atunci când a folosit site-ul interactiv al studiului, Futurism a descoperit că algoritmul a marcat fețele albe ca fiind mai „conservatoare”, iar când cineva caută „liberal” pe site, majoritatea fețelor pe care le va vedea sunt ale unor persoane de culoare.

Tehnologia ar putea fi folosită și în scopuri rele

Într-un comunicat de presă, Jordan W. Suchow, cercetător cognitiv și în domeniul AI la Institutul de Tehnologie Stevens, care a lucrat la studiu, a recunoscut că „trebuie să fim atenți la modul în care este utilizată această tehnologie”, deoarece ar putea fi folosită în scopuri infame precum creșterea sau deteriorarea reputației unei persoane publice.

Deși este destul de ezoteric, Suchow a remarcat în comunicatul său de presă că acest tip de învățare automată poate „studia primele impresii preconcepute ale oamenilor unii despre alții”.

„Cu o fotografie a feței tale, putem folosi acest algoritm pentru a prezice care ar fi primele impresii ale oamenilor despre tine”, a adăugat el, „și ce stereotipuri ar proiecta asupra ta atunci când ți-ar vedea fața”.

Inteligența artificială care te judecă pare a fi o problemă din ce în ce mai importantă, însă această răsturnare de paradigmă este pe cât de încântătoare, pe atât de semnificativă. Cercetarea interactivă poate fi găsită la OneMillionImpressions.com.

Vă recomandăm să citiți și:

Ar putea inteligența artificială să gândească la fel ca un om?

40.000 de arme biologice ipotetice, generate în doar 6 ore de inteligența artificială

Ar putea vocea să dezvăluie indicii despre sănătatea inimii tale?

Inteligența artificială ar putea găsi noi compuși prețioși de pământuri rare

Ștefan Trepăduș
Ștefan Trepăduș
Ștefan Trepăduș este blogger începând cu anul 2009, având experiență și în domeniile publicitate și jurnalism. Este pasionat de marketing și de tehnologie, dar cel mai mult îi place să știe lucruri, motiv pentru care a fost atras de Descopera.ro. citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase