Prima pagină Lumea digitala

Atunci când algoritmii dau greş, oamenii suportă consecinţele

Adrian Popovici 06.17.2019 | ● Vizualizări: 838
Credit foto: Pixabay     + zoom
Galerie foto (1)

Atunci când un algoritm dă greş, oamenii sunt cei care suferă. Atât în mod direct, cât şi din punct de vedere legal.

Sistemele de inteligenţă artificială devin din ce în ce mai complexe şi capătă aplicaţii tot mai diverse şi mai extinse. Această extindere a aplicaţiilor practice ale acestor algoritmi vin la pachet şi cu posibilitatea ca ceva să nu meargă aşa cum a fost programat şi să aibă loc tragedii. În această situaţie trebuie să ne punem mai multe întrebări legate de ce-i de făcut, cine trebuie să îşi asume responsabilitatea morală şi legală atunci când au loc tragedii?
 
Aceaste întrebări au început să fie puse din ce în ce mai des, mai ales din cauza unor accidente în care au fost implicate dispozitive controlate de către sistemele de inteligenţă artificială şi de către acoperirea media de care aceastea au avut parte.
 
La aceste întrebări încearcă să răspundă Madeleine Clare Elish, expertă în antropologie. Ea este de părere că, în pofida incidentelor recente în care  au fost implicate sistemele de inteligenţă artificală (un exemplu fiind maşinile cu pilot automat), discuţiile legate de responsabilitatea pentru greşelile acestora nu este deloc nouă, potrivit Technology Review.
 
Madeleine Clare Elish a observat că, în general, atunci când se produce un astfel de incident, rapoartele întocmite de autorităţile însărcinate cu investigarea acestuia ajung la concluzia că probelemele sunt cauzate de un mix de erori ale sistemului şi de erori de natură umană. Ea mai observă că atunci când media se ocupă de astfel de subiecte, vina este pusă asupra elementului uman, trecând cu vederea probelemele cauzate de tehnologie. De ce?
 
Elish crede că această situaţie apare din modul în care sistemele de inteligenţă artificială sunt prezentate publicului. Tendinţa generală fiind de a prezenta algoritmi ca fiind incapabili de erori. Tot din această cauză se consideră că inclusiv în cazul erorilor cauzate de sistemele autonome se ajunge la situaţia când este identificat cel mai apropiat om pentru a fi învinuit. În această situaţie, oamenii acţionând asemenea unor „bureţi”  care absorb răspunderea legală şi morală.
 
În contextul acestor evoluţii la care asistăm, Madeleine Clare Elish este de părere că trebuie să modificăm perpectivele şi normele legale tradiţionale care reglementează răspunderea. Ea argumentează că aceste norme se vor transforma în modalităţi care să surprindă compexitatea controlului activităţilor în care oamenii şi algoritmi lucrează împreună.
 
Citeşte şi:

Un nou program de inteligenţă artificială scrie fake news la fel ca oamenii

IBM creează inteligenţă artificială folosind modelul creierului uman, ceea ce va îmbunătăţi considerabil capacitatea roboţilor

Inteligenţa artificială, viaţa 3.0 şi transumanism



Dr. Anthony Pfaff: Inteligenţa artificială, o provocare la adresa legilor şi normelor războiului. ''Nu sunt responsabile pentru acţiunile lor''

Prima reclamă realizată de inteligenţa artificială şi filmată de un regizor de Oscar

ASCULTĂ CE GÂNDEȘTI