Prima pagină Cultura

Roboţii care ne iubesc şi ne omoară

Mihaela Stănescu 05.21.2014 | ● Vizualizări: 820
Interacţiunea dintre oameni şi roboţi poate avea implicaţii etice extrem de serioase.      (Foto: Shutterstock.com) + zoom
Galerie foto (6)

Toţi cei care au visat să aibă un prieten robot, cu care să împărtăşească emoţiile de care e plină viaţa umană, ca şi toţi cei care se tem că va veni o vreme în care roboţii ne vor fi duşmani şi vor căuta să ne ucidă, ar putea fi interesaţi să afle ce gândesc specialiştii despre aceste perspective, în lumina celor mai noi cercetări în domeniu. E greu de spus dacă noutăţile aflate vor părea dezamăgitoare ori reconfortante şi, oricum, ca în orice domeniu care se dezvoltă foarte rapid, noutăţile se învechesc repede, alte şi alte descoperiri le iau locul. Şi totuşi, e interesant să aflăm ce gândesc oamenii de ştiinţă acum, în acest moment, în acest stadiu al dezvoltării roboticii, despre o viitoare lume în care prezenţa acestor maşinării gânditoare ne-ar putea deveni familiară. Oare cum ar fi? Să vedem ce spun experţii.

Roboţi cu „suflet”?

Iată o primă problemă: este posibilă crearea unor roboţi conştienţi şi simţitori? Roboticienii se străduiesc de decenii să-i înveţe pe roboţi cum e cu emoţiile umane, în speranţa că, într-o zi, vom putea să comunicăm cu ei de la egal la egal şi să ne înţelegem „omeneşte”.

Dar un studiu foarte recent pe această temă ne dezumflă speranţele. Roboţii nu vor niciodată ca noi: crearea de roboţi cu sentimente este imposibilă, susţine un grup de cercetători.



Emoţiile pe care le încercăm sunt strâns legate de conştientizarea faptului că existăm, de faptul că ne simţim pe noi înşine vii şi făcând parte din lume. Nici cele mai avansate proiecte de inteligenţă artificială nu pot realiza asta: pe baza unui model matematic al modului în care creierul nostru creează starea de conştienţă, nu pot exista maşinării capabile să încerce emoţii, afirmă un grup de cercetători americani. 

Computerele nu pot întrece în complexitate un creier uman, cred unii dintre specialiştii în domeniu.     (Foto: Shutterstock.com)

Computerele, oricât de avansate ar fi, nu pot derula procese care implică o integrarea completă a informaţiilor, aşa cum face creierul, astfel încât nu pot avea conştiinţă de sine şi nu pot simţi emoţiile, susţine Giulio Tononi, de la Universtatea Wisconsin-Madison.

Specialistul, care lucrează de peste un deceniu la dezvoltarea unui model matematic al conştienţei, afirmă că integrarea informaţiei este elementul-cheie al stării de conştienţă. Informaţia, crede el, nu poate fi fragmentată în componente mai mici, în mintea conştientă, deoarece creierul contextualizează informaţia.

De exemplu, când vedem un triunghi roşu, creierul nostru nu înregistrează diferit forma şi culoarea lui (un triunghi incolor plus o zonă fără formă definită, dar colorată în roşu), ci percepe imaginea ca pe un întreg: un triunghi roşu. 

Phil Maguire, de la National University of Ireland, este de aceeaşi părere: el şi echipa sa au arătat matematic că, oricât de avansate ar fi, computerele nu pot desfăşura procese care să integreze complet informaţia şi atunci  nu pot deveni conştiente. 

Ce înseamnă această integrare totală sau completă? Maguire şi colegii săi o definesc în funcţie de cât de dificil este să modifici aceste informaţii. Să ne gândim la un album de fotografii digitale. Imaginile sunt puse la un loc, dar nu sunt integrate, nu sunt amestecate organic unele cu altele, ceea ce înseamnă că e uşor să ştergi sau să modifici una sau alta dintre imagini. 

În schimb, în creier, atunci când se stochează noi informaţii, când se creează amintiri, informaţia nouă este amestecată cu cele existente deja în memorie, în aşa fel încât ar fi extrem de dificil – practic imposibil - să extragi şi să modifici o anumită informaţie, o anumită scenă din „albumul” complex al creierului. 

Modelul matematic realizat de cercetători arată că un computer n-ar fi capabil de un asemenea grad de integrare a informaţiei. Dacă acceptăm că integrarea totală stă la baza conştienţei, atunci computerele  nu pot deveni conştiente.

Crearea de roboţi conştienţi şi capabili de emoţii, este imposibilă, susţin autorii unui studiu recent.     (Foto: Shutterstock.com)

„Asta înseamnă că nu se pot obţine aceleaşi rezultate într-un anumit interval de timp, cu o anumită capacitate a memoriei, folosind o maşinărie. Nu înseamnă neapărat că se întâmplă în creier ceva miraculos, ceva care implică vreo forţă pe care  n-o putem explica în termeni fizici. Pur şi simplu, creierul e atât de complex încât nu ne stă în putere să inversăm procesele care au loc în el şi să le descompunem.”

Desigur, nu toţi oamenii de ştiinţă sunt convinşi că aşa funcţionează creierul şi că inteligenţa artificială nu l-ar putea ajunge din urmă. Viziunea lui Phil Maguire, de pildă, presupune un aspect controversat: din cauza integrării foarte avansate a informaţiei, procesul de selecţie şi modificare a informaţiei stocate ar duce la pierderea ei; prin urmare, starea de conştienţă, care are la bază integrarea totală a informaţiei, presupune faptul că  creierul nu pierde informaţie.

Neurologul Anil Seth de la University of Sussex, Marea Britanie, deşi apreciază strădania echipei irlandeze de a explora matematic conştienţa, nu este totuşi convins că, într-adevăr, creierul nu pierde informaţie. Creierul este un sistem deschis, în care componentele fizice şi informaţionale se înlocuiesc permanent, crede el; e o mare îndrăzneală  pentru un om de ştiinţă să susţină ideea că starea de conştienţă necesită un creier care nu pierde informaţie.

E adevărat, admite Phil Maguire, că modelul lor matematic n-ar mai sta în picioare dacă integrarea informaţiei în creier ar fi reversibilă. Atunci, „dacă am avea un algoritm foarte deştept”, spune el, „am putea, probabil, să descompunem amintirile oamenilor şi să le modificăm.”

 

Algoritmul te cruţă sau te ucide?

Vorbind despre algoritmii extrem de complecşi utilizaţi pentru prgramarea sistemelor de inteligenţă articială, ajungem la implicaţiile etice ale comportamentului acestor sisteme, comportament pe care zisele sisteme nu-l adoptă de capul lor, ci exact în baza algoritmului care le-a fost „băgat în cap” de către oameni. Proiectarea acestor algoritmi pe baza unor principii generale foarte corecte („protejează viaţa umană”, „fă cât mai puţin rău” etc.) ne-ar putea băga în nişte hăţişuri etice extrem de încâlcite, în care orice soluţie la o problemă creează noi probleme, iar alegerile aparent corecte sunt, de fapt, dubioase. 

Cât de înţelept este să lăsăm roboţii să ia decizii în probleme de viaţă şi de moarte?    (Foto: Shutterstock.com)

Un exemplu interesant ar fi maşinile autonome –„fără şofer” – care ar putea deveni, peste doar câteva decenii, o realitate la fel de banală ca şi maşinile cu şoferi umani de azi. 

O asemenea maşină ar fi pusă, zi de zi, în faţa unor decizii pe care computerul ei – care-i serveşte drept creier – le-ar lua pe baza algoritmilor învăţaţi. 

Pare simplu, dar nu este; implicaţiile ar putea fi foarte serioase, iar industria maşinilor ar putea ajunge pe un drum tare alunecos, din punct de vedere legal şi moral, după cum spune dr. Patrick Lin, profesor de filosofie la California Polytechnic State University, director al Ethics + Emerging Sciences Group din această instituţie şi unul dintre coordonatorii volumului Robot Ethics (editat de MIT  în 2012). 

Pentru a arăta cât de complicate sunt meandrele etice ale acestui domeniu – interacţiunea dintre oameni şi maşinării -,  într-un articol pe care l-a publicat recent în Wired, Patrick Lin ne pune în faţa următorului scenariu (ipotetic): să zicem că o maşină autonomă se confruntă brusc cu decizia de a alege între două maşini cu care să se ciocnească. Poate vira la stânga, caz în care ar lovi un SUV Volvo, sau la dreapta, unde ar lovi un Mini Cooper. Dacă programăm maşina în baza principiului de bun-simţ „fă cât mai puţin rău”, atunci, în scenariul de mai sus, ce ar trebui să aleagă?

Dacă ţinem seama doar de legile fizicii, ar trebui să programăm maşina să se ducă spre SUV-ul mătăhălos, o maşină grea, stabilă, care absoarbe mai bine şocul impactului şi oferă un grad mare de siguranţă pentru pasagerii dinăuntru, în cazul unei coliziuni.

Proiectarea unui astfel de algoritm de evitare a coliziunii implică în mod necesar, încă de la bun început, o discriminare, exlică dr. Lin; trebuie să alegi cu cine preferi să se ciocnească maşina-robot pe care o programezi. 

Asta ar putea pune probleme mari industriei automobilistice, deoarece, de pildă, oamenii ar începe să evite să cumpere SUV-uri de teamă că, în caz că o maşină autonomă are probleme pe o şosea aglomerată şi trebuie să aleagă pe cine izbeşte, ar izbi SUV-ul. Programatorii şi constructorii de maşini ar fi puşi în faţa unei cumplite răspunderi – care ar putea crea probleme foarte dificile în justiţie -, piaţa auto ar putea oscila în moduri neprevăzute şi dezechilibrante pentru economie; proprietarii sau şoferii maşinilor mari de teren ar purta o povară grea fără a fi vinovaţi cu nimic; în ansamblu, situaţia ar fi extrem de nedreaptă şi dureroasă pentru mulţi.

Algoritimii de evitare a coliziunii pot fi părtinitori în moduri foarte supărătoare, spune dr. Lin, iar una dintre probleme este că ei sunt, în esenţă, nişte algoritmi de ţintire – sunt foarte asemănători cu cei folosiţi pentru a programa roboţii înarmaţi autonomi de uz militar.

Scenariul imaginat de Patrick Lin nu este foarte probabil, deocamdată, când sunt puţine maşini autonome, iar acestea au circulat, până în prezent (în cadrul testelor), mai mult pe autostrăzi – un mediu mai simplu, în care e mai uşor pentru o maşină să se descurce având în vedere lipsa pietonilor, a virajelor şi a altor elemente care pun probleme şoferilor în oraşe. Dar iată că Google a anunţat, de curând, că intenţionează să-şi testeze faimoasele sale maşini fără şofer pe străzile oraşelor – un mediu mai complex şi mai periculos, unde maşinile-robot vor fi puse frecvent în faţa unor alegeri mai dificile.

Iată un alt scenariu – tot cu maşini şi coliziuni - discutat atât de Patrick Lin, cât şi de Noah Goodall, un cercetător care lucrează la Virginia Center for Transportation Innovation and Research. Din nou, e vorba despre o maşină autonomă care se află în faţa unei ciocniri iminente şi nu are decât două alegeri: să lovească un motociciclist care poartă cască de protecţie sau unul care nu poartă cască. De vreme ce toate cercetările în domeniu arată că şansele unui motociclist de a supravieţui în cazul unui accident sunt mult mai mari dacă poartă cască, atunci logica şi principiul „fă cât mai puţin rău” l-ar îndemna pe programator să înveţe maşina să se îndrepte spre motociclistul cu cască. 

Bine, dar asta înseamnă că l-am pedepsi pe omul acela pentru că s-a comportat prudent şi responsabil purtând echipament de protecţie! Iar celălalt, motociclistul imprudent şi iresponsabil care merge fără cască (chiar încălcând legea, acolo unde purtarea căştii e obligatorie), ar scăpa nevătămat şi ar continua să meargă pe motocicletă fără cască. Cine ştie dacă nu cumva mulţi alţi motociclişti ar renunţa la căşti, de teamă să nu devină ţinte pentru maşinile autonome, dacă acestea ar fi „învăţate” să îi cruţe pe cei ce par mai vulnerabili? Da, e un scenariu distopic, dar nu e un exerciţiu inutil de imaginaţie: ne ajută să ne dăm seama de implicaţiile invenţiilor noastre, de aspectele lor negative (mai toate invenţiile au şi aşa ceva) şi ne obligă să ne gândim bine la ceea ce facem.

Sunt posibile multe scenarii de acelaşi gen, după cum sugerează un articol din Popular Science, al cărui autor imaginează alte câteva asemenea situaţii: în baza principiului „fă cât mai puţin rău”, propria ta maşină ar putea „decide” să sară în prăpastie, cu tine cu tot, dacă alternativa ar fi să izbească o maşină în care sunt mai mulţi pasageri, iar tu eşti singur în maşină; sau s-ar putea arunca (iarăşi, cu tine cu tot), în faţa unui camion, ca să evite coliziunea cu un autobuz şcolar plin cu copii; sau ar putea alege să izbească o maşină condusă de un şofer vârstnic, în locul uneia conduse de un bărbat în floarea vârstei, căci familia acestuia din urmă ar putea cere daune mai mari…

Oricum ar fi, ideea este că dezvoltarea maşinilor autonome – şi prin extensie, a oricărui tip de roboţi autonomi – implică aspecte etice foarte serioase şi pune problema responsabilităţii morale şi legale, nu a maşinăriilor, fireşte, ci a celor care le-au programat.

 

Învăţaţi să ucidă

Dacă maşinile fără şofer care aleg cine să moară şi cine să trăiască vi se par înfricoşătoare, ce să mai spunem de roboţii de luptă instruiţi pe baza unui algoritm care implică şi el discriminarea şi selecţia?

„Latura întunecată” a inteligenţei artificiale autonome: cum ar fi o lume în care roboţii ar fi autorizaţi să ucidă?    (Foto: Shutterstock.com)

Departe de a fi doar un element al universului SF, „roboţii ucigaşi” autonomi au devenit realitate: nu numai că tehnologia există, dar a şi început să fie pusă în practică. Se vorbea de mult despre ea, dar, atâta vreme cât nu fusese implementată, ne amăgeam cu speranţa că poate asta nu se va întâmpla niciodată. 

Dra, iată că, recent, Rusia a anunţat o acţiune fără precedent: instalarea unor roboţi mobili autonomi, înzestraţi cu mitraliere de calibrul 12,7 mm şi alte arme, pentru a păzi 5 instalaţii de rachete balistice.

Roboţii vor putea detecta şi distruge orice ţintă pe care ei o consideră periculoasă (rămâne de văzut ce-I vor învăţa în acestă privinţă programatorii lor), ei urmând să acţioneze „de capul lor”, fără implicarea unor oameni. Un asemenea robot se deplasează foarte repede, putând atinge viteze de 45 km/h, deci poate literalmente „fugări” un intrus, până când îl ţinteşte cu precizie şi îl ucide, absolut autonom.

Spre deosebire de Rusia, în SUA se consideră că decizia de a folosi armamentul din dotarea sistemelor robotice trebuie luată totuşi, în fiecare caz, de un operator uman. 

Chiar dacă multe ţări au adoptat în această privinţă, atitudinea americanilor şi nu pe cea a ruşilor, problema roboţilor înarmaţi capabili (şi lăsaţi) să decidă singuri când să deschidă focul este una extrem de îngrijorătoare.

Organizaţia Naţiunilor Unite a convocat recent o întrunire la care s-a discutat tocmai acest aspect: viitorul aşa-numitelor Lethal Autonomous Weapons Systems (LAWS), în vederea unei reglementări stricte a utilizării acestor arme, ce ar putea duce la restricţionarea sau chiar interzicerea folosirii unora dintre ele. În luna noiembrie a acestui an, discuţiile din cursul acestei întâlniri preliminare vor fi reluate în cadrul unei întâlniri mai ample: Convention on Certain Conventional Weapons. Practic, e o recunoaştere a faptului că LAWS sunt pe cale de a deveni un pericol, că au ieşit din laboratoarele de cercetări şi ameninţă să devină parte din realitatea de zi cu zi pe care o trăim. 

Roboţii ucigaşi ar putea deveni o realitate, fie în armată, fie în cadrul forţelor de ordine.    (Foto: Shutterstock.com)

Un raport publicat recent de organizaţia Human Rights Watch arată că roboţii ucigaşi „pun în pericol drepturile umane fundamentale, fie că sunt folosiţi în război, fie în cadrul forţelor de ordine.”

Iată, deci, unde ne aflăm în acest moment în domeniul sistemelor de inteligenţă artificială autonome: fascinante izbânzi tehnologice, adevărat triumf al geniului uman, aceste sisteme, prin latura lor întunecată, ameninţă să facă tot mai mult parte din viaţa noastră, cu consecinţe pe care nu le putem anticipa în toată gravitatea lor. Şi acesta e paradoxul tragic al situaţiei: aceste sisteme iau decizii, dar responsabilitatea nu este a lor. O decizie luată cândva, în liniştea unui birou, de către un grup de oameni, poate face ca aceştia să devină răspunzători, peste ani de zile, de ceva ce nimeni nu putuse anticipa.