Dilemele etice pentru care vor trebui să fie pregătite mașinile autonome

10 07. 2020, 15:30
Credit foto: Pixabay

Experții sunt de părere că modul în care sunt programate mașinile autonome este simplist din punct de vedere etic.

Domeniul mașinilor autonome se dezvoltă rapid în ultimii ani, dar cu toate acestea se confruntă cu multe limitări. Unele sunt de natură practică, în timp ce altele sunt de natură etică și fac subiectul acestui articol.

Majoritatea discuțiilor legate despre modul în care ar trebui să funcționeze aceste automobile sunt conturate în jurul a două mari poziții: utilitarismul și egoismul. Aceste abordări pot fi înțelese în contextul unui posibil accident, iar astfel prima abordare înseamnă alegerea cursului de acțiune care duce la rănirea unui număr cât mai mic de persoane. Cea de-a doua abordare implică protejarea pasagerilor și a vehicului, notează Tech Xplore.

Probleme etice mai mari și mai complexe

„Abordările actuale ale eticii în cazul vehiculelor autonome reprezintă o suprasimplificare periculoasă, judecățile morale sunt mai complexe decât standardul actual”, explică Veljko Dubljević, cercetător al Universității Carolina de Nord.

Acesta propune o situație inițială extremă, dar care subliniază gradul de complexitate al adevăratelor probleme etice cu care se confruntă domeniul: „De exemplu, ce se întâmplă dacă cele cinci persoane din mașină sunt teroriști? Și ce se întâmplă dacă profită în mod deliberat de programarea AI pentru a ucide pietonii din apropiere sau pentru a răni alte persoane? Apoi, s-ar putea să vă doriți ca vehiculul autonom să lovească mașina cu cei cinci pasageri”.

„Cu alte cuvinte, abordarea simplistă folosită în prezent pentru a aborda considerente etice în AI și vehiculele autonome nu ține cont de intențiile utilizatorilor. Și ar trebui”, mai adaugă cercetătorul.

Modelul Agent-Act-Consecință

Pentru a soluționa această problemă, Dubljević,  propune ca algoritmii să  folosească o analiză între pași , Agent-Act-Consecință  care să guverneze deciziile. În primul rând, intenția agentului este bună sau rea? În al doilea rând, fapta sau acțiunea în sine este bună sau rea? În cele din urmă, rezultatul sau consecința este bună sau rea? Această abordare permite o nuanțare considerabilă.

„Modelul ADC ne-ar permite să ne apropiem de flexibilitatea și stabilitatea pe care o vedem în judecata morală a omului, dar asta nu există încă în cazul algoritmilor”, adaugă cercetătorul.

Studiul Toward Implementing the ADC Model of Moral Judgment in Autonomous Vehicles a fost publicat în Science and Engineering Ethics.

Citește și:

Un radar permite mașinilor autonome să „vadă” după colțuri

Cum pot fi deturnate maşinile autonome – VIDEO

Inginerii de la MIT, printre care o româncă, au creat un nou sistem care să facă maşinile autonome mai sigure

Inteligenţa artificială este mai uşor de adaptat pentru sistemele de armament decât pentru maşinile autonome