Home » Știință » Statele Unite au dezvăluit cea mai ambițioasă încercare de a controla Inteligența Artificială

Statele Unite au dezvăluit cea mai ambițioasă încercare de a controla Inteligența Artificială

Publicat: 04.11.2023

Președintele american Joe Biden a lansat cea mai ambițioasă încercare de a controla AI-ul, plasând SUA în fruntea conversațiilor despre reglementarea Inteligenței Artificiale.

Făcând acest lucru, SUA trece peste alte state într-o încercare de a controla AI-ul. Europa a condus anterior discuțiile cu Legea sa AI, care a fost adoptată de Parlamentul European în iunie 2023, dar care nu va intra pe deplin în vigoare până în 2025.

Ordinul executiv prezidențial este un pachet de inițiative pentru reglementarea Inteligenței Artificiale, dintre care unele sunt bune, iar altele par mai degrabă făcute la repezeală. Ordinul își propune să abordeze daunele, de la cele imediate, cum ar fi deepfake-urile generate de AI, la daune intermediare, cum ar fi pierderea locurilor de muncă, și până la daune pe termen mai lung, cum ar fi amenințarea existențială mult disputată pe care AI-ul o poate reprezenta pentru oameni.

SUA fac o mare încercare de a controla AI-ul

Congresul SUA a întârziat să adopte reglementări semnificative pentru marile companii de tehnologie. Acest ordin executiv prezidențial este probabil atât o încercare de a ocoli un Congres adesea blocat, cât și de a demara acțiunile. De exemplu, ordinul îi cere Congresului să adopte o legislație bipartizană privind confidențialitatea datelor, scrie Science Alert.

Se pare că ordinul executiv va fi implementat în următoarele trei luni până la un an. Acesta acoperă opt domenii:

  1. Standarde de siguranță și securitate pentru AI;
  2. Protecții de confidențialitate;
  3. Echitate și drepturi civile;
  4. Drepturile consumatorilor;
  5. Locuri de munca;
  6. Inovație și competiție;
  7. Conducere internațională;
  8. Controlul AI-ului.

Ce se cere în ordinul american?

Pe de o parte, ordinul acoperă multe preocupări ridicate de către cadrele universitare și de către public. De exemplu, una dintre directivele sale este să emită îndrumări oficiale cu privire la modul în care conținutul generat de AI poate fi marcat pentru a reduce riscul de deepfake.

De asemenea, ordinul le solicită companiilor care dezvoltă modele AI să demonstreze că acestea sunt sigure înainte de a putea fi lansate pentru o utilizare mai largă.

„Asta înseamnă că companiile trebuie să-i spună guvernului despre sistemele AI la scară largă pe care le dezvoltă și să împărtășească rezultate riguroase ale testelor independente pentru a dovedi că sistemele nu prezintă niciun risc național pentru securitatea sau siguranța poporului american”, a declarat președintele Biden.

Va avea succes această încercare de a controla AI-ul?

În același timp, ordinul nu reușește să abordeze o serie de probleme presante. De exemplu, nu abordează în mod direct modul de a le face față roboților AI ucigași, un subiect deranjant care a fost în discuție în ultimele două săptămâni la Adunarea Generală a Națiunilor Unite.

Această îngrijorare nu trebuie ignorată. Pentagonul dezvoltă roiuri de drone autonome ieftine, ca parte a programului Replicator anunțat recent. În mod similar, Ucraina a dezvoltat drone de atac care folosesc AI și care pot identifica și ataca forțele ruse fără intervenție umană.

Am putea ajunge într-o lume în care tehnologia decide cine trăiește și cine moare? Ordinul executiv doar cere ca armata să folosească AI-ul în mod etic, dar nu stipulează ce înseamnă asta.

Și cum rămâne cu protejarea alegerilor de armele de persuasiune în masă care folosesc Inteligența Artificială? O serie de instituții au raportat despre modul în care alegerile recente din Slovacia ar fi putut fi influențate de deepfakes. Mulți experți sunt, de asemenea, îngrijorați de utilizarea abuzivă a AI-ului în viitoarele alegeri prezidențiale din SUA.

Dacă nu sunt implementate controale stricte, riscăm să trăim într-o epocă în care nimic din ceea ce vedem sau auzim online nu poate fi de încredere. Dacă acest lucru pare exagerat, luați în considerare faptul că Partidul Republican din SUA a lansat deja o reclamă de campanie care pare generată în întregime de AI.

Ordinul dat de președintele Biden ar trebui adaptat și de alte țări

Multe dintre inițiativele din ordinul executiv ar putea și ar trebui să fie reproduse și în alte țări, inclusiv în Australia. Experții, după cum o cere și ordinul, trebuie să le ofere îndrumări proprietarilor, programelor guvernamentale și contractorilor guvernamentali cu privire la modul în care să se asigure că algoritmii AI nu sunt utilizați pentru a discrimina persoanele.

Experții trebuie să abordeze și discriminarea algoritmică din sistemul de justiție penală, unde AI-ul este utilizat din ce în ce mai mult în situații cu mize mari, inclusiv pentru condamnarea, eliberarea condiționată și probațiunea, eliberarea și detenția preventivă, evaluările riscurilor, supravegherea și controlul predictiv.

Inteligența Artificială a fost folosită în mod controversat pentru astfel de aplicații și în Australia, cum ar fi în Planul de Management al Depistării Suspecților, folosit pentru a monitoriza tinerii din New South Wales.

O încercare de a controla AI-ul care amenință umanitatea

Poate cel mai controversat aspect al ordinului executiv este acela care abordează potențialele daune ale celor mai puternice așa-numite modele AI „de frontieră”. Unii experți consideră că aceste modele, care sunt dezvoltate de companii precum Open AI, Google și Anthropic, reprezintă o amenințare existențială pentru umanitate. Alții cred că astfel de preocupări sunt exagerate și ar putea distrage atenția de la daune mai imediate, cum ar fi dezinformarea și inechitatea, care deja rănesc societatea.

Ordinul lui Biden invocă puteri extraordinare de război (în special Legea de Producție pentru Apărare din 1950 introdusă în timpul războiului din Coreea) pentru a le cere companiilor să notifice guvernul federal atunci când antrenează astfel de modele de frontieră. De asemenea, ordinul cere ca companiile să împărtășească rezultatele testelor de siguranță în care hackeri interni folosesc atacuri pentru a testa un software pentru erori și vulnerabilități.

Va fi dificil, și poate imposibil, să controlezi dezvoltarea modelelor de frontieră. Directivele de mai sus nu vor opri companiile să dezvolte astfel de modele în străinătate, unde guvernul SUA are putere limitată. Comunitatea open source le poate dezvolta, de asemenea, într-un mod distribuit, un mod care face ca lumea tehnologiei să fie „fără granițe”.

Impactul ordinului executiv va fi probabil cel mai mare asupra guvernului însuși și asupra modului în care acesta utilizează AI-ul, mai degrabă decât asupra companiilor. Chiar și așa, este o acțiune binevenită. Summit-ul pentru Siguranța AI al prim-ministrului britanic Rishi Sunak pare acum a fi oarecum un festival de discuții diplomatice în comparație, scrie profesorul de AI Toby Walsh, de la UNSW Sydney (Australia).

Vă recomandăm să citiți și:

Inteligența Artificială prezice viitorul Inteligenței Artificiale

Premieră mondială: Inteligența Artificială a descoperit o supernova fără intervenție umană

Un pergament carbonizat în urma erupției vulcanului Vezuviu, citit cu Inteligența Artificială

Cercetătorii japonezi susțin că Inteligența Artificială poate traduce ce spun găinile

Ștefan Trepăduș
Ștefan Trepăduș
Ștefan Trepăduș este blogger începând cu anul 2009, având experiență și în domeniile publicitate și jurnalism. Este pasionat de marketing și de tehnologie, dar cel mai mult îi place să știe lucruri, motiv pentru care a fost atras de Descopera.ro. citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase