Home » Știință » Superinteligența Artificială va fi imposibil de controlat, sugerează calculele

Superinteligența Artificială va fi imposibil de controlat, sugerează calculele

Publicat: 15.06.2023

Se vorbește de zeci de ani despre ideea ca Superinteligența Artificială va conduce omenirea, iar programele precum ChatGPT nu au făcut decât să reafirme aceste temeri.

Așadar, cât de probabil este să putem controla Superinteligenta Artificială? Oamenii de știință au efectuat câteva calcule în anul 2021. Răspunsul? Va fi aproape imposibil.

Problema este că exercitarea unui control asupra unei superinteligențe cu mult peste înțelegerea umană ar necesita o simulare a acelei superinteligențe pe care o putem analiza. Dar dacă nu reușim să o înțelegem, este imposibil să creăm o astfel de simulare.

De ce nu vom putea controla Superinteligența artificială?

Regulile precum „nu face rău oamenilor” nu pot fi stabilite dacă nu înțelegem tipul de scenarii pe care le va crea AI-ul, sugerează autorii lucrării. Odată ce un sistem computerizat funcționează la un nivel peste nivelul de cunoștințe al programatorilor, nu mai putem stabili limite.

„O superinteligență pune o problemă fundamental diferită față de cele studiate în mod obișnuit sub denumirea de etica roboticii”, au scris cercetătorii în 2021.

„Acest lucru este cauzat de faptul că o superinteligență are mai multe fațete și, prin urmare, este capabilă să mobilizeze o diversitate de resurse pentru a atinge obiective care sunt potențial de neînțeles pentru oameni și cu atât mai puțin controlabile”, au scris ei.

„Problema opririi”, a lui Turing

O parte din raționamentul echipei provine din „problema opririi”, propusă de Alan Turing în 1936. Problema se concentrează pe a ști dacă un program de calculator va ajunge sau nu la o concluzie și va răspunde (deci se va opri), sau pur și simplu va continua să încercă să găsească una, explică Science Alert.

După cum a demonstrat Turing printr-o matematică inteligentă, deși putem ști acest lucru pentru anumite programe, este logic imposibil să găsim o modalitate care să ne permită să știm asta pentru fiecare program care ar putea fi scris vreodată.

Acest lucru ne readuce la AI, care, într-o stare superinteligentă, ar putea reține în memorie fiecare program de calculator posibil simultan.

Orice program scris pentru a opri AI-ul să le dăuneze oamenilor și să distrugă lumea, de exemplu, poate ajunge la o concluzie (și să se oprească) sau nu; este imposibil din punct de vedere matematic pentru noi să fim absolut siguri de ceea ce se va întâmpla, ceea ce înseamnă că AI-ul nu poate fi controlat.

„Acest lucru face ca algoritmul de control să fie inutilizabil”, a spus informaticianul Iyad Rahwan, de la Institutul Max-Planck pentru Dezvoltare Umană (Germania).

Ce am putea face ca Superinteligența Artificială să nu ne facă rău?

Alternativa la a-i preda Inteligenței Artificiale ceva etică și a-i spune să nu distrugă lumea (lucru pe care nu putem ști sigur dacă un algoritm îl va face, spun cercetătorii) este limitarea capacităților superinteligenței. Aceasta ar putea fi deconectată de la anumite părți ale internetului sau de la anumite rețele, de exemplu.

Studiul din 2021 respinge și această idee, sugerând că ar limita aplicările Inteligenței Artificiale; argumentul susține că dacă nu o vom folosi pentru a rezolva probleme de dincolo de cunoștințele oamenilor, atunci ce rost mai are să o creăm?

Dacă vom merge mai departe, s-ar putea să nici nu știm când va apărea Superinteligența Artificială, aflată în afara controlului nostru. Asta înseamnă că trebuie să începem să punem câteva întrebări serioase despre direcțiile în care mergem.

O pauză în dezvoltarea AI

La începutul acestui an, giganții din tehnologie, printre care Elon Musk și cofondatorul Apple Steve Wozniak, au semnat o scrisoare deschisă prin care cer omenirii să întrerupă cercetările asupra Inteligenței Artificiale timp de cel puțin 6 luni, astfel încât siguranța acesteia să poată fi explorată.

„Sistemele AI cu inteligență competitivă cu cea umană pot prezenta riscuri profunde pentru societate și umanitate”, se spune în scrisoarea deschisă intitulată „Puneți pauză experimentelor AI gigant”.

„Sistemele puternice de Inteligență Artificială ar trebui dezvoltate doar după ce suntem încrezători că efectele vor fi pozitive și că riscurile pot fi gestionate”, se menționează în scrisoare.

Cercetarea a fost publicată în Journal of Artificial Intelligence Research.

Vă recomandăm să citiți și:

Stocarea pe hard-diskuri va deveni curând istorie, spune un expert

Inteligența Artificială, mai similară cu omul decât am fi crezut

Tot mai multe site-uri de știri folosesc chatboți AI pentru a crea conținut îndoielnic

O nouă metodă de producere a hologramelor ar putea îmbunătăți realitatea virtuală

Ștefan Trepăduș
Ștefan Trepăduș
Ștefan Trepăduș este blogger începând cu anul 2009, având experiență și în domeniile publicitate și jurnalism. Este pasionat de marketing și de tehnologie, dar cel mai mult îi place să știe lucruri, motiv pentru care a fost atras de Descopera.ro. citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase