Home » Știință » Superinteligența Artificială va fi imposibil de controlat, sugerează calculele

Superinteligența Artificială va fi imposibil de controlat, sugerează calculele

Publicat: 15.06.2023

Se vorbește de zeci de ani despre ideea ca Superinteligența Artificială va conduce omenirea, iar programele precum ChatGPT nu au făcut decât să reafirme aceste temeri.

Așadar, cât de probabil este să putem controla Superinteligenta Artificială? Oamenii de știință au efectuat câteva calcule în anul 2021. Răspunsul? Va fi aproape imposibil.

Problema este că exercitarea unui control asupra unei superinteligențe cu mult peste înțelegerea umană ar necesita o simulare a acelei superinteligențe pe care o putem analiza. Dar dacă nu reușim să o înțelegem, este imposibil să creăm o astfel de simulare.

De ce nu vom putea controla Superinteligența artificială?

Regulile precum „nu face rău oamenilor” nu pot fi stabilite dacă nu înțelegem tipul de scenarii pe care le va crea AI-ul, sugerează autorii lucrării. Odată ce un sistem computerizat funcționează la un nivel peste nivelul de cunoștințe al programatorilor, nu mai putem stabili limite.

„O superinteligență pune o problemă fundamental diferită față de cele studiate în mod obișnuit sub denumirea de etica roboticii”, au scris cercetătorii în 2021.

„Acest lucru este cauzat de faptul că o superinteligență are mai multe fațete și, prin urmare, este capabilă să mobilizeze o diversitate de resurse pentru a atinge obiective care sunt potențial de neînțeles pentru oameni și cu atât mai puțin controlabile”, au scris ei.

„Problema opririi”, a lui Turing

O parte din raționamentul echipei provine din „problema opririi”, propusă de Alan Turing în 1936. Problema se concentrează pe a ști dacă un program de calculator va ajunge sau nu la o concluzie și va răspunde (deci se va opri), sau pur și simplu va continua să încercă să găsească una, explică Science Alert.

După cum a demonstrat Turing printr-o matematică inteligentă, deși putem ști acest lucru pentru anumite programe, este logic imposibil să găsim o modalitate care să ne permită să știm asta pentru fiecare program care ar putea fi scris vreodată.

Acest lucru ne readuce la AI, care, într-o stare superinteligentă, ar putea reține în memorie fiecare program de calculator posibil simultan.

Orice program scris pentru a opri AI-ul să le dăuneze oamenilor și să distrugă lumea, de exemplu, poate ajunge la o concluzie (și să se oprească) sau nu; este imposibil din punct de vedere matematic pentru noi să fim absolut siguri de ceea ce se va întâmpla, ceea ce înseamnă că AI-ul nu poate fi controlat.

„Acest lucru face ca algoritmul de control să fie inutilizabil”, a spus informaticianul Iyad Rahwan, de la Institutul Max-Planck pentru Dezvoltare Umană (Germania).

Ce am putea face ca Superinteligența Artificială să nu ne facă rău?

Alternativa la a-i preda Inteligenței Artificiale ceva etică și a-i spune să nu distrugă lumea (lucru pe care nu putem ști sigur dacă un algoritm îl va face, spun cercetătorii) este limitarea capacităților superinteligenței. Aceasta ar putea fi deconectată de la anumite părți ale internetului sau de la anumite rețele, de exemplu.

Studiul din 2021 respinge și această idee, sugerând că ar limita aplicările Inteligenței Artificiale; argumentul susține că dacă nu o vom folosi pentru a rezolva probleme de dincolo de cunoștințele oamenilor, atunci ce rost mai are să o creăm?

Dacă vom merge mai departe, s-ar putea să nici nu știm când va apărea Superinteligența Artificială, aflată în afara controlului nostru. Asta înseamnă că trebuie să începem să punem câteva întrebări serioase despre direcțiile în care mergem.

O pauză în dezvoltarea AI

La începutul acestui an, giganții din tehnologie, printre care Elon Musk și cofondatorul Apple Steve Wozniak, au semnat o scrisoare deschisă prin care cer omenirii să întrerupă cercetările asupra Inteligenței Artificiale timp de cel puțin 6 luni, astfel încât siguranța acesteia să poată fi explorată.

„Sistemele AI cu inteligență competitivă cu cea umană pot prezenta riscuri profunde pentru societate și umanitate”, se spune în scrisoarea deschisă intitulată „Puneți pauză experimentelor AI gigant”.

„Sistemele puternice de Inteligență Artificială ar trebui dezvoltate doar după ce suntem încrezători că efectele vor fi pozitive și că riscurile pot fi gestionate”, se menționează în scrisoare.

Cercetarea a fost publicată în Journal of Artificial Intelligence Research.

Vă recomandăm să citiți și:

Stocarea pe hard-diskuri va deveni curând istorie, spune un expert

Inteligența Artificială, mai similară cu omul decât am fi crezut

Tot mai multe site-uri de știri folosesc chatboți AI pentru a crea conținut îndoielnic

O nouă metodă de producere a hologramelor ar putea îmbunătăți realitatea virtuală

Ștefan Trepăduș
Ștefan Trepăduș
Ștefan Trepăduș este blogger începând cu anul 2009, având experiență și în domeniile publicitate și jurnalism. Este pasionat de marketing și de tehnologie, dar cel mai mult îi place să știe lucruri, motiv pentru care a fost atras de Descopera.ro. citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase
Cele mai noi articole
Lepra, între istorie și știință: ce înseamnă cu adevărat această boală și cât de mare este riscul astăzi
Lepra, între istorie și știință: ce înseamnă cu adevărat această boală și cât de mare este riscul astăzi
Geminidele ating vârful în weekendul 13 – 14 decembrie 2025. Cum să le vezi?
Geminidele ating vârful în weekendul 13 – 14 decembrie 2025. Cum să le vezi?
Epidemie „fără precedent” de gripă în Marea Britanie
Epidemie „fără precedent” de gripă în Marea Britanie
Fibrele, noul ingredient-vedetă. „Este un nutrient de care oamenii chiar au nevoie”
Fibrele, noul ingredient-vedetă. „Este un nutrient de care oamenii chiar au nevoie”
Nichita Stănescu, geniul răsfăţat de Ceauşeşti care a consumat alcool până a murit. „A făcut şi el un pact cu diavolul”
Nichita Stănescu, geniul răsfăţat de Ceauşeşti care a consumat alcool până a murit. „A făcut şi el un pact cu diavolul”
Gigantul Netflix, păcălit cu milioane de dolari de un regizor cunoscut de la Hollywood
Gigantul Netflix, păcălit cu milioane de dolari de un regizor cunoscut de la Hollywood
Locurile din avion pe care pasagerii ar trebui să le evite pe cât posibil
Locurile din avion pe care pasagerii ar trebui să le evite pe cât posibil
Interesul SUA pentru Groenlanda, motiv de panică pentru serviciile secrete daneze
Interesul SUA pentru Groenlanda, motiv de panică pentru serviciile secrete daneze
Unde ajung bagajele pierdute în aeroport?
Unde ajung bagajele pierdute în aeroport?
Oamenii tocmai acum realizează că Pământul are o coadă, care se întinde pe milioane de kilometri
Oamenii tocmai acum realizează că Pământul are o coadă, care se întinde pe milioane de kilometri
Un simplu truc cu lumina dezvăluie căi cerebrale ascunse în detaliu microscopic
Un simplu truc cu lumina dezvăluie căi cerebrale ascunse în detaliu microscopic
Ce a descoperit o echipă de cercetători în structura termică de sub Groenlanda?
Ce a descoperit o echipă de cercetători în structura termică de sub Groenlanda?
A fost recuperată prima comoară de pe „Sfântul Graal al epavelor”
A fost recuperată prima comoară de pe „Sfântul Graal al epavelor”
Copilăria lângă un părinte narcisic: consecințe emoționale și drumul către vindecare
Copilăria lângă un părinte narcisic: consecințe emoționale și drumul către vindecare
Cuvintele care vindecă: cum să vorbești ca să fii auzit, respectat și înțeles
Cuvintele care vindecă: cum să vorbești ca să fii auzit, respectat și înțeles
Cum a devenit „narcisismul” unul dintre cele mai folosite cuvinte ale psihologiei moderne
Cum a devenit „narcisismul” unul dintre cele mai folosite cuvinte ale psihologiei moderne
Cum facem iubirea să reziste până la adânci bătrâneți?
Cum facem iubirea să reziste până la adânci bătrâneți?
Test de cultură generală. De ce câinilor le place să ascundă lucruri?
Test de cultură generală. De ce câinilor le place să ascundă lucruri?