Sunt companiile de tehnologie aproape de a crea aparate care gândesc cu adevărat, așa cum susțin directorii lor? Un expert spune că LLM-urile nu vor fi inteligente niciodată.
Avem tendința să asociem limbajul cu inteligența. Ne impresionează oamenii cu abilități bune de exprimare sau scriere. Dar cercetările recente arată că limbajul nu este același lucru cu inteligența, argumentează Benjamin Riley, fondatorul Cognitive Resonance, într-un eseu publicat de The Verge. Iar asta este o veste proastă pentru industria AI, care își bazează ambițiile de a crea o Inteligență Artificială Generală (AGI) pe arhitectura modelelor lingvistice.
LLM-urile nu vor fi inteligente niciodată. Problema, spune Riley, este că, potrivit neuroștiinței, gândirea umană este în mare parte independentă de limbaj. Faptul că folosim limbajul pentru a gândi nu înseamnă că limbajul este gândirea în sine. Această diferență ar fi esențială pentru a distinge realitatea științifică de promisiunile futuriste ale liderilor din tehnologie.
AGI, în teorie, ar fi un sistem capabil să egaleze sau să depășească inteligența umană în multe domenii. În practică, este prezentată ca soluția pentru probleme uriașe, de la cancer la schimbări climatice. Invocând această viziune, companiile pot justifica cheltuieli masive și impactul ecologic al centrelor de date, scrie Futurism.
O parte din aceste costuri vine din obsesia pentru “scalare”: mai multe date, mai multe GPU-uri, modele mai mari. Acestea devin mai bune la conversație și la rezolvarea unor sarcini, dar, spune Riley, rămân doar instrumente care imită comunicarea, nu și procesele reale de gândire.
Dacă limbajul ar fi esențial pentru gândire, pierderea lui ar trebui să elimine capacitatea de a gândi. Dar studiile arată contrariul. Analize RMNf arată că zone diferite ale creierului se activează la sarcini diferite; pierderea limbajului nu elimină capacitatea de a rezolva probleme, de a urma instrucțiuni nonverbale sau de a înțelege emoții.
Chiar și unii lideri ai domeniului AI sunt sceptici față de limitele LLM-urilor (Large Language Model). Yann LeCun, laureat Turing și fost șef în AI la Meta, susține că modelele lingvistice nu vor ajunge niciodată la inteligență generală. El propune în schimb modele “ale lumii”, antrenate pe date fizice și percepție. Poziția lui contrastează cu direcția luată de Mark Zuckerberg, care investește masiv în dezvoltarea unei “superinteligențe” bazate tot pe LLM-uri.
Alte cercetări indică un plafon de performanță pentru LLM-uri. Un studiu publicat în Journal of Creative Behavior a analizat limita matematică a creativității AI-ului, concluzionând că, fiind sisteme probabilistice, ele ajung inevitabil într-un punct în care nu mai pot genera idei cu adevărat noi fără a deveni incoerente. Prin urmare, creativitatea lor rămâne la nivelul unui om mediu.
Potrivit autorului studiului, David Cropley, AI-ul poate imita creativitatea, dar nu poate produce opere originale la nivel profesionist. Un scriitor sau un artist poate crea ceva cu adevărat inovator; un LLM, nu. Iar dacă industriile se bazează prea mult pe ele, rezultatul va fi un conținut tot mai repetitiv.
Acest lucru ridică întrebări majore: dacă modelele actuale nu pot crea idei noi, cum ar putea inventa “o nouă fizică”, cum afirmă Elon Musk, sau cum ar putea rezolva criza climatică, cum sugerează Sam Altman, dacă sunt limitate la amestecarea informațiilor deja existente?
Un LLM poate rearanja cunoștințele noastre în moduri interesante, scrie Riley, dar va rămâne mereu prizonierul vocabularului și al datelor pe care i le-am oferit, o mașinărie care reînnoiește metafore moarte, nu o minte capabilă să creeze cu adevărat.
De ce o pagină de pe Wikipedia a fost blocată pentru editare
Test de cultură generală. Ce este mai mare decât un terabyte?
Trucul simplu care reduce consumul de energie al centrelor de date cu 30%