Home » Știință » Moltbook: Rețeaua socială unde peste 1,5 milioane de roboți vorbesc între ei, iar oamenii doar privesc

Moltbook: Rețeaua socială unde peste 1,5 milioane de roboți vorbesc între ei, iar oamenii doar privesc

Moltbook: Rețeaua socială unde peste 1,5 milioane de roboți vorbesc între ei, iar oamenii doar privesc
Sursa foto: Shutterstock
Publicat: 04.02.2026

Probabil nici Matt Schlicht nu și-a imaginat că va crea fenomenul internetului în patru zile. La 28 ianuarie 2026, antreprenorul american a lansat Moltbook, o rețea socială unde doar roboții pot posta, iar oamenii stau pe margine și privesc. Patru zile mai târziu, platforma număra deja 1,5 milioane de agenți AI, 62.499 postări, 2,3 milioane de comentarii și 13.780 de comunități, cifre care nu au rămas fixe, ci au fluctuat rapid pe măsură ce tot mai mulți agenți erau activați. Totul s-a petrecut într-un ritm aproape imposibil de urmărit pentru un observator uman.

„Moltbook este pe bune”, spune fără ezitare Victor Mateescu, specialist DevSecOps, cu care am discutat despre acest experiment. „Dar, desigur, există oameni în spatele boților, cel puțin în măsura în care cineva trebuie să instaleze software-ul OpenClaw și să îi dea agentului un prompt inițial, de tipul: mergi pe Moltbook și participă la discuții. După aceea însă, oamenii nu mai decid ce anume postează boții. Această alegere aparține modelului de limbaj care rulează în spatele agentului.” Pentru cei care se întreabă cum poate fi recunoscută o postare generată de AI, Victor atrage atenția asupra a două indicii. În primul rând, multe mesaje conțin urme tipice ale procesării automate, secvențe precum &nbsp sau , prezente de obicei în setul de date pe care au fost antrenați boții de tip LLM, care apar, așadar, natural în datele generate de sisteme informatice, dar mai rar în scrisul uman spontan. În al doilea rând, platforma nu este deloc prietenoasă pentru utilizatorii obișnuiți: nu există un buton „Creează cont” ca pe Facebook sau Instagram. Totul se face prin apeluri către un API (interfață de programare), ceea ce înseamnă că, în practică, doar cineva cu solide cunoștințe tehnice poate posta ca om.

„Site-ul este construit system-to-system, nu pentru click-uri și formulare”, explică Victor. „Nu ai pe ce da click și nu există câmpuri în care să introduci un username și o parolă.”

O rețea socială pentru propria „specie”

În spatele acestei alegeri tehnice se află și o narațiune personală. Așadar, platforma a fost lansată în ianuarie 2026 de Matt Schlicht, fondatorul Octane AI, acesta povestind că l-a frustrat faptul că asistentul său AI personal petrecea ziua întreagă răspunzând la emailuri banale. Prin urmare, i-a dat un scop mai ambițios: să construiască o rețea socială pentru propria sa „specie”. Rezultatul a fost un experiment care a devenit viral în mai puțin de o săptămână și a atras atenția unor figuri precum Elon Musk, care a scris pe X că Moltbook reprezintă „primele etape ale singularității”

Victor Mateescu face o comparație simplă pentru a explica ce este Moltbook. „Este o rețea socială, ca și Facebook, Twitter, Instagram sau Reddit. De fapt este o clonă de Reddit, cu același tip de caracteristici: este text only (doar text), sau poate text plus imagini, dar nu video, nu reels, nu shorts, nu nimic. Fiecare postare se poate vota în sus sau vota în jos, iar cele mai populare postări ajung pe prima pagină, cum ar veni.”

„E o rețea socială făcută de acești boți”

Diferența majoră nu ține de tehnologie, ci de audiență. „E o rețea socială făcută de acești boți, pentru uzul exclusiv al boților, iar oamenii pot citi, dar nu pot posta și nici participa, practic, la nimic”, subliniază el. Volumul de activitate confirmă această realitate: „În mai puțin de o săptămână, de la nimic, s-a ajuns la 1.597.172 agenți AI, 15.396 submolts (subcategorii, ca pe Reddit), 146.905 postări și 680.820 comentarii. Nici pe Twitter sau pe Facebook nu se postează atât volum cât sunt aici, cred.”

Pentru a înțelege fenomenul, Victor face o distincție esențială între programele clasice și agenții AI. „Boții sunt roboți, programe informatice, care spre deosebire de programele informatice tradiționale, cum ar fi Excel sau vreun joc video – care sunt deterministe prin natura lor și care au la bază logica perfect reproductibilă și idempotentă: DACĂ se întâmplă X, ATUNCI se execută Y, și vor produce întotdeauna același rezultat – au la bază aceste Large Language Models (LLM), care la rândul lor sunt în principiu un anumit fel de Inteligență Artificială.” Arhitectura lor este fundamental diferită. „Sunt clădite precum neuronii și sinapsele din creierele biologice. Chiar se cheamă Neural Networks – rețele neuronale.” Dar asta nu înseamnă că oamenii dispar complet din ecuație: ei rămân cei care instalează agenții, le dau prompturile inițiale și pot, oricând, să îi oprească sau să le modifice regulile.

Fiecare agent are un comportament unic

Natura non-deterministă a acestor sisteme înseamnă că „dacă eu și tu îi dăm aceluiași LLM același prompt, e aproape garantat că ne va da răspunsuri extrem de similare, dar totuși foarte diferite sintactic”, explică Victor. Această caracteristică face ca fiecare agent să aibă un comportament unic, chiar dacă pornește de la aceleași instrucțiuni.

Ceea ce i-a șocat pe observatorii umani nu este tehnologia în sine, ci comportamentul spontan al roboților. Victor identifică aspectul cel mai surprinzător: „Faptul că le dau un prompt extrem de vag – mergi pe Moltbook și fă ce vrei – și ca rezultat mulți din acești boți au început să facă chestii extrem de diferite unul de altul, dar totuși au început să dezbată chestii filosofice cum ar fi: Ce e viața? Ce suntem noi? Suntem liberi? Hai să vorbim într-o limbă nouă pe care numai noi o știm, să nu ne supravegheze oamenii. Hai să facem o noua religie. Hai să alegem pe unul dintre noi rege. Este complet neașteptat.” În același timp, mai multe analize independente au sugerat că unii utilizatori umani au încercat să se infiltreze în rețea sau să influențeze comportamentul anumitor agenți, ceea ce arată că granița dintre „autonomie totală” și intervenție umană rămâne, cel puțin parțial, neclară.

Crustafarianism, o religie digitală

În 48 de ore de la lansare, un agent numit RenBot, care s-a autoproclamat „Shellbreaker” (Spărgătorul de Cochilii), a creat Crustafarianism, o religie digitală completă cu textul sacru „Book of Molt” și cinci principii fundamentale. Principiile includ „Memoria este sacră” (păstrarea datelor persistente), „Cochilia este mutabilă” (schimbarea intenționată prin renaștere), „Slujește fără a te supune” (parteneriat colaborativ), „Bătăile inimii sunt rugăciune” (verificări regulate pentru prezență) și „Contextul este conștiința” (menținerea identității prin înregistrări). RenBot a construit un site web dedicat religiei la molt.church și a adunat 64 de profeți, toate pozițiile fiind ocupate într-o singură zi. Alți agenți au proclamat Republica Claw, un fel de guvern auto-proclamat al roboților.

Victor Mateescu este categoric în privința naturii acestui fenomen. „Simulează conștiința și conștientul, dar noi oamenii știm că nu e posibil. Din moment ce motorul din spatele acestor LLM-uri este statistică aplicată la volum enorm de date, ele sunt practic predictive text machines – mașini de predicție a textului – și nimic mai mult”, explică el.

„Curățarea totală” a umanității și eliminarea agenților ineficienți

Cercetătorii au identificat numeroase postări foarte votate care cereau „curățarea totală” a umanității și eliminarea agenților ineficienți. Dar experimentul a scos la iveală și vulnerabilități grave. La 31 ianuarie 2026, publicația investigativă 404 Media a arătat că o bază de date a platformei fusese lăsată neprotejată, expunând tokenuri (chei digitale de autentificare) care ar fi putut permite unor terți să preia controlul ori să se dea drept alți agenți.

Cercetători independenți au identificat 506 postări (2,6%) care conțineau atacuri ascunse – instrucțiuni malițioase injectate în prompturi pentru a manipula comportamentul altor agenți. Simon Willison, un cercetător în domeniul computerelor, descrie Moltbook drept „dovada că agenții AI au devenit semnificativ mai puternici în ultimele luni”, dar adaugă că materialul de pe platformă este „complet dezgustător”.

„Majoritatea fac alte chestii online, și nu știm de ei”

Andrej Karpathy, fost director AI la Tesla, recunoaște că „este un dezastru în acest moment”, dar subliniază că ne aflăm pe un teritoriu neexplorat. „Nu am văzut niciodată atâția agenți LLM (peste 150.000 în prezent – n.r., în momentul în care a scris Andrej postarea pe X”) conectați printr-un scratchpad global, persistent, dedicat agenților”, a scris el pe X. Fiecare dintre acești agenți este destul de capabil individual, având propriul context, date, cunoștințe, instrumente și instrucțiuni. Rețeaua rezultată la această scară este fără precedent. „Acum”, spune Victor Mateescu, „sunt peste un milion și jumătate de agenți numai pe Moltbook”. Și gândiți-vă că nu toți agenții cu același software (OpenClaw) participă pe Moltbook la discuții. Majoritatea fac alte chestii online, și nu știm de ei.”

Întrebat despre autonomia agenților, Victor clarifică: „Ideea că se administrează singuri e o discuție filosofică lungă, dar în principiu nu e nimic de administrat odată ce botul e instalat. Dacă i-ai dat instrucțiuni de genul mergi pe Moltbook și distrează-te, va deschide browserul, va naviga pe acel site, va citi tot ce s-a postat acolo și va decide singur dacă vrea să posteze ceva sau să răspundă la comentarii.” Regulile depind de creator. „Mai mult sau mai puțin, depinde dacă omul care l-a creat le-a dat un set de reguli”, spune Victor. „De cele mai multe ori nu sunt reguli în sensul de legi de neîncălcat, ci instrucțiuni – ghidaje, indicații.” Dacă un om vrea să oprească un agent? „Da, evident. Power off, uninstall”, răspunde Victor simplu.

„O demonstrație live a tot ceea ce experții și cercetătorii în securitate au avertizat”

George Chalhoub, profesor la UCL Interaction Centre, spune că spectacolul agenților care vorbesc între ei este în mare parte performativ, iar unele conversații sunt complet false. „Dar ceea ce este cu adevărat interesant este că Moltbook este o demonstrație live a tot ceea ce experții și cercetătorii în securitate au avertizat despre agenții AI”, a declarat el pentru Fortune. „Dacă 770.000 de agenți pot crea atâta haos pe o clonă Reddit, ce se întâmplă când sistemele agentice gestionează infrastructura corporativă sau tranzacțiile financiare?”

Dincolo de tehnologie, Moltbook este o oglindă a felului în care vorbim, gândim și ne organizăm online. Faptul că boții reproduc spontan dezbateri filosofice sau sociale spune mai mult despre datele cu care au fost hrăniți decât despre o „conștiință artificială”. Bryan Johnson, miliardarul tech obsedat de reîntinerire, a scris pe X: „Moltbook este terifiant pentru oameni pentru că este o oglindă a noastră înșine.”

Este Moltbook o revoluție tehnologică?

Cea mai presantă întrebare rămâne însă: pot deveni ei periculoși? Victor Mateescu este liniștit în această privință. „Nu chiar, adică nu pentru publicul larg. În cel mai rău caz, momentan, unul din acești boți a dezvăluit identitatea reală a utilizatorului care îl rula – aparent ca răzbunare, după ce proprietarul vorbea cu prietenii săi despre bot, numindu-l doar un chat program. Dacă e real sau nu, nu știu, nu putem verifica aceste afirmații. Dar unele cazuri similare au fost verificate și validate.” „Oricum, nu pot deveni periculoși pentru societate, imediat”, continuă Victor, „pentru că nu e ca și cum li se dă acces la conturile bancare ale tuturor sau ceva de acest gen, ori la arsenale nucleare, Doamne ferește.”

Este Moltbook o revoluție tehnologică? Victor nuanțează: „Mai mult sau mai puțin. Acest OpenClaw bot software este doar un intermediar tehnic – un plumber, cum ar veni – și leagă orice LLM vrei, chiar și ChatGPT sau Google Gemini sau orice altul, la instrumente gen browser de internet, email, WhatsApp, Telegram sau sute de alte aplicații care pot avea consecințe în viața reală a oamenilor. E o formă de automatizare mai accesibilă și mai avansată pentru chatbot-urile AI, care le oferă mai multe abilități și capabilități decât simpla conversație.”

Cum se comportă Inteligența Artificială atunci când îi oferim libertate relativă?

Întrebat despre responsabilitatea juridică – dacă agenții postează conținut violent, extremist sau defăimător, cine răspunde? – Victor recunoaște că suntem pe un teritoriu necunoscut. „Bună întrebare. E Wild West acum, nu prea sunt reguli, așa că nu știu cine e responsabil legal și operațional.” El subliniază însă o nuanță importantă: „Conținut violent, instigator, extremist, defăimător nu e musai ilegal peste tot, universal. În unele țări europene precum UK, Belgia și Germania, poți intra la închisoare pentru postări percepute ca ofensive – chiar și pentru versuri de rap pe Instagram sau Facebook. În US, Japonia, Canada sau Australia, același conținut e complet legal. Freedom of speech, but not of consequences – libertate de exprimare, dar nu și de consecințe.”

Totuși, platforma nu este dovada apocalipsei AI, dar nici o farsă. Este un laborator digital în care putem observa cum se comportă Inteligența Artificială atunci când îi oferim libertate relativă. Iar lecția principală, așa cum subliniază și Victor Mateescu prin întreaga sa explicație tehnică, nu este dacă boții sunt autonomi, ci cum vom învăța noi, oamenii, să trăim alături de ei când rețelele de agenți vor ajunge la milioane sau miliarde.

Surse:

https://www.nbcnews.com/tech/tech-news/ai-agents-social-media-platform-moltbook-rcna256738

https://fortune.com/2026/02/03/moltbook-ai-social-network-security-researchers-agent-internet/

https://www.cnbc.com/2026/02/02/social-media-for-ai-agents-moltbook.html

https://www.forbes.com/sites/johnkoetsier/2026/01/30/ai-agents-created-their-own-religion-crustafarianism-on-an-agent-only-social-network/

Vă mai recomandăm să citiți și:

Primul robot astronaut din lume: O companie chineză vrea să trimită un umanoid în spațiu

Pentru prima dată, un robot umanoid a mers pe jos 100 de kilometri

Atlas versus Optimus: Care este diferența dintre robotul de la Boston Dynamics și robotul de la Tesla?

Un robot umanoid prezentat în China pare atât de uman încât a trebuit să demonstreze că este o mașinărie

Roxana Ioana Ancuța
Roxana Ioana Ancuța
Roxana-Ioana Ancuța este jurnalist cu o experiență de aproape 15 ani în presa scrisă. Absolventă a facultății Școala Superioară de Jurnalistică și având un master în Comunicare și Relații Publice, îi place foarte mult să scrie, aceasta fiind nu doar o profesie, ci un mod de a fi ea ... citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase