Oamenii de știință au adus noi îmbunătățiri la un „decodor cerebral” care folosește inteligența artificială (AI) pentru a transforma gândurile în text.
Noul algoritm convertor poate antrena rapid un decodor existent pe creierul altei persoane, a raportat echipa într-un studiu recent. Cercetătorii spun că aceste descoperiri ar putea, într-o zi, să sprijine persoanele cu afazie, o tulburare cerebrală care afectează capacitatea de comunicare.
Un decodor cerebral folosește învățarea automată pentru a traduce gândurile unei persoane în text, bazându-se pe răspunsurile creierului la poveștile pe care le-a ascultat. Totuși, versiunile anterioare ale decodorului necesitau ca participanții să asculte povești într-un aparat de rezonanță magnetică (MRI) timp de multe ore, iar aceste decodoare funcționau doar pentru persoanele pe care au fost antrenate.
„Persoanele cu afazie au adesea dificultăți atât în a înțelege limbajul, cât și în a-l produce,” a declarat coautorul studiului, Alexander Huth, un neuroscientist computațional de la University of Texas at Austin (UT Austin). „Așadar, dacă acesta este cazul, atunci s-ar putea să nu putem construi modele pentru creierul lor doar observând cum reacționează acesta la poveștile pe care le ascultă.”
În noua cercetare, publicată în revista Current Biology, Huth și coautorul său, Jerry Tang, un student absolvent de la UT Austin, au investigat modul în care ar putea depăși această limitare. „În acest studiu ne-am întrebat: putem face lucrurile diferit?” a spus el. „Putem, practic, transfera un decodor pe care l-am construit pentru creierul unei persoane pe creierul altei persoane?”
Cercetătorii au antrenat inițial decodorul cerebral pe câțiva participanți de referință pe metoda clasică — colectând date funcționale MRI în timp ce participanții ascultau 10 ore de povești de la radio.
Apoi, au antrenat două algoritme convertor pe participanții de referință și pe un alt set de participanți „țintă”: unul folosind date colectate în timpul în care participanții au petrecut 70 de minute ascultând povești de la radio și celălalt în timpul în care au petrecut 70 de minute vizionând scurtmetraje silențioase, care nu aveau legătură cu poveștile de la radio.
Folosind o tehnică numită aliniere funcțională, echipa a cartografiat modul în care creierele participanților de referință și cei țintă reacționau la aceleași povești audio sau filmice. Au folosit aceste informații pentru a antrena decodorul să funcționeze pe creierele participanților țintă, fără a necesita colectarea a multiple ore de date de antrenament.
Următorul pas a fost testarea decodoarelor folosind o scurtă poveste pe care niciunul dintre participanți nu o mai auzise până atunci.
Deși predicțiile decodorului erau ușor mai precise pentru participanții de referință față de cei care au utilizat convertoarele, cuvintele prezise din scanările creierelor fiecărui participant erau totuși semantic legate de cele folosite în povestea de test.
„Lucrul cu adevărat surprinzător și mișcător este că putem face asta chiar și fără a folosi date lingvistice,” a declarat Huth pentru Live Science. „Deci putem colecta date doar în timp ce cineva vizionează videoclipuri silențioase, iar apoi putem folosi aceste date pentru a construi un decodor de limbaj pentru creierul lor.”
Utilizarea convertoarelor bazate pe video pentru a transfera decodoarele existente către persoanele cu afazie ar putea să le ajute să își exprime gândurile, au spus cercetătorii. De asemenea, aceasta relevă o suprapunere între modurile în care oamenii reprezintă ideile provenite din limbaj și din narațiunile vizuale în creier.
Pașii următori ai echipei sunt să testeze convertorul pe participanți cu afazie și „să construiască o interfață care să îi ajute să genereze limbajul pe care doresc să-l genereze,” a declarat Huth.
Un studiu genetic dezvăluie schimbările care au modelat evoluția creierului uman
Inteligența Artificială ar putea deveni o armă periculoasă, avertizează fostul șef Google
Directorul Google DeepMind vrea reguli globale pentru Inteligența Artificială