Tot mai mulți specialiști din domeniul sănătății își exprimă îngrijorarea față de utilizarea la scară largă a instrumentelor de Inteligență Artificială (AI) generativă, cunoscute pentru erorile pe care le pot produce. De exemplu, acum AI-ul a inventat o parte a corpului uman.
Tehnologia este frecvent afectată de așa-numitele „halucinații”, un termen eufemistic pentru informațiile inventate și minciunile prezentate convingător de aceste modele AI.
Un exemplu notoriu de eroare a trecut neobservat mai bine de un an. Într-o lucrare de cercetare publicată în mai 2024, în care Google prezenta Med-Gemini, un model de AI pentru domeniul medical, cercetătorii au arătat cum sistemul analizează scanări cerebrale realizate în laboratoare de radiologie.
Iată cum Inteligența Artificială a inventat o parte a corpului care nu există. Într-unul dintre exemple, AI-ul a identificat un „infarct vechi al ganglionilor bazilari stângi”, o regiune care, de fapt, nu există în anatomia umană. Termenul „ganglioni bazilari” este o confuzie, fiind semnalată de neurologul Bryan Moore pentru publicația The Verge. Deși Google a corectat postarea de pe blogul oficial, lucrarea științifică nu a fost actualizată.
Probabil AI-ul a confundat „ganglionii bazali”, o structură cerebrală importantă în controlul mișcărilor, cu „artera bazilară”, un vas de sânge situat la baza trunchiului cerebral. Google a pus greșeala pe seama unei simple erori de scriere.
Însă această „scăpare” evidențiază probleme persistente și grave ale tehnologiei. Chiar și cele mai avansate modele AI, precum cele dezvoltate de Google sau OpenAI, continuă să genereze informații false, învățate din vastul conținut online pe care au fost antrenate, subliniază Futurism.
Dacă în căutările Google astfel de greșeli pot provoca frustrări, într-un spital ele pot avea consecințe grave. Deși se pare că eroarea în cazul Med-Gemini nu a afectat pacienți reali, specialiștii atrag atenția că un astfel de precedent este periculos. „Două litere pot părea un detaliu minor, dar în medicină e ceva foarte serios”, a declarat Maulin Shah, director medical în cadrul sistemului de sănătate Providence.
Google susținea, anul trecut, că AI-ul său are „un potențial semnificativ în medicină”, fiind capabil să identifice afecțiuni în radiografii, tomografii și altele. Când Moore a semnalat eroarea, reprezentanții companiei au spus că este o greșeală de scriere. Într-o actualizare a postării de pe blog, Google a precizat că „’bazilar’ este o transcriere greșită frecventă a termenului ‘bazal’, învățată de Med-Gemini din datele de antrenament, deși sensul raportului nu s-ar fi schimbat”.
Totuși, în acest moment, lucrarea de cercetare continuă să menționeze incorect „ganglionii bazilari”.
În context medical, asemenea halucinații AI pot genera confuzie și pot pune vieți în pericol. „Problema este că nu mă pot baza pe oameni să revizuiască fiecare detaliu, mai ales în sistemele complexe de sănătate”, a spus Shah.
Problemele nu se opresc la Med-Gemini. Un alt model mai avansat, MedGemma, a oferit răspunsuri diferite în funcție de cum erau formulate întrebările, uneori cu rezultate incorecte.
„Aceste modele inventează lucruri, iar cel mai grav e că nu spun niciodată: ‘Nu știu’. Iar asta e o mare problemă în domenii unde e în joc viața oamenilor”, a explicat Judy Gichoya, profesoară asociată la Universitatea Emory (SUA), specializată în radiologie și informatică.
Alți experți avertizează că introducem AI-ul în spitale mult prea rapid, fie sub formă de terapeuți digitali, radiologi virtuali, asistente sau servicii de transcriere a conversațiilor cu pacienții, fără o analiză atentă a riscurilor. Iar monitorizarea constantă a răspunsurilor AI-urilor care halucinează ar putea duce, paradoxal, la ineficiență.
Chiar și așa, Google merge mai departe. În martie, compania a anunțat că funcția sa de căutare asistată de AI, cunoscută pentru numeroasele erori, va începe să ofere și sfaturi medicale. În plus, a lansat și un „co-cercetător AI”, menit să-i asiste pe oamenii de știință în descoperirea de noi medicamente.
Însă dacă aceste rezultate nu sunt atent verificate, riscurile pentru viețile omenești sunt reale.
„Pentru mine, AI-ul trebuie să aibă un standard de eroare mult mai strict decât un om. Poate alții spun că dacă ajunge la nivelul unui om, e suficient. Eu nu sunt de acord cu asta, nici măcar o secundă”, a declarat Shah.
Ce au aflat cercetătorii după ce au readus la viață genomul gripei spaniole?
Nu numărul e problema, ci momentul: Studiul care răstoarnă percepția cu privire la trecutul sexual
O terapie revoluționară a îmbunătățit vederea unui bărbat cu o formă rară și netratabilă de orbire
S-a născut „cel mai bătrân bebeluș” din lume. Cu câți ani este mai mic decât părinții săi?