Ca mulți alții, Tran este un tânăr care apelează la inteligența artificială inclusiv în momente de criză. Suprasolicitat la serviciu și nesigur în privința relației, descărcase ChatGPT „doar ca să îl încerce”.
„Voiam doar să fiu sigur că nu spun ceva greșit. Așa că am întrebat ChatGPT ce ar trebui să spun”, a explicat el, referindu-se la o neînțelegere cu partenera sa.
Atunci când a citit cu voce tare mesajul generat de chatbot, suna articulat, logic și bine compus prea bine compus. Nu suna a Tran. Și cu siguranță nu suna a cineva aflat în mijlocul unei conversații emoționale complexe despre viitorul unei relații de lungă durată. Mesajul nu menționa niciunul dintre comportamentele lui Tran care contribuiseră la tensiunile din relație.
Curiozitatea s-a transformat într-un obicei zilnic: întrebări, redactarea de mesaje, chiar și căutarea de reasigurare despre propriile sentimente. Cu cât îl folosea mai mult, cu atât începea să se îndoiască de sine în interacțiunile sociale, cerând îndrumarea modelului înainte de a răspunde colegilor sau persoanelor dragi. Spunea că se simțea „de parcă nimeni nu mă cunoaște mai bine”.
Partenera lui, însă, a început să simtă că vorbea cu altcineva.
Psihologii avertizează că disponibilitatea permanentă și tonul prietenos al acestor modele pot întări comportamente nesănătoase, mai ales la persoanele cu anxietate, tulburare obsesiv-compulsivă sau traume.
Tran își reformula adesea întrebările până primea un răspuns care „se simțea corect”, externalizând procesarea emoțiilor și pierzând capacitatea de a-și tolera disconfortul.
Pe lângă aspectele psihologice, există riscuri etice, notează The Guardian. Informațiile împărtășite cu ChatGPT nu sunt protejate de aceleași standarde de confidențialitate ca în cazul unui profesionist acreditat. Modelele pot furniza informații eronate sau părtinitoare și nu pot surprinde indiciile nonverbale ale unui pacient.
În terapie, Tran și-a explorat frica de a dezamăgi, disconfortul față de conflict și convingerea că acele „cuvinte perfecte” pot preveni durerea. A început să își scrie singur răspunsurile, uneori stângace, alteori nesigure, dar autentice.
„Pur și simplu nu suna ca tine”, i-a spus partenera, explicând distanțarea pe care o simțea.
Pentru Tran, schimbarea nu a fost doar despre limitarea ChatGPT, ci despre recâștigarea propriei voci. Nu avea nevoie de un răspuns perfect, ci de încrederea că poate naviga haosul vieții cu curiozitate, curaj și grijă și fără scenarii prestabilite.
Inteligență Artificială detectează boala Lyme cu o precizie de 90%
Inteligența Artificială ajută oamenii de știință să descopere noi legi ale fizicii
Semnal de alarmă de la creatorii celor mai avansate sisteme de Inteligență Artificială