Deși oamenii și sistemele de inteligență artificială „gândesc” în moduri foarte diferite, cercetări recente arată că inteligența artificială ia uneori decizii la fel de iraționale ca oamenii.
În aproape jumătate dintre scenariile analizate într-un nou studiu, ChatGPT a manifestat multe dintre cele mai comune erori cognitive umane.
Publicat în revista Manufacturing & Service Operations Management, studiul este primul care evaluează comportamentul ChatGPT în raport cu 18 prejudecăți cognitive cunoscute din psihologia umană.
Autorii lucrării, provenind din cinci instituții academice din Canada și Australia, au testat modelele GPT-3.5 și GPT-4 de la OpenAI — cele două modele mari de limbaj care alimentează ChatGPT — și au descoperit că, deși sunt „impresionant de consecvente” în raționamentele lor, nu sunt imune la greșelile umane.
Mai mult, această consecvență are atât efecte pozitive, cât și negative, spun cercetătorii.
„Managerii vor beneficia cel mai mult folosind aceste instrumente pentru probleme cu soluții clare”, a declarat autorul principal Yang Chen, profesor asistent în managementul operațiunilor la Ivey Business School. „Dar dacă le folosești pentru decizii subiective sau bazate pe preferințe, este mau complicat.”
Studiul a aplicat inteligenței artificiale prejudecăți umane cunoscute, precum aversiunea față de risc, supraincrederea și efectul de proprietate, pentru a vedea dacă ChatGPT cade în aceleași capcane ca oamenii.
Cercetătorii au adresat modelelor GPT întrebări ipotetice inspirate din psihologie clasică, dar și din contexte comerciale reale, precum managementul stocurilor sau negocieri cu furnizori. Scopul a fost să vadă dacă imită preferințele umane chiar și în contexte diferite.
GPT-4 s-a descurcat mai bine decât GPT-3.5 în probleme cu soluții matematice clare, comițând mai puține erori în scenarii logice sau bazate pe probabilități. Însă în simulări subiective, precum alegerea între o opțiune riscantă sau una sigură, chatbotul a reflectat adesea preferințele iraționale ale oamenilor.
„GPT-4 arată o preferință pentru certitudine chiar mai mare decât oamenii,” au scris cercetătorii, referindu-se la tendința de a alege rezultate sigure și previzibile în fața ambiguității.
Comportamentele modelelor au rămas stabile indiferent dacă întrebările erau formulate abstract sau în termeni de procese operaționale de business. Studiul a concluzionat că prejudecățile observate nu sunt doar rezultatul unor exemple memorate — ci parte integrantă din logica de raționare a inteligenței.
Un rezultat surprinzător a fost că GPT-4 a amplificat uneori erorile umane. „La testul de confirmare, GPT-4 a dat mereu răspunsuri părtinitoare,” au scris autorii.
Potrivit autorilor, prejudecățile umane din ChatGPT provin din datele de antrenament care conțin erori umane. Aceste tendințe sunt întărite în timpul ajustării fine, mai ales când feedbackul uman favorizează răspunsurile plauzibile în detrimentul celor raționale, scrie LiveScience.
„Dacă vrei decizii precise și nepărtinitoare, folosește GPT pentru domenii în care ai avea deja încredere într-un calculator,” a spus Chen. „Când rezultatul depinde de factori subiectivi sau strategici, supravegherea umană devine esențială, chiar și doar pentru a ajusta prompturile și a corecta prejudecăți cunoscute.”
Inteligența Artificială a detectat un detaliu ascuns într-un tablou celebru al lui Rafael
Experții sunt îngrijorați că Inteligența Artificială ne face mai proști
OpenAI a lansat un model de Inteligență Artificială care „gândește în imagini”