Ar putea inteligența artificială să gândească la fel ca un om?

13 04. 2022, 21:00

O nouă metodă compară raționamentul unui model de învățare automată cu cel al unui om, astfel încât utilizatorul poate observa tiparele comportamentului modelului.

În procesul de învățare automată, înțelegerea motivelor pentru care un model ia anumite decizii este extrem de importantă. De exemplu, un model de învățare automată ar putea prezice corect că o leziune a pielii este canceroasă, dar ar fi putut să facă acest lucru folosind o poză clinică care nu are nicio legătură cu aceasta.

Deși există instrumente care îi ajută pe experți să înțeleagă raționamentul unui model, deseori acestea nu oferă informații decât pentru o singură decizie la un moment dat, iar fiecare trebuie evaluată manual.

În mod obișnuit, modelele sunt antrenate folosind milioane de intrări de date, ceea ce face aproape imposibilă evaluarea de către un om a unui număr suficient de decizii pentru a identifica modele.

Cum ia inteligența artificială decizii?

Acum, cercetătorii de la MIT și IBM Research au creat o metodă care permite unui utilizator să sorteze și să clasifice aceste explicații individuale pentru a analiza rapid comportamentul inteligenței artificiale. Tehnica lor, denumită Shared Interest (Interesul Comun), încorporează parametri cuantificabili care compară cât de bine se potrivește raționamentul unui model, cu cel al unui om.

Aceasta ar putea ajuta un utilizator să descopere cu ușurință tendințe îngrijorătoare în procesul de luare a deciziilor unui model. Agregarea acestor informații ar putea ajuta utilizatorul să determine rapid și cantitativ dacă un model este demn de încredere și dacă este pregătit să fie implementat într-o situație reală.

Metoda valorifică tehnici populare care arată cum un model de învățare automată a luat o anumită decizie. În cazul în care modelul clasifică imagini, metodele evidențiază zonele unei imagini care sunt importante în luarea deciziei.

Cum funcționează noul model?

Aceste zone sunt vizualizate sub forma unui tip de hartă termică, care este adesea suprapusă peste imaginea originală. Dacă modelul a clasificat imaginea ca fiind un câine, iar capul câinelui este evidențiat, înseamnă că acei pixeli au fost importanți pentru model atunci când a decis că imaginea conține un câine.

Atunci când se evaluează un model de clasificare a imaginilor, metoda compară datele generate de model și datele de bază generate de oameni pentru aceeași imagine, pentru a vedea cât de bine se aliniază, potrivit EurekAlert.

Tehnica utilizează mai mulți parametri pentru a cuantifica această aliniere și apoi clasifică o anumită decizie într-una dintre cele opt categorii. Categoriile variază de la perfect aliniat cu omul, până la complet distrasă.

Inteligența artificială ar putea face aceleași alegeri ca oamenii

„La un capăt al spectrului, modelul a luat decizia din exact același motiv pentru care a făcut-o un om, iar la celălalt capăt al spectrului, modelul și omul iau această decizie din motive total diferite”, explică Boggust, autoarea studiului, publicat în arXiv.

Tehnica funcționează în mod similar cu datele bazate pe text, unde cuvintele cheie sunt evidențiate în loc de regiunile imaginii.

În viitor, cercetătorii doresc să aplice Shared Interest la diferite tipuri de date, în special la date tabelare, care sunt utilizate în dosarele medicale. Boggust speră ca această cercetare să inspire mai multe lucrări care încearcă să cuantifice comportamentul modelelor de învățare automată, astfel încât să aibă sens pentru oameni.

Vă recomandăm să mai citiți și:

40.000 de arme biologice ipotetice, generate în doar 6 ore de inteligența artificială

Inteligența artificială ar putea găsi noi compuși prețioși de pământuri rare

Inteligența artificială a învins opt campioni mondiali la bridge

Inteligența Artificială analizează experiențele consumatorilor de droguri