Metoda prin care deciziile luate de algoritmi ar putea fi mai transparente

03 01. 2020, 18:00

Înteligenţa artificială face parte din ce în ce mai mult din vieţile noastre, fie că o vrem sau nu, iar o înţelegere mai bună, atât la nivelul specialiştilor, cât şi a publicului larg a modului în care aceasta funcţionează, se poate dovedi benefică. Un grup de cercetători propune un nou cadru de operare care ar putea explica raţionamentul pe care algoritmii îl folosesc pentru a lua o decizie, notează Techxplore.

„Un lucru care ne diferenţiază cadrul este acela că facem din aceste elemente de interpretare parte a procesului de instruire AI”, explică Tianfu Wu, autor al studiului şi asistent universitar al catedrei de Inginerie a Calculatoarelor din cadrul Universităţii Norh Carolina.

„De exemplu, în cadrul nostru, când un program AI învaţă cum să identifice obiectele în imagini, el învaţă să localizeze obiectul ţintă în cadrul unei imagini şi să analizeze detaliile despre acele zone din imagine care îndeplinesc criteriile obiectului ţintă. Aceste informaţii sunt apoi prezentate alături de rezultat”, a mai adăugat acesta.

În cadrul unui experiemnt care să demonstreze fezabilitatea cadrului propus, oamenii de ştiinţă au inserat cadrul propus în codul unui algoritm care identifică obiecte:  R-CNN AI, care folosea două seturi de date de referinţă. Cercetătorii au aflat că integrarea cadrului lor de operare nu a afectat performanţa algoritmului în termeni de acurateţe sau timp necesar procesării informaţiilor. „Credem că acesta este un pas semnificativ către realizarea unor sisteme de inteligenţă artificială pe deplin transparente”, explică dr. Wu. 

Citeşte şi:

Papa Francisc atrage atenţia asupra pericolelor pe care inteligenţa artificială le ridică

Google Chrome va folosi inteligenţa artificială pentru a analiza imaginile

Un arheolog foloseşte inteligenţa artificială pentru a reconstrui textele mesopotamiene

Un nou program de inteligenţă artificială scrie fake news la fel ca oamenii