Inteligența artificială ar putea adânci discriminarea în societatea australiană dacă nu este reglementată corespunzător, a avertizat comisarul pentru drepturile omului, Lorraine Finlay. Declarațiile vin în contextul unor dezbateri interne în cadrul Partidului Laburist privind modul în care guvernul ar trebui să răspundă noilor provocări tehnologice.
Potrivit lui Finlay, urmărirea exclusivă a câștigurilor de productivitate din AI nu trebuie să vină în detrimentul echității. Ea a atras atenția asupra lipsei de transparență privind seturile de date folosite pentru antrenarea modelelor, ceea ce face dificilă identificarea prejudecăților, potrivit The Guardian.
„Atunci când combinăm prejudecățile algoritmice cu cele de automatizare, adică tendința oamenilor de a se baza excesiv pe deciziile mașinilor, riscăm să creăm o formă de discriminare atât de bine înrădăcinată încât nu vom fi conștienți de ea”, a explicat Finlay.
Comisia pentru Drepturile Omului solicită adoptarea unei legi dedicate AI, care să completeze legislația existentă, precum Legea privind confidențialitatea, și să prevadă audituri de prejudecată și supraveghere umană.
La rândul ei, senatoarea laburistă Michelle Ananda-Rajah, fost medic și cercetător în AI, a cerut ca datele australiene să fie puse la dispoziția companiilor de tehnologie pentru a preveni perpetuarea prejudecăților străine. Ea se opune însă unei legi dedicate AI, dar sprijină remunerarea creatorilor de conținut.
„Dacă nu ne deschidem propriile date, riscăm să închiriem la nesfârșit modele AI de la giganții tehnologici străini, fără supraveghere sau transparență”, a avertizat Ananda-Rajah, oferind exemplul screeningului pentru cancerul de piele, unde algoritmii pot fi părtinitori.
Judith Bishop, expertă în AI la Universitatea La Trobe, consideră că utilizarea mai multor date australiene ar putea face modelele mai relevante local, dar avertizează că aceasta este doar o parte a soluției.
„Trebuie să fim atenți ca sisteme dezvoltate în alte contexte să fie cu adevărat aplicabile populației australiene”, a spus ea.
Și comisarul eSafety, Julie Inman Grant, și-a exprimat îngrijorarea față de opacitatea dezvoltării AI. Ea a cerut ca firmele tehnologice să fie transparente cu privire la datele de instruire și să utilizeze informații diverse și reprezentative.
„Există riscul ca anumite perspective și voci să fie marginalizate în rezultatele generate”, a avertizat Inman Grant.
Inteligența Artificială ar putea detecta cancerul laringian doar cu ajutorul vocii pacienților
Dependența de ChatGPT: Când inteligența artificială înlocuiește vocea proprie
Inteligența Artificială ar putea face mai mult rău decât bine în medicină