European Economic
and Social Committee
Umjetna inteligencija u Europi: ne mogu se sve odluke svesti na jedinice i nule
U dvama izvješćima o nacrtu zakonodavstva EU-a o umjetnoj inteligenciji EGSO poziva na sveobuhvatnu zabranu vrednovanja građana i na uvođenje mehanizma za pritužbe i pravnu zaštitu za osobe koje su pretrpjele štetu zbog sustava umjetne inteligencije.
EGSO je na rujanskom plenarnom zasjedanju pozdravio predloženi Akt o umjetnoj inteligenciji (AIA) i Koordinirani plan za umjetnu inteligenciju.
EGSO smatra da su zdravlje, sigurnost i temeljna prava zaista primarni interesi tog novog zakonodavstva, koje ima globalni odjek jer sadržava niz zahtjeva koje će programeri unutar i izvan Europe morati poštovati budu li svoje proizvode željeli prodavati u EU-u.
Po mišljenju EGSO-a, prijedlozi imaju i nekoliko slabosti, među ostalim i u području vrednovanja građana. Odbor ukazuje na opasnost od toga da ta praksa zaživi u Europi, kao što je već slučaj u Kini, gdje vlada pojedincima čak može uskratiti pristup javnim uslugama.
Iako prijedlog akta o umjetnoj inteligenciji sadržava zabranu vrednovanja građana od strane javnih vlasti u Europi, EGSO smatra da bi tu zabranu trebalo proširiti i na privatne i poluprivatne organizacije kako bi se spriječila primjena te prakse za, primjerice, utvrđivanje kreditne ili hipotekarne sposobnosti.
ESGO također ukazuje na opasnosti od popisivanja visokorizične umjetne inteligencije i upozorava na to da izrada takvog popisa može dovesti do toga da popriličan broj praksi iz područja umjetne inteligencije koje još uvijek nailaze na veliku kritiku bude proglašen normalnim i pogodnim za široku uporabu. Time bi bilo dopušteno biometrijsko prepoznavanje emocija ili afekata, odnosno analiziranje izraza lica, glasa, tjelesnog držanja i gesta određene osobe, kako bi se predvidjelo njezino buduće ponašanje, otkrilo lažne izjave i čak utvrdilo ima li ona predispozicije da bude uspješna na poslu. A bilo bi dopušteno i procjenjivanje, vrednovanja pa čak i otpuštanje radnika i radnica na temelju umjetne inteligencije, baš kao i ocjenjivanje na ispitima.
Povrh toga, predloženim zahtjevima za visokorizičnu umjetnu inteligenciju ne može se uvijek ublažiti šteta koju te prakse mogu potencijalno nanijeti zdravlju, sigurnosti i temeljnim pravima. Stoga postoji potreba za uvođenjem mehanizma za pritužbe i pravnu zaštitu kako bi osobe koje pretrpe štetu zbog sustava umjetne inteligencije imale pravo na osporavanje odluka koje donesu isključivo algoritmi.
Općenitije govoreći, EGSO smatra da Akt o umjetnoj inteligenciji polazi od pretpostavke da, nakon što su zahtjevi za srednjorizičnu i visokorizičnu umjetnu inteligenciju ispunjeni, umjetna inteligencija može uvelike zamijeniti ljudsko odlučivanje.
„EGSO oduvijek zagovara pristup umjetnoj inteligenciji u skladu s kojim glavnu ulogu ima čovjek jer se ne mogu sve odluke svesti na jedinice i nule“, kaže Cateljine Muller, izvjestiteljica za mišljenje EGSO-a o Aktu o umjetnoj inteligenciji. „Mnoge odluke imaju moralnu komponentu, ozbiljne pravne posljedice i velike društvene učinke, na primjer na provedbu zakona i pravosuđe, socijalne usluge, stanovanje, financijske usluge, obrazovanje i propise o radu. Jesmo li doista spremni dopustiti umjetnoj inteligenciji da zamijeni ljudsko odlučivanje, čak i u ključnim postupcima kao što su postupci u području kaznenog progona i pravosuđa?“ (dm)