Umetna inteligenca v Evropi: vseh odločitev ni mogoče zreducirati na enke in ničle

EESO v dveh mnenjih o zakonodajnih predlogih EU o umetni inteligenci poziva k popolni prepovedi družbenega točkovanja ter k mehanizmu za pritožbe in odškodnine za osebe, ki so utrpele škodo zaradi umetnointeligenčnega sistema.

EESO je na septembrskem plenarnem zasedanju pozdravil predlagani akt o umetni inteligenci in usklajeni načrt za umetno inteligenco.

Po njegovem mnenju nova zakonodaja resnično v središče postavlja zdravje, varnost in temeljne pravice ter ima tudi svetovno razsežnost, saj določa vrsto zahtev, ki jih morajo izpolnjevati razvijalci v Evropi in zunaj nje, če želijo svoje proizvode tržiti v EU.

EESO meni, da predlogi vsebujejo tudi nekatere pomanjkljivosti, med drugim v zvezi z družbenim točkovanjem. Pri tem opozarja na nevarnost, da bi se ta praksa uveljavila v Evropi podobno kot na Kitajskem, kjer vlada lahko na tej podlagi državljanom celo prepreči dostop do javnih storitev.

Predlog akta o umetni inteligenci sicer vsebuje prepoved uporabe družbenega točkovanja v javnih organih v Evropi, vendar pa EESO želi, da se prepoved razširi na zasebne in poldržavne organizacije, da bi se na primer izključila uporaba družbenega točkovanja pri ugotavljanju upravičenosti do posojila ali hipotekarnega kredita.

EESO opozarja tudi na nevarnost uporabe pristopa k umetni inteligenci velikega tveganja, ki temelji na seznamu, saj tak pristop precej praks umetne inteligence, ki so še vedno tarča ostrih kritik, označuje za običajne in primerne za široko uporabo. Tako bi bilo dovoljeno biometrično prepoznavanje, vključno s prepoznavanjem čustev ali prepoznavanjem afektov, ko se analizirajo mimika, barva glasu, drža in geste z namenom napovedovanja obnašanja, odkrivanja laži in celo ugotavljanja, ali je nekdo primeren za delovno mesto. Dovoljeno bi bilo tudi ocenjevanje, točkovanje in celo odpuščanje delavcev na podlagi umetne inteligence ali ocenjevanje študentov na izpitih.

Poleg tega ni nujno, da bo škodo za zdravje, varnost in temeljne pravice vedno mogoče zmanjšati z izpolnitvijo navedenih zahtev za umetno inteligenco velikega tveganja. Zato je treba uvesti mehanizem za pritožbe in odškodnine, ki bo osebam, ki so utrpele škodo zaradi umetnointeligenčnih sistemov, zagotovil pravico, da izpodbijajo odločitve, ki jih sprejme izključno algoritem.

EESO na splošno meni, da akt o umetni inteligenci temelji na predpostavki, da lahko po izpolnitvi zahtev za umetno inteligenco srednjega in velikega tveganja umetna inteligenca večinoma nadomesti človeško odločanje.

„V EESO se že od nekdaj zavzemamo za pristop k umetni inteligenci, pri katerem je nadzor v rokah človeka, ker vseh odločitev ni mogoče zreducirati na enke in ničle,“ pravi Catelijne Muller, poročevalka za mnenje EESO o aktu o umetni inteligenci. „Mnoge imajo moralno komponento, resne pravne posledice in močan družbeni učinek, na primer na področjih sodstva, kazenskega pregona, socialnih storitev, zdravstva, stanovanj, finančnih storitev, odnosov med delodajalci in delojemalci ter izobraževanja. Ali smo resnično pripravljeni dovoliti, da bo umetna inteligenca nadomestila človeško odločanje, tudi v kritičnih procesih, kot sta kazenski pregon in sodstvo?“ (dm)