Biometrijskom prepoznavanju za praćenje, nadzor i otrkivanje emocija nema mjesta u antropocentričnom pristupu umjetnoj inteligenciji u Europi, rekao je EGSO u svom odgovoru na Bijelu knjigu o umjetnoj inteligenciji Europske komisije. Odgovor EGSO-a usvojen je na plenarnom zasjedanju u srpnju.

Europska komisija predložila je da se primjena umjetne inteligencije smatra visokorizičnom ako uključuje i sektor visokog rizika (zdravstvo, promet, energetiku i dijelove javnog sektora) i upotrebu visokog rizika, uz nekoliko iznimki koje tek treba definirati. Samo ako su ta dva uvjeta ispunjena, može se govoriti o visokorizičnoj umjetnoj inteligenciji, koja će podlijegati posebnoj regulaciji i strukturama upravljanja.

EGSO smatra da bi ta definicija mogla dovesti do opasnih pravnih nedostataka.

„Uzmimo, na primjer, političko oglašavanje na Facebooku”, kaže izvjestiteljica za mišljenje Catelijne Muller. „Oglašavanje je niskorizičan sektor, a funkcija objedinjavanja vijesti na Facebooku može se smatrati niskorizičnom uporabom. Međutim, tijekom predizbornih kampanja vidjeli smo da širenje lažnih vijesti na Facebooku i lažnih videozapisa koji se generiraju uz pomoć umjetne inteligencije može imati brojne negativne učinke i utjecati na to kako ljudi glasaju, a u to mogu biti upleteni čak i subjekti izvan Europe.”

EGSO smatra da bi bilo bolje sastaviti popis zajedničkih obilježja koja treba smatrati visokorizičnima bez obzira na sektor.

Osim toga, EGSO insistira na tome da treba zabraniti biometrijsko prepoznavanje na osnovi umjetne inteligencije za nadzor ili za praćenje, ocjenjivanje i kategoriziranje ljudskog ponašanja i emocija. Tim više što ne postoje znanstveni dokazi da se osjećaji neke osobe mogu odrediti na temelju biometrijskih podataka, naglasila je izvjestiteljica Muller.

EGSO uz to upozorava na nekontrolirani rast upotrebe tehnologija za praćenje i određivanje položaja, koje se probijaju u naša društva pod okriljem borbe protiv koronavirusa.

„Sve tehnike i pristupi umjetne inteligencije za borbu protiv pandemije trebali bi biti jednako snažni, djelotvorni, transparentni i objašnjivi kao i svaka druga tehnika umjetne inteligencije u bilo kojoj drugoj situaciji”, rekla je izvjestiteljica Muller. „Njima treba poštovati ljudska prava, etička načela i zakonodavstvo. Osim toga, moraju biti dobrovoljni jer će, htjeli mi to ili ne, mnoge tehnike uvedene tijekom krize postati trajne.” (dm)