Kunstig intelligens: EU-lovgivningen bør sætte grænser for højrisikoapplikationer

Biometrisk genkendelse til sporing, overvågning og afkodning af følelser har ingen plads i en europæisk menneskecentreret kunstig intelligens (AI), udtaler EØSU i sit svar til Kommissionens Hvidbog om AI, der blev vedtaget på EØSU's plenarforsamling i juli måned.

Kommissionen har foreslået, at en AI-applikation skal vurderes som værende meget risikofyldt, hvis den involverer såvel en højrisikosektor (sundhedsvæsnet, transport, energi og dele af den offentlige sektor) og højrisikobrug med enkelte undtagelser, der stadig skal defineres. Først når disse to betingelser er opfyldt, kan man tale om højrisiko AI, som vil falde ind under specifikke regler og forvaltningsstrukturer.

EØSU mener, at denne definition risikerer at skabe potentielt farlige smuthuller.

"Tag for eksempel Facebooks politiske reklame", siger ordføreren for udtalelsen, Catelijne Muller. "Reklame er en lavrisikosektor, og Facebooks aggregeringsfunktion for nyheder kan opfattes som en lavrisikoanvendelse. Ikke desto mindre har vi under valgkampagner været vidne til, at udbredelsen af falske nyheder og deepfakes, der er produceret ved hjælp af AI, kan have mange negative følgevirkninger og afgøre, hvordan folk stemmer, og påvirkningen kan komme fra lande uden for Europa."

EØSU er af den opfattelse, at det ville være bedre at opstille en liste over fælles kendetegn, der bør betragtes som meget risikofyldte, uanset hvilken sektor der er tale om.

EØSU understreger, at AI-baseret biometrisk genkendelse til at overvåge eller spore, evaluere eller kategorisere menneskelig adfærd eller følelser også bør være forbudt. Så meget desto mere, eftersom der ikke er nogen videnskabelig dokumentation for, at en persons følelser kan genkendes ud fra biometri, understreger Catelijne Muller.

Samtidig advarer EØSU mod en tiltagende ukontrolleret anvendelse af sporingsteknik i samfundet i et forsøg på at bekæmpe covid-19-udbruddet.

"AI-teknikker og strategier for at bekæmpe pandemien bør være lige så robuste, effektive, gennemsigtige og forklarlige som enhver anden AI-teknik i en given situation", udtaler Catelijne Muller "De skal respektere menneskerettighederne, etiske principper og lovgivningen. De bør også være frivillige, for uanset om vi bryder os om det eller ej, så er mange af de teknikker, der blev indført under krisen, kommet for at blive". (dm)