European Economic
and Social Committee
Artificiell intelligens – EU-lagstiftningen bör sätta säkra gränser för högrisktillämpningar
Biometrisk fjärridentifiering för att spåra, övervaka och detektera känslor hör inte hemma i EU:s människocentrerade artificiella intelligens (AI), menar EESK i sitt svar på kommissionens Vitbok om Artificiell intelligens, som antogs vid EESK:s plenarsession i juli.
Kommissionen har föreslagit att en AI-tillämpning bör anses vara riskfylld om den inbegriper både en högrisksektor (hälso- och sjukvård, transport, energi och delar av den offentliga sektorn) och högriskanvändning, med ett fåtal undantag att fastställa. Endast om dessa två förhållanden uppfylls kan vi tala om högrisk-AI, som skulle omfattas av specifika regler och förvaltningsstrukturer.
EESK anser att man med denna definition riskerar att skapa kryphål som kan vara farliga.
”Ta till exempel Facebooks politiska reklam”, säger yttrandets föredragande Catelijne Muller. ”Marknadsföring är en lågrisksektor och Facebooks aggregeringsfunktion för nyheter kan ses som en lågriskanvändning. Dock har vi under valkampanjerna sett att spridningen över Facebook av falska nyheter och deepfakes genererade med hjälp av AI kan ha många negativa effekter och påverka hur människor röstar, och inflytandet kan ha sitt ursprung även utanför Europa.”
EESK anser att det vore bättre att upprätta en förteckning över gemensamma egenskaper som ska betraktas som riskfyllda, oavsett sektor.
EESK betonar att AI-baserad biometrisk identifiering för övervakning eller för att spåra, bedöma eller kategorisera människors beteende eller känslor också bör vara förbjudet. Särskilt eftersom det inte finns några vetenskapliga bevis på att vi kan utröna personers känslor utifrån deras biometrik, betonar Catelijne Muller.
EESK varnar även för en tilltagande okontrollerad användning av spårningsteknik i samhället i försök att bekämpa covid-19-utbrottet.
”AI-teknik och strategier för att bekämpa pandemin bör vara precis lika robusta, effektiva, transparenta och förklarbara som all annan AI-teknik i alla andra situationer”, menar Catelijne Muller. ”De ska upprätthålla mänskliga rättigheter och etiska principer och följa lagstiftningen. De bör också vara frivilliga, eftersom mycket av den teknik som införts under krisen kommer att bli permanent, oavsett vad vi tycker om det.” (dm)