In twee verslagen over ontwerpwetgeving van de EU betreffende artificiële intelligentie (AI) pleit het EESC voor een algeheel verbod op sociale scoring en voor een klachten- en verhaalmechanisme voor mensen die schade hebben geleden door een AI-systeem.

Tijdens de septemberzitting verwelkomde het EESC het voorstel voor een wet op de artificiële intelligentie (AIA) en een gecoördineerd plan inzake AI.

Volgens het EESC stelt de nieuwe wetgeving gezondheid, veiligheid en grondrechten echt centraal en kan zij wereldwijd van belang zijn doordat zij een reeks vereisten vaststelt waaraan ontwikkelaars zowel binnen als buiten Europa zullen moeten voldoen als zij hun producten in de EU willen verkopen.

Naar het oordeel van het EESC bevatten de voorstellen een aantal zwakke punten, onder meer op het gebied van “sociale scoring”. Het Comité wijst op het gevaar dat deze praktijk in Europa terrein wint, net als in China, waar de overheid mensen zelfs de toegang tot openbare diensten kan ontzeggen.

De ontwerp-AIA bevat weliswaar een verbod op social scoring door overheidsinstanties in Europa, maar het EESC zou graag zien dat dit wordt uitgebreid tot particuliere en semi-particuliere organisaties, zodat bijvoorbeeld niet mag worden vastgesteld of iemand in aanmerking komt voor een lening of een hypotheek.

Het EESC wijst ook op de gevaren van het op een lijst plaatsen van AI met een “hoog risico” en waarschuwt dat deze aanpak heel wat AI-praktijken die nu nog zwaar onder vuur liggen, kan normaliseren en gangbaar maken. Biometrische herkenning, waaronder herkenning van emoties of affecten, waarbij iemands gelaatsuitdrukkingen, stemgeluid, lichaamshouding en gebaren worden geanalyseerd om toekomstig gedrag te voorspellen, leugens op te sporen en zelfs om na te gaan of iemand waarschijnlijk succesvol zal zijn in een baan, zou worden toegestaan. Ook het beoordelen en zelfs ontslaan van werknemers op basis van AI, of het beoordelen van studenten in examens zou mogelijk worden.

Bovendien kunnen de voorgestelde voorschriften voor AI met een hoog risico niet altijd de nadelen beperken die deze praktijken met zich meebrengen voor de gezondheid, de veiligheid en de grondrechten. Daarom moet er een klachten- en verhaalmechanisme worden ingevoerd dat mensen die schade hebben geleden door AI-systemen het recht geeft om beslissingen die uitsluitend door een algoritme zijn genomen, aan te vechten.

Meer in het algemeen gaat de AIA volgens het EESC uit van de veronderstelling dat, wanneer aan de eisen inzake gemiddelde en grote risico’s van AI is voldaan, AI de menselijke besluitvorming grotendeels kan vervangen.

“Het EESC is altijd voorstander geweest van een “human-in-command”-benadering van AI, omdat niet alle beslissingen een kwestie zijn van enen en nullen”, aldus Catelijne Muller, rapporteur voor het EESC-advies over de AIA. "Vele hebben een morele component, ernstige juridische implicaties en grote maatschappelijke gevolgen, bijvoorbeeld voor de rechtshandhaving en de rechterlijke macht, sociale diensten, huisvesting, financiële diensten, onderwijs en arbeidsregelgeving. Zijn we daadwerkelijk bereid toe te staan dat AI de menselijke besluitvorming vervangt, zelfs in kritieke processen zoals rechtshandhaving en de rechterlijke macht?” (dm)