Intelligence artificielle: de l’avis du CESE, le droit de l’UE doit poser des limites sûres pour les applications à haut risque

La reconnaissance biométrique pour le suivi, la surveillance et la détection des émotions ne peut avoir sa place dans l’approche européenne de l’intelligence artificielle (IA), qui est centrée sur l’humain: telle est la position que développe le Comité économique et social européen (CESE), dans sa réponse au livre blanc de la Commission européenne sur l’intelligence artificielle, qu’il a adoptée ce 16 juillet, lors de sa session plénière.

Selon la proposition de la Commission européenne, pour que des applications d’intelligence artificielle soient considérées comme étant à haut risque, il est nécessaire tout à la fois qu’elles concernent un secteur où les risques sont élevés, comme les soins de santé, le transport, l’énergie ou certains segments du secteur public, et que leur utilisation soit elle-même hautement risquée, cette règle ne pouvant souffrir qu’un petit nombre d’exceptions, encore à définir. La Commission suggère que c’est seulement lorsque ces deux conditions sont réunies qu’il est permis de parler d’intelligence artificielle à haut risque, laquelle ressortirait alors à des réglementations et structures de gouvernance spécifiques.

Le CESE juge que cette définition risque de créer des lacunes qui pourraient s’avérer dangereuses. La publicité politique sur Facebook, argumente le Comité, nous en fournit un exemple emblématique.

La publicité est un secteur à faible risque, et l’on peut considérer que le moteur d’agrégation d’informations de Facebook constitue une utilisation qui ne présente guère de danger; or fait valoir la rapporteure de l’avis, Catelijne Muller, nous avons pu constater, lors de campagnes électorales, que la diffusion sur Facebook de fausses nouvelles ou de trucages vidéos sophistiqués est susceptible de produire toutes sortes d’effets néfastes et d’influencer le vote des électeurs, ces interférences pouvant même trouver leur origine en dehors de l’Europe.

Conviendrait-il de prévoir des exceptions à la règle susmentionnée, et quel devrait en être le nombre? Le CESE estime qu’il serait préférable de dresser la liste, non pas de ces dérogations, mais de caractéristiques communes qu’il convient de considérer comme à haut risque, quel que soit le domaine concerné.

Beaucoup d’applications, souligne Mme Muller, sont lourdes d’effets du point de vue des droits fondamentaux, en ce qu’elles influent, non seulement sur la vie privée du citoyen, mais aussi, par exemple, sur son droit à manifester ou à se syndiquer.

La face sombre de la reconnaissance biométrique

La reconnaissance faciale et biométrique constitue par excellence l’un des domaines où l’intelligence artificielle a des répercussions sur les droits fondamentaux. Son usage peut être autorisé à des fins d’identification personnelle, et elle est effectivement soumise aux prescriptions du règlement général sur la protection des données.

Toutefois, il conviendrait d’interdire le recours généralisé à la reconnaissance biométrique fondée sur l’intelligence artificielle aux fins de la surveillance ou du suivi, de l’évaluation ou de la catégorisation des comportements ou des émotions des êtres humains, d’autant, comme le souligne Mme Muller, qu’il n’existe aucune preuve scientifique établissant qu’il soit possible de discerner les sentiments d’une personne à partir de ses données biométriques.

Les applications de suivi et de traçage de la COVID-19

Le CESE met également en garde contre une montée en puissance incontrôlée des technologies de suivi et de traçage, qui, à la faveur des efforts déployés pour lutter contre l’épidémie due au coronavirus, effectuent dans notre société une percée beaucoup plus rapide et bien moins contrôlée qu’auparavant.

Les techniques et protocoles d’intelligence artificielle qui sont utilisés pour combattre la pandémie, explique encore la rapporteure du CESE, doivent être tout aussi solides, efficaces, transparents et explicables que tous ceux relevant de l’intelligence artificielle qui sont exploités dans n’importe quelle autre situation. Il convient qu’ils respectent les droits de l’homme, les principes de l’éthique et la législation. En outre, ils devraient présenter un caractère facultatif car, que nous le voulions ou non, nombre de technologies mises en application durant la crise vont devenir permanentes.

Le CESE espère que la Commission prendra sa contribution en compte, comme elle l’avait fait pour les recommandations qu’il avait émises depuis son avis novateur de 2017 sur l’intelligence artificielle, dans lequel il avait, pour la première fois, défendu une approche de l’intelligence artificielle où c’est «l’humain qui reste aux commandes».

Le contexte

Composante d’un long train de mesures relatives à l’intelligence artificielle qui est annoncé dans la communication de la Commission européenne intitulée «Façonner l’avenir numérique de l’Europe»,le livre blanc sur l’intelligence artificielle détaille:

·         d’une part, des mesures pour rationaliser la recherche, encourager la coopération entre les États membres et stimuler l’investissement en matière d’intelligence artificielle,

·         d’autre part, des lignes d’action possibles pour créer un futur cadre réglementaire de l’UE concernant l’intelligence artificielle, en mettant particulièrement l’accent sur les applications à haut risque.

En février 2020, la Commission a lancé, à propos de ce livre blanc, une consultation publique qui s’est déroulée jusqu’au 14 juin, et qui a suscité plus de 1200 réponses aux questionnaires et quelque 700 contributions écrites. Actuellement occupée à traiter toutes ces données, la Commission publiera bientôt un rapport sur le sujet.

La communication intitulée «Façonner l’avenir numérique de l’Europe» expose les actions que la Commission européenne envisage de lancer pour garantir que l’Europe soit prête pour l’ère numérique, s’agissant d’une priorités essentielles qu’Ursula von der Leyen a choisies pour sa présidence de l’exécutif européen. Elle s’appuie sur trois piliers:

·           la technologie au service des personnes,

·           une économie juste et compétitive,

·           une société ouverte, démocratique et durable.

Le CESE a émis ses conseils sur cette communication dans un avis distinct, qu’il a également adopté lors de sa session plénière de juillet et dans lequel il formule une grande recommandation:

La mutation numérique s’effectue à un rythme si effréné que nous ignorons jusqu’aux nouvelles évolutions qui vont survenir dans le mois qui vient. En conséquence, nous devons faire preuve de souplesse et de capacités d’adaptation. À cette fin, il est nécessaire qu’un dialogue permanent se déroule entre toutes les parties concernées. Parce qu’il est la voix de la société civile organisée, le CESE doit être partie prenante de la démarche, et nous demandons à la Commission d’instaurer une concertation permanente en ce sens, a expliqué Ulrich Samm, le rapporteur de l’avis du CESE.