En Europe, la reconnaissance biométrique pour le suivi, la surveillance et la détection des émotions ne peut avoir sa place dans l’intelligence artificielle axée sur le facteur humain: telle est la position que développe le CESE dans sa réponse au livre blanc de la Commission européenne sur l’intelligence artificielle, qu’il a adoptée lors de sa session plénière de juillet.

Selon la proposition de la Commission européenne, pour que des applications d’intelligence artificielle soient considérées comme étant à haut risque, il est nécessaire tout à la fois qu’elles concernent un secteur où les risques sont élevés, comme les soins de santé, le transport, l’énergie ou certains segments du secteur public, et que leur utilisation soit elle-même hautement risquée, cette règle ne pouvant souffrir qu’un petit nombre d’exceptions à définir. C’est seulement lorsque ces deux conditions sont réunies qu’il est permis de parler d’intelligence artificielle à haut risque, laquelle ressortirait alors à des réglementations et structures de gouvernance spécifiques.

Le CESE juge que cette définition risque de créer des lacunes qui pourraient s’avérer dangereuses.

«Prenez l’exemple de la publicité politique sur Facebook», affirme Catelijne Muller, rapporteure de l’avis. «La publicité est un secteur à faible risque, et l’on peut considérer que le moteur d’agrégation d’informations de Facebook constitue une utilisation qui ne présente guère de danger. Or, nous avons pu constater, lors de campagnes électorales, que la diffusion sur Facebook de fausses nouvelles ou de trucages vidéos sophistiqués créés à l’aide de l’intelligence artificielle est susceptible de produire toutes sortes d’effets néfastes et d’influencer le vote des électeurs, ces interférences pouvant même trouver leur origine en dehors de l’Europe.»

Le CESE estime qu’il serait préférable de dresser la liste de caractéristiques communes qu’il convient de considérer comme à haut risque, quel que soit le domaine concerné.

Le CESE insiste sur le fait qu’il conviendrait par ailleurs d’interdire le recours à la reconnaissance biométrique fondée sur l’intelligence artificielle aux fins de la surveillance ou du suivi, de l’évaluation ou de la catégorisation des comportements ou des émotions des êtres humains, d’autant, comme le souligne Mme Muller, qu’il n’existe aucune preuve scientifique établissant qu’il soit possible de discerner les sentiments d’une personne à partir de ses données biométriques.

Le CESE met en outre en garde contre une montée en puissance incontrôlée des technologies de suivi et de traçage, qui, à la faveur des efforts déployés pour lutter contre l’épidémie due au coronavirus, effectuent une percée dans notre société.

«Les techniques et protocoles d’intelligence artificielle qui sont utilisés pour combattre la pandémie doivent être tout aussi solides, efficaces, transparents et explicables que tous ceux relevant de l’intelligence artificielle qui sont exploités dans n’importe quelle autre situation», affirme Mme Muller. «Il convient qu’ils respectent les droits de l’homme, les principes de l’éthique et la législation. En outre, ils devraient présenter un caractère facultatif car, que nous le voulions ou non, nombre de technologies mises en application durant la crise vont devenir permanentes.» (dm)