Le CESE propose d’instaurer une certification européenne pour les produits de l’IA dignes de confiance

Le CESE considère que l’UE devrait mettre en place une certification pour l’intelligence artificielle digne de confiance; un organisme indépendant serait chargé de délivrer cette certification après avoir vérifié que les produits satisfont à un certain nombre d’exigences essentielles, telles que la résilience, la sécurité et l’absence de préjudice, de discrimination ou de biais. Le CESE a avancé cette proposition dans deux de ses récents avis portant sur l’évaluation des lignes directrices de la Commission européenne en matière d’éthique relative à l’IA.

Le CESE estime que cette certification contribuerait largement à renforcer la confiance du public dans l’intelligence artificielle en Europe. Si d’aucuns mettent l’accent sur le fait que les algorithmes doivent pouvoir être expliqués si l’on veut que le public ait confiance dans les applications de l’IA, force est de constater que les systèmes d’IA et l’apprentissage automatique sont tellement complexes que même les développeurs ne savent pas vraiment quel sera le résultat et doivent mettre au point des outils de test pour connaître les limites du système.

Le CESE propose de confier ces tests à un organisme indépendant – une agence, un consortium ou toute autre entité à définir – qui évaluera les systèmes sous l’angle du préjudice, de la discrimination, des biais, de la résilience, de la robustesse et surtout de la sécurité. Les entreprises pourraient utiliser la certification pour prouver qu’elles développent des systèmes d’IA sûrs, fiables et conformes aux valeurs et aux normes européennes.

Selon Franca Salis-Madinier, rapporteure de l’avis général du CESE sur la communication de la Commission européenne, «les produits de l’IA peuvent être comparés aux médicaments. Ceux-ci peuvent être bénéfiques, mais aussi dangereux, et ils doivent recevoir une certification avant de pouvoir être commercialisés. Les fabricants doivent prouver qu’ils ont réalisé suffisamment d’essais et de tests pour garantir que leur produit est bénéfique. La même approche devrait être adoptée pour les machines à IA».

Le CESE insiste par ailleurs sur la nécessité de définir des règles claires en matière de responsabilité. «La responsabilité doit toujours être liée à une personne, qu’elle soit physique ou morale. Les machines ne peuvent être tenues pour responsables en cas de défaillance», déclare Ulrich Samm, rapporteur de l’avis du CESE sur les incidences des lignes directrices relatives à l’IA sur le secteur automobile. Pour le CESE, l’assurabilité des systèmes d’IA est aussi une question qui doit être examinée en priorité. (dm)