L’édition 2025 de la Journée européenne du consommateur organisée par le CESE a mis en lumière la nécessité urgente de protéger les marchés de l’UE contre un tsunami d’importations bon marché expédiées par des plateformes de commerce électronique de pays tiers telles que Temu et Shein. Les intervenants ont averti que ces importations menaçaient d’anéantir les entreprises européennes qui respectent les règles, de nuire aux finances publiques et de porter atteinte à la sécurité des produits, aux normes du travail et aux règles environnementales.

L’édition 2025 de la Journée européenne du consommateur organisée par le CESE a mis en lumière la nécessité urgente de protéger les marchés de l’UE contre un tsunami d’importations bon marché expédiées par des plateformes de commerce électronique de pays tiers telles que Temu et Shein. Les intervenants ont averti que ces importations menaçaient d’anéantir les entreprises européennes qui respectent les règles, de nuire aux finances publiques et de porter atteinte à la sécurité des produits, aux normes du travail et aux règles environnementales.

Pas moins de 12 millions de colis d’une valeur inférieure à 150 EUR sont expédiés chaque jour aux consommateurs européens par des plateformes de commerce électronique de pays tiers. Ces chiffres continuent d’augmenter, tandis que les services de douanes et les autorités de surveillance du marché ont de plus en plus de difficultés à endiguer à ce phénomène.

Rien qu’en 2024, 4,6 milliards de colis de ce type sont entrés dans l’UE, un chiffre qui, selon les estimations, atteindra six milliards en 2025, dont plus de 90 % en provenance de Chine. Ces préoccupations ont été mises en évidence lors de l’édition 2025 de la Journée européenne du consommateur, organisée par le CESE le 1er décembre avec pour thème central «L’Europe à vendre? Comment les marchés mondiaux changent notre société — et ce qu’il faut faire dès maintenant».

Cette manifestation annuelle a rassemblé des institutions de l’UE, des représentants d’autorités nationales et des organisations de la société civile, qui se sont exprimés ensemble en faveur de mesures immédiates à court et à moyen terme pour mettre fin aux importations illégales et rétablir une concurrence loyale, soulignant que cet enjeu représentait un défi européen commun.

Lors de son allocution d’ouverture de la manifestation, Séamus Boland, président du CESE, a émis un avertissement: «Cette année, nous avons constaté une hausse exponentielle du nombre de marchandises à bas prix expédiées depuis l’extérieur de l’UE. Nous demandons que des mesures urgentes soient prises, notamment une réforme douanière de l’UE et une application plus rigoureuse des règles en place.»

Le commissaire européen Michael McGrath a fait part de la détermination de la Commission à agir en ce sens: «Nous disposons effectivement d’un cadre légal solide qui exige une mise en conformité totale, et nous poursuivons une ambition claire reposant sur des mesures qui seront prises prochainement afin de renforcer les protections existantes mais aussi de veiller à l’application des futures règles.» Il a annoncé des initiatives majeures prévues pour 2026, notamment une refonte du règlement sur la coopération en matière de protection des consommateurs et un nouveau règlement sur l’équité numérique.

Anna Cavazzini, députée au Parlement européen, a déclaré que ce dernier attendait de la Commission des mesures plus vigoureuses, faisant écho à sa dernière résolution appelant à interdire l’accès au marché, à l’échelle de l’Union, de produits qui enfreignent systématiquement et gravement le droit de l’Union.

Les organisations de consommateurs ont présenté des preuves alarmantes de défaillances en matière de sécurité des produits: jusqu’à 96 % des articles testés provenant de grandes plateformes ont été jugés non conformes ou dangereux. Outre les risques en matière de sécurité, des preuves fournies par les États membres témoignent des vastes dommages économiques causés par les plateformes de pays tiers.

Simo Hiilamo, de la Fédération finlandaise du commerce, intervenu en qualité d’orateur principal, a présenté l’étude intitulée The impacts of non-EU distance selling on businesses and society («Les effets de la vente à distance depuis des pays tiers sur les entreprises et la société»), laquelle révèle des pertes colossales pour l’économie finlandaise.  Le pays aurait en effet pu générer trois fois plus de recettes fiscales si seulement 30 % des achats en ligne avaient eu lieu auprès d’entreprises nationales.

Cette perte de recettes fiscales nuit aux soins de santé, à l’éducation et aux infrastructures publiques, ce qui affaiblit directement le modèle social européen.

Pour clôturer la manifestation, Émilie Prouzet, membre du CESE, a affirmé: «L’Europe n’est pas à vendre. Nous avons les faits, les outils et la mobilisation nécessaires. À nous maintenant de mettre au point une solution.» (ll)

Par le groupe des travailleurs du CESE

Jusqu’à il y a quelques années, les perspectives en matière de droits numériques dans l’Union européenne permettaient de nourrir un certain optimisme. Contribuant à sortir de la jungle que représente la collecte de données, les règlements sur les services numériques et les marchés numériques, ainsi que la réglementation complémentaire sur l’intelligence artificielle (IA) et la protection des données ont établi des normes de premier plan au niveau mondial en faveur d’une approche du développement technologique «centrée sur l’humain», et ce, en dépit de leurs lacunes, en particulier en ce qui concerne l’application de la législation. 

Par le groupe des travailleurs du CESE

Jusqu’à il y a quelques années, les perspectives en matière de droits numériques dans l’Union européenne permettaient de nourrir un certain optimisme. Contribuant à sortir de la jungle que représente la collecte de données, les règlements sur les services numériques et les marchés numériques, ainsi que la réglementation complémentaire sur l’intelligence artificielle (IA) et la protection des données ont établi des normes de premier plan au niveau mondial en faveur d’une approche du développement technologique «centrée sur l’humain», et ce, en dépit de leurs lacunes, en particulier en ce qui concerne l’application de la législation.

La réglementation est cependant rapidement devenue la source de toutes les vicissitudes, réelles ou imaginaires, de l’Union. Ainsi, une lecture erronée et biaisée des rapports Letta et Draghi, d’une part, et une forte dose de pensée magique, d’autre part, ont concouru à l’écart de productivité de l’Europe et à son manque de licornes en raison de la surréglementation. Sans compter que, dans des domaines connexes tels que celui de l’IA, le règlement pertinent n’était, à l’époque, même pas en vigueur.

À présent, dans l’espoir que sa démarche permette de créer, comme par magie, un générateur énergivore et hydrophage de galimatias de classe mondiale, doté d’une certaine précision statistique (à savoir, de grands modèles d’IA laissant une empreinte environnementale énorme et consommant de grandes quantités d’eau pour refroidir les centres de données), la Commission a présenté deux propositions omnibus qui sapent les fondements de la protection des données à caractère personnel — énoncés dans le RGPD et la directive relative à la vie privée et aux communications électroniques —, en permettant une utilisation plus large des données pour entraîner l’IA et en démantelant les protections et garanties prévues par le règlement sur l’intelligence artificielle.

Étant donné que l’émergence de licornes technologiques semble, à tout le moins, ne pas présenter de corrélation avec la réglementation pertinente, et sans considération des hypothèses idéologiques fortes qui existent en ce qui concerne les prétendus maux de la protection des consommateurs, la société civile doit réfléchir aux dangers du «bilan de qualité numérique» avant de devenir une ferme de données pour les entreprises américaines. Copilot, qui propose avec insistance de résumer ce texte, semble être d’accord. 

Le Comité économique et social européen (CESE), soulignant que des conditions de travail décentes sont indispensables pour protéger l’indépendance du journalisme et garantir que le grand public ait accès à une information fiable et pluraliste, a appelé de ses vœux des mesures urgentes pour renforcer, dans toute l’Europe, les droits des journalistes et des professionnels des médias en matière de travail. 

Le Comité économique et social européen (CESE), soulignant que des conditions de travail décentes sont indispensables pour protéger l’indépendance du journalisme et garantir que le grand public ait accès à une information fiable et pluraliste, a appelé de ses vœux des mesures urgentes pour renforcer, dans toute l’Europe, les droits des journalistes et des professionnels des médias en matière de travail.

Dans un avis s’appuyant sur des recherches approfondies et des contributions d’acteurs concernés, adopté lors de sa session plénière de décembre, le CESE a recommandé d’améliorer les conditions de travail des journalistes, de soutenir le pluralisme des médias et de protéger les journalistes des menaces d’ordre économique comme physique. Depuis lors, l’avis a été salué par la Fédération européenne des journalistes (EFJ).

«De nos jours, les journalistes sont contraints de travailler dans un environnement toujours plus hostile: mensonges et rumeurs — additionnés à la précarité de l’emploi et à de piètres conditions de travail des travailleurs de ce secteur — nuisent non seulement à la qualité de l’information, mais à la liberté elle-même», affirme José Antonio Moreno Díaz, rapporteur de l’avis, dans un message vidéo.

Christian Moos, corapporteur de l’avis, s’est exprimé dans le même message pour préciser que «l’Europe fait face à un choix critique: prendre des mesures décisives pour protéger les journalistes ou risquer de voir s’affaiblir l’un des piliers de notre démocratie».

Le CESE demande que soit pleinement mis en œuvre le règlement européen sur la liberté des médias et invite la Commission européenne à s’assurer qu’il soit respecté par les États membres. Il y a lieu d’apporter aux médias un soutien indépendant, notamment par des mesures de réduction de la TVA, pour lutter contre la prédominance des grandes plateformes en ligne et sauvegarder le secteur européen des médias.

Le Comité insiste sur l’importance de promouvoir le dialogue social et la négociation collective pour l’ensemble des journalistes, y compris les indépendants, et demande aux gouvernements d’appliquer les directives relatives aux salaires minimaux et les lignes directrices relatives aux conventions collectives. Il réclame par ailleurs, outre des investissements accrus en faveur d’emplois de qualité dans le secteur des médias, des mesures de lutte contre le faux travail indépendant et la pleine application des directives européennes concernant la santé et la sécurité au travail.

Les journalistes sont exposés à l’insécurité, au stress, à l’épuisement professionnel et au harcèlement, les travailleurs indépendants étant particulièrement vulnérables à ces facteurs, en raison du recul des conventions collectives et d’une protection sociale inadéquate. Le CESE plaide en faveur d’un dialogue plus approfondi avec les organisations de journalistes afin de mettre en place des structures de protection de la sécurité et du bien-être, et se déclare favorable à l’adoption d’une directive sur les risques psychosociaux sur le lieu de travail.

Mettant en relief la menace que représente la désinformation et les enjeux qui se posent en matière d’équilibre entre vie professionnelle et vie privée, le Comité estime que la législation de l’UE en matière d’IA devrait faire l’objet d’un suivi pour garantir un juste équilibre entre l’innovation et la protection des journalistes, et qu’il convient d’encourager la maîtrise de l’IA. Le Comité se déclare préoccupé par la concentration de la propriété des médias et la vulnérabilité des médias de service public, appelant à une application stricte du règlement européen sur la liberté des médias et à un soutien durable aux initiatives de journalisme indépendant. (lm)

Par Alena Mastantuono, vice-présidente du CESE chargée du budget et membre du groupe des employeurs du CESE

De nos jours, la législation est élaborée sur ordinateur, avant d’être archivée dans des revues officielles et publiée en ligne. Pourtant, la réglementation répond encore et toujours à une approche analogique, faisant fi de ces outils modernes. Au fil des décennies, les lois s’accumulent et génèrent ainsi des charges bureaucratiques involontaires, donnant lieu à un système opaque. 

Par Alena Mastantuono, vice-présidente du CESE chargée du budget et membre du groupe des employeurs du CESE

De nos jours, la législation est élaborée sur ordinateur, avant d’être archivée dans des revues officielles et publiée en ligne. Pourtant, la réglementation répond encore et toujours à une approche analogique, faisant fi de ces outils modernes. Au fil des décennies, les lois s’accumulent et génèrent ainsi des charges bureaucratiques involontaires, donnant lieu à un système opaque.

Les technologies réglementaires (RegTech) sont des solutions numériques grâce auxquelles il devient possible de transformer ce grand plat de spaghetti en une belle assiette cohérente. Ces outils de gestion des contraintes réglementaires permettent de visualiser le paysage réglementaire dans son ensemble, de recenser les interactions entre les législations et de réduire les délais et les coûts associés à la mise en conformité.

Certains États membres de l’Union ont déjà accompli des progrès. En Tchéquie, par exemple, l’administration publique fait usage d’un outil unique couvrant l’ensemble du processus d’élaboration de la législation, de l’idée initiale à la publication dans les recueils de lois. Le processus législatif exige aussi que toute nouvelle loi comporte un résumé des obligations qu’elle introduit.

Cette avancée innovante permet de traduire le langage législatif en exigences concrètes, et ainsi de créer le socle d’une base de métadonnées pouvant servir à assurer, de manière systématisée, la compréhension et la mise en conformité.

L’Estonie propose quant à elle un autre modèle, qui consiste à collecter les données nécessaires en consultant directement les registres du commerce, plutôt que d’exiger des entreprises qu’elles soumettent ces informations à plusieurs reprises.

Comment expliquer, dès lors, que les technologies réglementaires ne soient pas la norme au niveau de l’Union?

En l’occurrence, les difficultés ne sont pas d’ordre technique mais institutionnel. Les solutions en matière de technologie réglementaire doivent être intégrées au processus réglementaire et il convient, à cette fin, d’adopter un rôle moteur et de faire preuve de coordination, ce que l’Union a du mal à faire actuellement.

Les responsabilités sont morcelées, et les innovateurs du secteur privé, à l’origine de la plupart des idées liées aux technologies réglementaires, se retrouvent souvent ballottés d’un service à l’autre, sans interlocuteur ni responsable clairement désigné.

Adopter les technologies réglementaires exige de changer d’état d’esprit, de façon à ne plus voir les outils numériques comme des accessoires optionnels, mais à les reconnaître comme des composantes fondamentales d’une gouvernance efficace. Les retombées ne profiteraient pas uniquement aux régulateurs, mais aussi aux citoyens et aux entreprises.

À l’échelle mondiale, la technologie réglementaire gagne de plus en plus en importance, et quiconque maîtrisera cette force en tirera un avantage stratégique.

(Initialement publié dans The Brussels Time.)

Dans un avis adopté lors de sa session plénière de décembre, le Comité affirme que l’énergie nucléaire joue et continuera de jouer un rôle crucial dans la décarbonation de l’Union européenne. C’est d’autant plus vrai dans un contexte où l’Union doit consolider son autonomie stratégique dans les domaines de l’énergie et de la technologie.

Dans un avis adopté lors de sa session plénière de décembre, le Comité affirme que l’énergie nucléaire joue et continuera de jouer un rôle crucial dans la décarbonation de l’Union européenne. C’est d’autant plus vrai dans un contexte où l’Union doit consolider son autonomie stratégique dans les domaines de l’énergie et de la technologie.

L’avis du CESE, élaboré par Dumitru Fornea, rapporteur, et Alena Mastantuono, corapporteure, évalue le 8e programme indicatif nucléaire (PINC) de la Commission européenne, publié en juin 2025.

Selon le Comité, l’énergie nucléaire est essentielle à la diversification de l’approvisionnement énergétique de l’Union, car elle fournit une électricité sûre, fiable et pauvre en carbone. Le réseau reste ainsi stable la plupart du temps, peu importe la météo ou le moment de la journée, ce qui réduit la pression sur les coûts systémiques.

L’énergie nucléaire peut donc jouer un rôle important dans le soutien à la transition industrielle globale de l’Union européenne, dès lors qu’elle renforce la résilience face aux ruptures d’approvisionnement, garantit une offre complémentaire aux énergies renouvelables et réduit la dépendance à l’égard des combustibles importés. «L’industrie nucléaire européenne occupe plus de 1,1 million de personnes dans l’Union et représente un secteur économique majeur aux retombées considérables au niveau de l’emploi, de la capacité de la chaîne d’approvisionnement et de la R&D de pointe. Il s’agit d’une chaîne de valeur “zéro net” presque exclusivement basée dans l’UE», a rappelé M. Fornea. «Si nous voulons renoncer avec succès au charbon, il nous faut une énergie propre accessible et des financements en faveur du nucléaire.»

Dans son avis, le CESE déplore que le PINC ne propose ni catalyseurs spécifiques ni véritable plan d’action pour les investissements prévus et exhorte la Commission à inclure des mesures réglementaires et financières. «Nous invitons la Commission à proposer des mesures concrètes pour matérialiser les investissements prévus au titre du PINC», a déclaré Mme Mastantuono. «C’est plus que jamais nécessaire compte tenu des turbulences géopolitiques qui forcent l’Union européenne à développer des capacités basées en son sein. C’est pourquoi il y a lieu de soutenir la chaîne de valeur nucléaire pour ce qui touche aux compétences, à la recherche et à la chaîne d’approvisionnement en combustible.»

Le dialogue avec la société civile reste indispensable pour renforcer la confiance, l’appropriation et l’acceptation par la société et devrait, à ce titre, occuper une place plus importante dans le PINC. Or, le CESE estime que les décisions relatives à de nouveaux projets dans le domaine du nucléaire, notamment la mise au point de nouvelles technologies, devraient être prises à l’issue d’un dialogue élargi et transparent avec la société civile concernant leurs aspects techniques, économiques, sociaux et environnementaux. (mp)

par le groupe des organisations de la société civile et la section «Relations extérieures» du CESE

À la suite du Brexit et du retrait du Royaume-Uni des projets Erasmus+, le Comité économique et social européen (CESE) a uni ses forces à celles des jeunes et des organisations de la société civile du Royaume-Uni, qui pensaient que loin d’être seulement un coût pour le Royaume-Uni, le programme constituait un investissement vital dans l’avenir de sa jeunesse.

par le groupe des organisations de la société civile du CESE et la section «Relations extérieures» du CESE

À la suite du Brexit et du retrait du Royaume-Uni des projets Erasmus+, le Comité économique et social européen (CESE) a uni ses forces à celles des jeunes et des organisations de la société civile du Royaume-Uni, qui pensaient que loin d’être seulement un coût pour le Royaume-Uni, le programme constituait un investissement vital dans l’avenir de sa jeunesse.

En avril 2024, le CESE a adopté un avis d’initiative sur l’engagement des jeunes de l’UE et du Royaume-Uni, élaboré par Cillian Lohan (groupe des organisations de la société civile du CESE), dans lequel il invite instamment la Commission européenne à intensifier les négociations en vue de la réintégration complète du Royaume-Uni dans Erasmus+. Cette position a reçu le ferme soutien du Forum européen de la jeunesse, du Conseil de la jeunesse britannique et de nombreuses organisations de jeunesse, tant au Royaume-Uni que dans l’UE.

Le CESE s’est également associé au Forum consultatif écossais sur l’Europe (SAFE) pour publier une brochure conjointe intitulée «Participation des jeunes: Connecter la jeunesse, créer des changements en Europe et au Royaume-Uni». Les groupements d’entreprises, syndicats et organisations de la société civile, membres du groupe consultatif interne de l’UE au titre de l’accord de commerce et de coopération entre l’UE et le Royaume-Uni ont fait écho à cet appel dans une déclaration publiée à l’occasion du sommet UE-Royaume-Uni de 2025, plaidant en faveur d’initiatives tournées vers l’avenir visant à promouvoir les échanges de jeunes et les possibilités offertes aux jeunes travailleurs, y compris un engagement renouvelé dans Erasmus+ et Europe créative.

Dans un tournant décisif, en décembre 2025, l’UE et le Royaume-Uni sont convenus que le Royaume-Uni rejoindrait Erasmus+ à partir de 2027. Cette percée promet de redynamiser la mobilité et la coopération internationales, en particulier pour les jeunes. Cette réalisation témoigne de l’influence du CESE, de sa capacité à mobiliser la société civile et à dialoguer avec elle, ainsi que de l’impact considérable de ses activités de plaidoyer au niveau international. Cela prouve également que la société civile peut faire la différence.

 

Contexte:

Erasmus+ est l’initiative phare de l’Union européenne pour l’éducation, la formation, la jeunesse et le sport, qui favorise les possibilités d’études, de formation, de volontariat et de partenariats transfrontières. Avant le Brexit, le Royaume-Uni jouait un rôle actif et à part entière dans le programme, des milliers d’étudiants du Royaume-Uni et du reste de l’UE bénéficiant d’échanges et de collaborations.

Toutefois, après le Brexit, le Royaume-Uni a choisi de ne pas participer à Erasmus+ en tant que pays tiers associé. Cette décision a énormément réduit l’accès du Royaume-Uni aux projets d’Erasmus+, laissant uniquement quelques possibilités aux institutions et citoyens britanniques, les mêmes que celles qui étaient à la disposition d’autres participants du monde entier. Dans le même temps, les étudiants de l’UE ont vu leurs possibilités d’études au Royaume-Uni considérablement réduites. En 2019, le nombre d’étudiants de l’UE présents au Royaume-Uni avait déjà diminué de plus de moitié, une baisse similaire ayant été observée parmi les citoyens britanniques étudiant dans l’UE.

Les hôpitaux européens ont été confrontés à près de 300 incidents de cybersécurité en 2024, ce qui fait des soins de santé le secteur essentiel le plus ciblé. Largement attribués à des groupes liés à la Russie, les incidents majeurs coûtent environ 300 000 EUR chacun, mais les dommages vont bien au-delà des pertes financières. Le plan d’action européen sur la cybersécurité des hôpitaux et des prestataires de soins de santé (2025) constitue une étape essentielle vers la protection des soins de santé de l’UE contre les menaces hybrides. Samuel Goodger et Elizabeth Kuiper, du Centre de politique européenne, exposent les priorités à respecter pour assurer la bonne mise en œuvre du plan.

Les hôpitaux européens ont été confrontés à près de 300 incidents de cybersécurité en 2024, ce qui fait des soins de santé le secteur essentiel le plus ciblé. Largement attribués à des groupes liés à la Russie, les incidents majeurs coûtent environ 300 000 EUR chacun, mais les dommages vont bien au-delà des pertes financières. Le plan d’action européen sur la cybersécurité des hôpitaux et des prestataires de soins de santé (2025) constitue une étape essentielle vers la protection des soins de santé de l’UE contre les menaces hybrides. Samuel Goodger et Elizabeth Kuiper, du Centre de politique européenne, exposent les priorités à respecter pour assurer la bonne mise en œuvre du plan.

Le nombre croissant de cyberattaques contre les infrastructures de santé de l’UE s’inscrit dans le cadre d’une guerre hybride plus large, dont la Russie est la principale instigatrice, visant à intimider, déstabiliser et tester la détermination européenne. Pendant que l’on assiste à un remodelage de la prestation des soins de santé induit par la santé numérique et l’intelligence artificielle, la portée des cyberattaques ne cesse quant à elle de s’étendre. Depuis 2023, des groupes de pirates informatiques pro-russes, tels que Killnet et Anonymous Sudan, ont lancé des attaques coordonnées contre des hôpitaux et des autorités sanitaires au Danemark, aux Pays-Bas, en Espagne et en Suède. Rien qu’en 2024, au moins 289 incidents de cybersécurité ont touché les prestataires de soins de santé de l’UE, soit davantage que dans tout autre secteur essentiel.

Graphique illustrant les incidents de cybersécurité signalés dans des secteurs critiques

Le coût de l’inaction est énorme. Les incidents majeurs coûtent en moyenne 300 000 EUR chacun, ce qui signifie que la charge cumulée pesant sur les systèmes de santé peut atteindre des milliards.

La désinformation, par exemple partagée sur les médias sociaux, peut également multiplier les effets des attaques. Lorsque les hôpitaux sont ciblés, les fausses déclarations sur les violations des données des patients peuvent amplifier l’anxiété publique, éroder la confiance dans les établissements de soins de santé et aggraver les effets déjà préoccupants d’une faible maîtrise des connaissances en matière de santé.

Pourquoi les soins de santé?

Plusieurs facteurs rendent les systèmes de santé attrayants. Les dossiers médicaux personnels peuvent faire l’objet d’usurpation d’identité ou d’extorsion. La fragmentation des environnements informatiques — mélange de systèmes anciens et d’infrastructures modernes — contribue aux vulnérabilités. Les dépendances au sein des chaînes d’approvisionnement créent des points d’entrée supplémentaires, étant donné que la violation d’un système peut se répercuter sur d’autres.

La préparation en matière de cybersécurité dans le domaine des soins de santé varie considérablement d’un État membre à l’autre. Tandis que certains États membres disposent d’écosystèmes matures, tels que le Z-CERT néerlandais, qui fournit des renseignements sectoriels sur les menaces et la réaction aux incidents, d’autres ne disposent pas d’une expertise spécifique en matière de santé. Cette fragmentation crée des vulnérabilités que les acteurs hostiles peuvent exploiter. Les carences au niveau du partage transfrontière de renseignements sur les menaces permettent aux auteurs d’attaques de réutiliser les mêmes vulnérabilités d’un pays à l’autre.

Enfin, les pénuries de main-d’œuvre aggravent également ces lacunes: en 2024, selon les estimations, ce sont 300 000 professionnels de la cybersécurité qui faisaient défaut à l’UE. Le problème est particulièrement aigu dans le domaine des soins de santé, où environ deux tiers des rôles en matière de cybersécurité sont occupés par des professionnels de l’informatique non spécialisés dans ce domaine.

IA — Une occasion cruciale à saisir

Dans ces circonstances, le plan d’action européen de janvier 2025 sur la cybersécurité des hôpitaux et des prestataires de soins de santé constitue une avancée essentielle. S’appuyant sur une législation existante substantielle, telle que la directive SRI 2, le RGPD et le règlement sur l’espace européen des données de santé, le plan trace la voie à suivre pour protéger les systèmes de santé de l’UE au moyen de quatre piliers: prévention, détection, réaction et rétablissement, dissuasion.

Les outils actuels fondés sur l’IA offrent un potentiel de défense important: surveillance continue, détection fine des atteintes à la sécurité, hiérarchisation des alertes et endiguement précoce automatisé des menaces. Toutefois, nos adversaires bénéficient également de ces évolutions, par exemple en manipulant les modèles d’IA au moyen d’entrées contradictoires ou d’empoisonnements de données. Pour garantir l’intégrité du système, il est donc nécessaire de surveiller en permanence et de sécuriser les canaux de développement. La validation par des analystes humains reste essentielle pour l’obligation de redevabilité.

Par ailleurs, l’IA renforce également de manière significative les acteurs de la désinformation. En analysant les données volées, les agresseurs peuvent générer des courriels d’hameçonnage adaptés aux rôles spécifiques des individus. Lors d’incidents, une désinformation coordonnée peut éroder la confiance du public, précisément lorsque la confiance est la plus fragile.

Recommandations

Avant que la Commission ne prenne de nouvelles mesures pour mettre en œuvre le plan d’action, nous recensons six priorités:

Premièrement, tirer parti de l’IA pour détecter les menaces et y répondre. Les systèmes de santé devraient expérimenter l’IA spécialisée pour la gestion automatisée des vulnérabilités et l’analyse comportementale. Des systèmes d’IA fermés mais explicables sont préférables, afin de réduire les risques de fuites de données.

Deuxièmement, améliorer le renseignement sur les menaces transfrontières. La Commission doit mettre en place des systèmes de surveillance des vulnérabilités contextualisés dans les flux de travail cliniques. La coopération internationale devrait être renforcée dans le cadre de l’initiative internationale de lutte contre les rançongiciels et du G7.

Troisièmement, renforcer la passation conjointe de marchés pour la sécurité de la chaîne d’approvisionnement. La mise en place de mécanismes communs de passation de marchés au niveau de l’UE agrégerait la demande et faciliterait la surveillance des exigences en matière de sécurité dès la conception.

Quatrièmement, remédier à la crise de capacité s’agissant de la main-d’œuvre. Les professionnels de la santé eux-mêmes constituent à la fois la première ligne de défense et une vulnérabilité majeure. La formation à l’hygiène informatique doit inclure des compétences en matière de lutte contre la désinformation et la reconnaissance des attaques d’ingénierie sociale renforcées par l’IA.

Cinquièmement, cibler les risques de désinformation. La Commission devrait élaborer des initiatives de maîtrise de l’IA spécifiques aux soins de santé expliquant les processus décisionnels et les implications en matière de respect de la vie privée. Les citoyens doivent être en mesure de distinguer les communications authentiques des contenus manipulés.

Sixièmement, veiller à ce qu’un financement adéquat soit disponible. Les investissements publics devraient faire l’objet d’une réorientation des ressources existantes, mais aussi bénéficier de la clause dérogatoire du pacte de stabilité et de croissance. L’UE devrait envisager de créer un Fonds pour la résilience doté d’une enveloppe spécifique de 10 milliards d’euros pour les secteurs les plus exposés aux cybermenaces.

Pour garantir la cyber-résilience des systèmes de santé de l’UE, il est nécessaire de passer à une approche collaborative et proactive. Il faut pour cela surmonter la fragmentation et favoriser une action collective intégrée et innovante. En tirant parti de l’IA, en approfondissant la coopération transfrontière, en investissant dans le développement de la main-d’œuvre et en donnant aux patients les moyens d’agir, l’UE peut transformer le secteur des soins de santé d’un objectif vulnérable en une infrastructure résiliente.

Samuel Goodger est analyste politique et Elizabeth Kuiper est directrice associée au Centre de politique européenne. Le présent article se base sur leur note stratégique de novembre 2025 «From ransomware to statecraft: Protecting EU healthcare in the new threat landscape».

Le Centre de politique européenne (CPE) est un groupe de réflexion indépendant et à but non lucratif qui vise à favoriser l’intégration européenne par l’analyse et le débat, en aidant et en stimulant les décideurs à tous les niveaux à prendre des décisions éclairées fondées sur des données probantes et des analyses, et en fournissant une plateforme pour associer les partenaires, les parties prenantes et les particuliers à l’élaboration des politiques de l’UE et au débat sur l’avenir de l’Europe.

Alors même que l’IA pourrait rendre l’agriculture européenne plus compétitive et plus durable, la plupart des agriculteurs ne peuvent pas en bénéficier: selon les estimations, seules 3 à 4 % des exploitations agricoles de l’UE recevront un financement en faveur d’outils numériques au titre de la PAC actuelle, signale Stoyan Tchoukanov, président de la section «Agriculture, développement rural et environnement» du CESE.

Alors même que l’IA pourrait rendre l’agriculture européenne plus compétitive et plus durable, la plupart des agriculteurs en sont exclus: selon les estimations, seules 3 à 4 % des exploitations agricoles de l’UE recevront un financement en faveur d’outils numériques au titre de la PAC actuelle, signale Stoyan Tchoukanov, président de la section «Agriculture, développement rural et environnement» du CESE.

Lors des Journées européennes de l’agroalimentaire, en décembre 2025, une réalité importante a été mise au jour: Sur plus de 400 participants rassemblés pour débattre de l’avenir de l’agriculture numérique, seuls six étaient des agriculteurs, et deux d’entre eux utilisaient une solution numérique pour gérer leur exploitation. Ce constat révèle une faille majeure: l’Europe ne peut pas façonner un avenir numérique de l’agriculture sans associer activement les agriculteurs à ces évolutions.

Bien que la numérisation fasse l’objet de discussions depuis des décennies, le soutien réel apporté sur le terrain reste circonscrit. Dans le cadre de l’actuelle politique agricole commune (PAC) de l’UE pour la période 2023-2027, on estime que seules 3 à 4 % des exploitations agricoles de l’Union pourront bénéficier d’un financement spécifiquement axé sur les technologies agricoles numériques. Même en incluant les mesures de modernisation des exploitations agricoles au sens large, ce chiffre n’atteint que 7,6 % environ.

Il faut aussi opérer une nette distinction entre l’utilisation d’outils numériques de base et une véritable transformation numérique. Alors que plus de 90 % des agriculteurs utilisent au moins un outil informatique ou logiciel, ils sont nettement moins nombreux à pouvoir financer ou accéder à des technologies avancées telles que l’agriculture de précision, les capteurs ou les systèmes fondés sur l’IA. Le niveau de soutien public spécifiquement consacré à ces investissements reste faible,

et les données confirment ces manquements. Selon le Centre commun de recherche de l’UE, les logiciels de gestion d’exploitation agricole et les outils satellitaires ne sont utilisés que par un agriculteur sur cinq environ, et l’usage de drones reste négligeable dans la plupart des États membres.

Les outils numériques et l’IA peuvent rendre l’agriculture européenne plus compétitive, plus durable et plus résiliente, à condition que les agriculteurs soient connectés, soutenus et associés à l’élaboration de ces solutions. Sans eux, l’innovation numérique risque d’être cantonnée au stade d’ambition politique plutôt que de se concrétiser sur le terrain.

Stoyan Tchoukanov est le président de la section NAT du CESE depuis octobre 2025, et il est membre du CESE depuis 2020. Au sein du Comité, il représente l’Association pour l’élevage des races bovines à viande en Bulgarie, où il est également à la tête de son propre élevage bovin.

Dans un monde en ligne où l’IA générative peut fabriquer un titre, une image et une source en quelques secondes, les «nouvelles de dernière minute» pourraient bientôt céder la place aux «nouvelles vérifiées». À une époque où les mensonges voyagent plus rapidement que les faits, la vérification de ceux-ci devient rapidement l’un des outils les plus puissants du journalisme. L’Observatoire européen des médias numériques (EDMO) procède à un suivi suit les discours mensongers les plus persistants d’Europe au moyen de ses notes mensuelles sur la désinformation. Avec Tommaso Canetta, coordinateur de l’EDMO, nous avons évoqué l’évolution de la vérification des faits et les moyens nécessaires pour lutter contre la désinformation à l’ère de l’IA.

Dans un monde en ligne où l’IA générative peut fabriquer un titre, une image et une source en quelques secondes, les «nouvelles de dernière minute» pourraient bientôt céder la place aux «nouvelles vérifiées». À une époque où les mensonges voyagent plus rapidement que les faits, la vérification de ceux-ci devient rapidement l’un des outils les plus puissants du journalisme. L’Observatoire européen des médias numériques (EDMO) procède à un suivi des discours mensongers les plus persistants d’Europe au moyen de ses notes mensuelles sur la désinformation. Avec Tommaso Canetta, coordinateur de l’EDMO, nous avons évoqué l’évolution de la vérification des faits et les moyens nécessaires pour lutter contre la désinformation à l’ère de l’IA.

 

Pourriez-vous nous en dire un peu plus sur les notes mensuelles du réseau de vérification des faits de l’EDMO? Comment collectez-vous les informations et décidez-vous de ce qu’il convient d’inclure dans les notes? Qui sont vos vérificateurs de faits?

Chaque mois, nous envoyons un questionnaire aux organisations de vérification des faits qui sont membres du réseau de vérification des faits de l’EDMO (55 organisations couvrant tous les États membres de l’UE plus la Norvège). Le questionnaire comprend des questions quantitatives et qualitatives sur la désinformation détectée au cours du mois précédent. Nous analysons ensuite toutes les réponses et incluons les informations les plus pertinentes ressortant de cette analyse dans les notes.

 

Votre note d’octobre indiquait que la désinformation générée par l’IA avait atteint un nouveau record dans un contexte d’effritement de l’intégrité de l’information. Qu’est-ce qu’un «AI slop» et comment est-ce utilisé pour produire de fausses informations ou discréditer certains? Pouvez-vous nous donner quelques exemples récents et flagrants?

Un «AI slop» peut être défini comme un contenu de qualité faible à moyenne créé à l’aide d’outils d’IA. Le déluge de contenus générés par l’IA circulant sur les plateformes de médias sociaux pendant les crises, avant, pendant ou après les élections, et plus généralement autour de sujets sensibles, peut fausser considérablement la perception du public.

Parmi les exemples récents figurent les nombreuses vidéos et images mensongères montrant prétendument des Vénézuéliens fêtant dans la rue l’enlèvement de Maduro par les États-Unis. Un autre exemple est la diffusion, en novembre, de vidéos générées par l’IA représentant des soldats ukrainiens qui se libèrent. Dans la sphère politique en général, on voit de plus en plus de trucages vidéo ultra-réalistes de responsables politiques, affirmant des choses qu’ils n’ont jamais dites, créés et diffusés pour les discréditer (par exemple, celui-ci en Hongrie).

 

Existe-t-il des sujets ou des problèmes récurrents qui ont récemment fait les choux gras des vecteurs de désinformation et de discours mensongers? Pourriez-vous en citer quelques-uns sur la base des recherches menées pour vos notes d’information?

La guerre en Ukraine, les migrations, le changement climatique, l’UE, la guerre entre Israël et le Hamas à Gaza et ses conséquences, les pandémies et les vaccins, ainsi que les communautés LGBTQ+, ont tous été des cibles récurrentes de discours et de campagnes de désinformation ces derniers mois (comme en témoignent les notes d’information sur ces sujets).

En outre, la politique nationale est souvent la cible de désinformation, bien que la dynamique spécifique varie naturellement d’un pays à l’autre. Pratiquement toutes les crises qui «font» l’actualité ont tendance à devenir des cibles de désinformation, du moins tant que la couverture médiatique traditionnelle leur accorde une importance particulière (par exemple, l’ouragan Melissa, le vol au Louvre, la mort de Charlie Kirk, la guerre de 12 jours entre Israël et l’Iran, les élections présidentielles en Roumanie, etc.).

 

Dans un récent rapport de l’Institut Reuters pour l’étude du journalisme, les experts prévoient que la vérification occupera une place centrale dans les années à venir, la «vérification-minute» remplaçant les «nouvelles de dernière minute». Que pensez-vous de l’évolution du journalisme de vérification des faits et de son importance à l’avenir?

Je suis d’avis que son importance ne fera que continuer à croître. Nous évoluons rapidement vers une situation dans laquelle la principale source d’information pour des générations entières — les médias sociaux — est inondée de contenus peu fiables, tandis que de nombreux utilisateurs sont de plus en plus incapables de distinguer ce qui est réel de ce qui est généré par l’IA.

La désinformation, les activités de manipulation de l’information et d’ingérence menées depuis l’étranger, les escroqueries, la pornographie non consensuelle générée par l’IA (y compris celle montrant des mineurs) et d’autres contenus et opérations illicites ou préjudiciables vont prospérer. Ces efforts sont alimentés par les algorithmes et les modèles économiques des plateformes, par des acteurs peu scrupuleux exploitant le système à des fins lucratives et par des forces adverses/extrémistes (domestiques ou étrangères) qui bénéficient de la polarisation et des crises sociétales des États européens.

Si les démocraties veulent survivre, elles devront aborder cette question avec détermination, et la vérification des faits est un outil fondamental à cette fin. Même s’il devient impossible de vérifier tous les faux contenus à l’avenir, il devrait y avoir au moins un effort important pour vérifier ce qui est vrai. Les sources d’information traditionnelles pourraient même bénéficier d’un tel changement.

 

Peut-on apprendre aux gens comment détecter la désinformation? Comment repérer un faux lorsque nous le lisons, le voyons ou l’entendons? Cela sera-t-il même possible compte tenu de l’essor rapide de la technologie de l’IA, ou aurons-nous à nouveau besoin d’IA pour détecter les contrefaçons créées par l’IA?

Beaucoup peut être enseigné. La sensibilisation à la désinformation et à ses principales caractéristiques est une première ligne de défense puissante, et l’éducation aux médias est de la plus haute importance. Toutefois, l’éducation ne suffit pas à elle seule. Nous avons certainement besoin d’outils, y compris d’outils fondés sur l’IA, mais à l’heure actuelle, ces outils ne sont pas toujours fiables. Leur développement nécessite des efforts et des investissements, étant donné que les tiers mal intentionnés ont généralement une longueur d’avance. En outre, au-delà de l’identification des discours de désinformation, il est essentiel de détecter et de suivre leur dynamique de diffusion, y compris les acteurs, les cibles et la distribution interplateformes. Pour ce type d’analyse, des outils d’IA améliorés peuvent fournir des informations précieuses permettant d’apporter des réponses en temps utile. Nous avons également besoin d’une réglementation plus stricte de l’espace numérique et de l’IA. Les initiatives de l’UE telles que la législation sur les services numériques et la législation sur l’IA constituent un bon point de départ, mais beaucoup reste encore à faire, notamment en ce qui concerne l’application de la législation.

En outre, nous avons besoin d’un secteur des médias traditionnels solide, capable de fournir des informations fiables et de qualité, et d’une plus grande vérification des faits à tous les niveaux. Mais avant tout, les gouvernements démocratiques doivent renforcer leur action politique, relever ces défis avec audace et veiller à ce que les citoyens soient correctement informés.

 

Où le public peut-il lire vos notes d’information?

Elles sont toutes disponibles ici.

 

Tommaso Canetta est journaliste et vérificateur de faits, directeur adjoint de Pagella Politica/Facta news, coordinateur des activités de vérification des faits de l’EDMO et de l’Observatoire italien des médias numériques (IDMO), et membre de l’organe de gouvernance du réseau européen des normes de vérification des faits (EFCSN) ainsi que de la task-force du code de bonnes pratiques contre la désinformation.

L’EDMO est un réseau financé par l’UE qui réunit des chercheurs, des vérificateurs de faits et des experts en éducation aux médias afin de détecter, d’analyser et de combattre la désinformation dans toute l’Europe. Son réseau de vérification des faits se compose de 15 pôles dans l’ensemble de l’UE et de l’EEE.

Anastasia Karagianni, de la VUB (Vrije Universiteit Brussel), explore la manière dont les technologies numériques influencent de plus en plus la manière dont les personnes sont jugées et traitées, depuis les images en ligne jusqu’à l’accès à l’emploi et aux services publics. Bien que ces systèmes soient souvent présentés comme neutres, ils peuvent renforcer les inégalités existantes et causer un préjudice réel aux communautés marginalisées, ce qui montre pourquoi la réglementation numérique de l’UE doit aller au-delà de la conformité technique et prendre au sérieux les expériences vécues par les personnes lorsqu’elles luttent contre la discrimination algorithmique.

Anastasia Karagianni, de la VUB (Vrije Universiteit Brussel), explore la manière dont les technologies numériques influencent de plus en plus la manière dont les personnes sont jugées et traitées, depuis les images en ligne jusqu’à l’accès à l’emploi et aux services publics. Bien que ces systèmes soient souvent présentés comme neutres, ils peuvent renforcer les inégalités existantes et causer un préjudice réel aux communautés marginalisées, ce qui montre pourquoi la réglementation numérique de l’UE doit aller au-delà de la conformité technique et prendre au sérieux les expériences vécues par les personnes lorsqu’elles luttent contre la discrimination algorithmique.

La discrimination algorithmique désigne les systèmes automatisés produisant des résultats qui désavantagent systématiquement des groupes particuliers, non pas uniquement du fait d’«erreurs» techniques, mais en raison de la manière dont les données, les choix de conception et les schémas historiques d’inégalité façonnent la prise de décision automatique. Ces effets sont particulièrement prégnants lorsque le genre, la race, la classe, le handicap ou d’autres axes identitaires se recoupent, portant atteinte à l’égalité, à la vie privée et à la non-discrimination.

Par exemple, les filtres de beauté portent en eux-mêmes des idéaux d’attractivité normatifs, souvent eurocentriques et sexospécifiques, en «corrigeant» via des algorithmes les visages vers des tons cutanés plus légers ou des caractéristiques féminisées, ce qui affecte de manière disproportionnée les femmes et les personnes de couleur et renforce les hiérarchies existantes de valeur sociale. De même, les technologies portables intelligentes, telles que les lunettes d’IA Ray-Ban Meta, suscitent des inquiétudes quant à la surveillance, à la vie privée et aux abus sexuels fondés sur l’image, étant donné que les systèmes de vision et de parole biaisés peuvent mener à des identifications erronées parmi les groupes marginalisés et exposer les passants à un enregistrement auxquels ils n’ont pas consenti, ce qui renforce les déséquilibres de pouvoir existants dans les espaces publics.

Dans l’UE, où les systèmes numériques déterminent de plus en plus l’accès aux services publics, aux possibilités d’emploi et au soutien social, il est essentiel de remédier à ces préjudices pour protéger les droits fondamentaux et la responsabilité démocratique.

Les cadres de l’UE, tels que le règlement général sur la protection des données (RGPD) et le règlement sur l’intelligence artificielle constituent des étapes importantes vers une approche des données et des systèmes automatisés fondée sur les droits. L’accent placé par le RGPD sur la transparence, le contrôle humain et les mécanismes permettant aux personnes de contester les décisions automatisées donne à la société civile des outils pour contester les pratiques discriminatoires et exiger des acteurs tant privés que publics qu’ils rendent des comptes. Le règlement sur l’IA adopte une approche fondée sur les risques pour réglementer l’IA, avec des obligations explicites pour les systèmes à haut risque et les applications d’IA considérés comme susceptibles d’avoir une incidence significative sur les droits, la sécurité ou l’accès des personnes aux services essentiels, tels que les soins de santé ou l’emploi. Cela crée des possibilités de surveillance et de contrôle structuré des technologies susceptibles de produire des résultats préjudiciables.

Les organisations de la société civile ont joué un rôle clé dans la mise en œuvre de ces cadres. Des forums tels que le CPDP (Computer, Privacy and Data Protection Conference), le Privacy Camp et le FARI associent des militants, des chercheurs et des décideurs politiques à l’évaluation des systèmes algorithmiques et à l’élaboration des bonnes pratiques. Les succès obtenus par le réseau European Digital Rights (EDRi) et le Digital Freedom Fund (DFF) montrent comment un engagement civil durable peut améliorer les obligations de transparence, renforcer l’application de la législation et élargir la compréhension par le public des préjudices numériques. Ces initiatives montrent que la réglementation de l’UE peut donner des moyens d’action à la société civile, en favorisant des approches participatives de la réglementation plutôt qu’en laissant le contrôle aux seuls acteurs étatiques ou institutionnels.

Malgré ces évolutions positives, d’importantes lacunes subsistent, qui limitent la capacité de la réglementation de l’UE à lutter de manière globale contre la discrimination structurelle et les dommages algorithmiques. La nature du système de classification des risques du règlement sur l’IA est au cœur de cette critique. Le fait que ledit règlement s’appuie sur un modèle descendant, dans lequel les régulateurs prédéfinissent des catégories de systèmes à haut risque, laisse peu de place à l’identification ascendante des dommages émergents découverts grâce à l’expérience vécue ou au suivi mené par la société civile. Une fois les systèmes déployés, seuls des mécanismes limités permettent aux communautés touchées de déclencher des réévaluations des risques ou d’exiger des mesures correctives en dehors de catégories prédéfinies.

La proposition de règlement omnibus sur le numérique illustre une autre tendance inquiétante. En permettant aux fournisseurs de systèmes d’IA de s’enregistrer et de déterminer si leur technologie peut être considérée comme étant à haut risque, la proposition risque de déléguer des jugements réglementaires critiques aux acteurs mêmes dont les intérêts commerciaux peuvent entrer en conflit avec la sécurité publique et la protection des droits.

Même lorsque des obligations d’atténuation des biais (efforts visant à réduire la discrimination dans les systèmes d’IA) existent, elles nécessitent souvent le traitement de données sensibles. Pourtant, les caractéristiques liées au genre et aux personnes LGBTQIA+, telles que les identités non binaires, transgenres ou intersexuées, ne sont souvent pas reconnues comme des catégories protégées et restent donc insuffisamment protégées. Cela crée des angles morts dans la compréhension de la manière dont les systèmes d’IA peuvent renforcer les formes de discrimination qui se chevauchent.

Ces lacunes deviennent plus évidentes avec les dommages émergents, tels que les hypertrucages sexualisés. S’il est probable que ces technologies relèvent des pratiques interdites par l’article 5, le texte réglementaire laisse subsister une ambiguïté quant à son application et sa classification connexe. En l’absence d’obligations claires imposant aux plateformes de prévenir les abus fondés sur des images et la diffusion de trucages vidéo ultra-réalistes ou d’y remédier, les victimes peuvent être confrontées à de graves limitations quant à de possibles recours juridiques, malgré des atteintes substantielles à leur vie privée, à leur dignité et à leur sécurité.

Une autre limitation réside dans les obligations de normalisation, qui ne s’appliquent qu’aux systèmes d’IA à haut risque. Il en résulte que de vastes pans de technologies largement déployées, y compris l’IA générative et les applications de modération des contenus, ne sont pas assortis de garanties systématiques en matière de sécurité, d’équité et de discrimination. Pour la société civile, cela signifie que de nombreux systèmes discriminatoires ou préjudiciables ne font jamais l’objet d’évaluations solides en ce qui concerne leur conformité ou leur redevabilité.

Enfin, la manière dont le droit de l’Union traite l’intersectionnalité — l’idée selon laquelle les personnes peuvent être confrontées à des formes de discrimination qui se chevauchent — montre que les réglementations actuelles ne reflètent pas toujours les réalités vécues par les individus. Si la directive sur la lutte contre la violence à l’égard des femmes et la violence domestique (directive sur les violences sexistes) introduit la notion de «discrimination intersectionnelle», son champ d’application pratique reste limité par son texte-même. Elle ne tient pas non plus pleinement compte des préoccupations des communautés LGBTQIA+ quant à l’ensemble de la politique de l’Union en matière d’égalité. L’analyse académique du règlement sur l’IA montre que les références à l’«égalité de genre» sont peu nombreuses et qu’une terminologie inclusive pour les différentes identités de genre fait largement défaut. En conséquence, le cadre réglementaire reste ancré dans des conceptions binaires du genre.

Ces critiques mettent en évidence une question plus large: le simple respect des garanties procédurales ne suffit pas à lutter contre la discrimination algorithmique dans la société. Ce qui est nécessaire, ce sont des approches qui s’inspirent des expériences des citoyens et identifient les préjudices à un stade précoce, des évaluations qui examinent la manière dont les différentes formes de discrimination se chevauchent, et un contrôle participatif qui associe de manière significative la société civile à la prise de décision. Des outils tels que des analyses d’impact tenant compte de la dimension de genre et des cadres d’évaluation communautaires qui impliquent de tester des systèmes de détection des biais et d’écouter les utilisateurs concernés peuvent contribuer à garantir que la réglementation protège effectivement les personnes les plus vulnérables des dommages algorithmiques. En l’absence de tels mécanismes, la réglementation numérique de l’Union risque de consacrer une approche «neutre» qui masque les inégalités auxquelles les personnes sont confrontées dans la vie quotidienne, au lieu de les affronter.

Anastasia Karagianni est doctorante au sein du groupe de recherche «Droit, science, technologie et société» (LSTS) de la faculté de droit et de criminologie de la Vrije Universiteit Brussel (VUB) et une ancienne  chercheuse FARI. Sa thèse porte sur les «divergences de discrimination entre les hommes et les femmes dans le règlement de l’UE sur l’IA, sous l’angle des épistémologies féministes et des controverses épistémiques». Elle a été chercheuse invitée à l’équipe de recherche iCourts de l’université de Copenhague et au Centre commun de recherche de la Commission européenne à Séville, ainsi que professeure invitée à l’Institut ITACA de l’Universitat Politèchnica de València.