Intelligence artificielle: «l’Europe doit opter pour une approche où l’homme reste aux commandes», affirme le CESE

(Nederlandse versie hieronder)

L’UE doit adopter des politiques grâce auxquelles l’intelligence artificielle (IA) pourra être développée, déployée et utilisée en Europe d’une manière qui garantisse qu’elle œuvre en faveur de la société et du bien-être social et non pas à l’encontre de ceux-ci, a déclaré le CESE dans un avis d’initiative sur l’impact sociétal de l’IA, qui recense onze domaines dans lesquels des réponses doivent être apportées.

«En matière d’IA, nous avons besoin d’une approche où l’homme reste aux commandes (human-in-command approach) et où les machines restent des machines que les hommes ne cessent jamais de contrôler», a déclaré la rapporteure, Catelijne Muller (Pays-Bas – groupe des travailleurs). Elle n’évoquait pas uniquement le contrôle technique: «Les hommes peuvent et doivent également continuer à décider si, quand et comment l’IA est utilisée dans notre vie quotidienne; quelles tâches nous lui confions, quel est son degré de transparence, si l’on veut en faire un dispositif éthique. Après tout, c’est à nous qu’il appartient de décider si nous voulons que certains emplois soient confiés à l’IA, qu’elle soit chargée de donner des soins ou de prendre des décisions médicales, et si nous voulons accepter qu’elle mette en péril notre sécurité, notre vie privée ou notre autonomie», a rappelé Mme Muller.

Ces dernières années, l’IA a connu une croissance exponentielle. Le marché qu’elle représente s’élève à environ 664 millions de dollars américains (USD) et devrait, selon les estimations, atteindre 38,8 milliards d’USD en 2025. Presque personne ne conteste que l’IA peut apporter de nombreux avantages à la société: des applications peuvent être utilisées pour rendre l’agriculture plus durable et les processus de production moins polluants, améliorer la sécurité des transports et sur le lieu de travail, rendre le système financier plus stable, fournir des soins médicaux d’une meilleure qualité, et l’on pourrait citer d’innombrables autres exemples. De fait, elle pourrait même contribuer à éradiquer les maladies et la pauvreté.

Mais les avantages liés à l’IA ne pourront être acquis que si l’on relève également les défis qui l’entourent. Le CESE a identifié onze domaines dans lesquels l’IA soulève des enjeux de société, à savoir l’éthique, la sécurité, la transparence, la vie privée et les normes du travail, l’éducation, l’accessibilité, la législation et la réglementation, la gouvernance, la démocratie, mais aussi la guerre et la superintelligence.

Ces défis ne sauraient être relevés par les entreprises seules; les gouvernements, les partenaires sociaux, les scientifiques et les entreprises doivent tous prendre part à l’effort. Le CESE estime qu’il est temps, pour l’Union européenne, de définir des normes et de jouer un rôle moteur à l’échelle mondiale dans ce domaine. «Nous avons besoin de normes paneuropéennes dans le domaine de l’IA, à l’instar de celles qui régissent aujourd’hui des secteurs tels que l’alimentation et les appareils ménagers. Nous avons besoin d’un code éthique paneuropéen garantissant que les systèmes d’IA restent compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux», a souligné Catelijne Muller, «et des stratégies dans le domaine de l’emploi sont nécessaires pour maintenir ou créer des emplois et veiller à ce que les travailleurs conservent de l’autonomie et du plaisir au travail».

En effet, la question de l’incidence de l’IA sur l’emploi est au cœur du débat qu’elle suscite en Europe, où les taux de chômage demeurent élevés suite à la crise. Bien que les prévisions concernant l’ampleur des suppressions d’emplois qui résulteront du déploiement de l’IA au cours des vingt prochaines années vont d’une approche prudente (chiffrant les pertes à 5 %) à une estimation catastrophique (100 %) annonçant une société sans emploi, la rapporteure juge qu’il est plus probable que, comme le prévoit le récent rapport McKinsey, ce ne soient pas des professions entières qui seront balayées par l’IA, mais plutôt certaines de leurs composantes. C’est là que doivent intervenir l’éducation, l’apprentissage tout au long de la vie et la reconversion, afin de faire en sorte que les travailleurs soient soutenus tout au long de cette transformation et n’en soient pas les victimes.

L’avis du CESE plaide en outre pour une infrastructure d’IA européenne, avec des cadres d’apprentissage libres (open source) et respectueux de la vie privée, des environnements d’essai en situation réelle (real life) et des séries de données de haute qualité pour le développement et la formation de systèmes d’IA. L’IA a pour l’essentiel été développée par les cinq grandes entreprises technologiques appelées «Big 5» (Amazon, Google, Apple, Facebook et Microsoft). Bien que ces entreprises soient favorables à un développement ouvert de l’IA, et que certaines d’entre elles proposent leurs plateformes de développement de l’IA en format libre, cela ne suffit pas pour garantir une accessibilité totale. Une infrastructure d’IA européenne, avec la possibilité d’une certification ou d’un étiquetage européens, pourrait contribuer à promouvoir le développement d’une IA responsable et durable, tout en offrant à l’UE un avantage concurrentiel.


Kunstmatige intelligentie: Europa heeft een ‘human in command-benadering’ nodig, zegt EESC

De EU moet een beleid voeren dat ervoor zorgt dat de ontwikkeling, inzet en het gebruik van artificial intelligence (AI) in Europa in het voordeel, en niet in het nadeel, werkt van de samenleving en het sociaal welzijn bevordert, zei het EESC in een initiatiefadvies over de maatschappelijke impact van AI waarin 11 domeinen voor actie worden gesignaleerd.

“We hebben een human in command-benadering van kunstmatige intelligentie nodig, waarbij machines machines blijven en mensen te allen tijde de controle over deze machines behouden”, zei rapporteur Catelijne Muller (NL - groep Werknemers). Ze had het niet alleen over technische controle: “Mensen kunnen en moeten ook bepalen of, wanneer en hoe AI wordt gebruikt in ons dagelijks leven, welke taken we toevertrouwen aan AI en hoe transparant en ethisch verantwoord dit allemaal is. Uiteindelijk bepalen we zelf of we willen dat bepaalde werkzaamheden worden uitgevoerd, zorg wordt verleend of medische besluiten worden genomen door AI, en of we willen accepteren dat AI onze veiligheid, privacy of autonomie misschien in gevaar brengt”, aldus mevrouw Muller.

Kunstmatige intelligentie heeft de laatste tijd een stormachtige groei doorgemaakt. De omvang van de markt voor AI bedraagt circa 664 miljoen USD en zal naar verwachting toenemen tot 38,8 miljard USD in 2025. Het is vrijwel onbetwist dat kunstmatige intelligentie grote maatschappelijke voordelen kan hebben: denk aan toepassingen voor duurzamere landbouw, milieuvriendelijkere productieprocessen, veiliger verkeer, veiliger werk, een veiliger financieel systeem, betere geneeskunde en nog veel meer. Artificial intelligence kan mogelijk zelfs bijdragen aan de uitbanning van ziekte en armoede.

Maar de voordelen van AI kunnen alleen worden gerealiseerd als ook de uitdagingen die ermee samenhangen worden aangepakt. Het EESC heeft 11 domeinen aangeduid waarbinnen AI voor maatschappelijke uitdagingen zorgt: variërend van ethiek, veiligheid, transparantie, privacy en standaarden tot arbeid, educatie, (on)gelijkheid en inclusiviteit, wet- en regelgeving, bestuur en democratie, naast oorlogsvoering en superintelligentie.

Deze uitdagingen mogen niet alleen bij het bedrijfsleven worden neergelegd: dit is een zaak van regeringen, sociale partners, wetenschappers en bedrijven samen. Het EESC vindt dat de EU beleidskaders moet vaststellen en hierin mondiaal een voortrekkersrol moet spelen. “We hebben pan-Europese normen en standaarden nodig voor AI, zoals we die nu voor voeding en huishoudelijke apparaten hebben. We hebben een pan-Europese ethische code nodig om ervoor te zorgen dat AI-systemen compatibel blijven met de beginselen van menselijke waardigheid, integriteit, vrijheid en culturele- en genderdiversiteit, evenals met de fundamentele mensenrechten”, aldus Catelijne Muller, “en we hebben arbeidsstrategieën nodig om banen te behouden of te creëren en ervoor te zorgen dat werknemers autonoom blijven en plezier houden in hun werk.”

De kwestie van de impact van AI op de werkgelegenheid staat inderdaad centraal in het debat over AI in Europa, waar de werkloosheid nog altijd hoog is als gevolg van de crisis. Hoewel de voorspellingen over het aantal banen dat de komende 20 jaar verloren gaat als gevolg van het inzetten van AI variëren van een kleine 5% tot een desastreuze 100%, met als gevolg een samenleving zonder banen, denkt de rapporteur op basis van een recent rapport van McKinsey dat het aannemelijker is dat onderdelen of delen van banen, en geen complete banen, zullen worden overgenomen door AI. In dit geval komt het aan op educatie, levenslang leren en bijscholing, om ervoor te zorgen dat werknemers de vruchten plukken van deze ontwikkelingen en er niet het slachtoffer van worden.

Het EESC-advies pleit ook voor een Europese AI-infrastructuur met open source en privacy respecterende leeromgevingen, reallife-testomgevingen en datasets van hoge kwaliteit voor ontwikkeling en training van AI-systemen. Kunstmatige intelligentie is vooral ontwikkeld door de “grote 5” (Amazon, Facebook, Apple, Google en Microsoft). Hoewel deze bedrijven voorstander zijn van de open ontwikkeling van AI, en sommigen hun AI-ontwikkelplatforms als ‘open source’ aanbieden, is volledige toegankelijkheid hiermee niet gewaarborgd. Een AI-infrastructuur voor de EU, eventueel met een Europese AI-certificering of labelling, kan niet alleen de ontwikkeling van verantwoorde en duurzame AI helpen bevorderen, maar ook de EU competitief voordeel opleveren.

 

Downloads

Artificial Intelligence - EESC Press Release CP 27