Artificial Intelligence: Europe needs to take a human-in-command approach, says EESC

(Nederlandse versie hieronder)

The EU must adopt policies for the development, deployment and use of artificial intelligence (AI) in Europe in such a way as to ensure it works for, rather than against, society and social well-being, the EESC said in an own-initiative opinion on the societal impact of AI, identifying 11 areas that need to be addressed.

"We need a human-in-command approach to AI, where machines remain machines and people retain control over these machines at all times," said rapporteur Catelijne Muller (NL – Workers' Group). She did not refer to technical control alone: "Humans can and should also be in command of if, when and how AI is used in our daily lives – what tasks we transfer to AI, how transparent it is, if it is to be an ethical player. After all, it is up to us to decide if we want certain jobs to be performed, care to be given or medical decisions to be made by AI, and if we want to accept AI that may jeopardise our safety, privacy or autonomy," Ms Muller argued.

AI has experienced exponential growth in recent times. The AI market amounts to around USD 664 million and is expected to grow to USD 38.8 billion by 2025.  It is virtually undisputed that AI can have significant benefits for society: applications can be used to make farming more sustainable and production processes more environmentally friendly, improve the safety of transport, work and the financial system, provide better medical treatment and in countless other ways. Indeed, it could even potentially help eradicate disease and poverty.

But the benefits associated with AI can only be achieved if the challenges surrounding it are also addressed. The EESC has identified 11 areas where AI raises societal concerns, ranging from ethics, safety, transparency, privacy and standards to labour, education, access, laws and regulations, governance, democracy, but also warfare and superintelligence.

These challenges cannot be left to the business community alone: governments, the social partners, scientists and businesses should all be involved. The EESC believes it is time for the EU to set standards, taking pole-position globally in this area. "We need pan-European norms and standards for AI, much as we now have for food and household appliances. We need a pan-European ethical code to ensure that AI systems remain compatible with the principles of human dignity, integrity, freedom and cultural and gender diversity, as well as with fundamental human rights," stressed Catelijne Muller, "and we need labour strategies to retain or create jobs and ensure that workers keep autonomy and pleasure in their work".

Indeed, the question of AI's impact on work is central to the debate around AI in Europe, where unemployment rates are still high following the crisis. Although forecasts as to the scale of job losses resulting from the deployment of AI over the next 20 years range from a conservative 5% to a catastrophic 100% leading to a jobless society, the rapporteur believes it more likely that, as a recent McKinsey report anticipates, elements or parts of jobs, rather than entire jobs, will be swept away by AI. This is where education, lifelong learning and re-training must come into play to ensure workers are supported through the transformation and are not the victims of it.

The EESC opinion also calls for a European AI infrastructure with open-source learning environments that respect privacy, real-life test environments and high-quality data sets for developing and training AI systems. AI has mainly been developed by the "Big 5" (Amazon, Facebook, Apple, Google and Microsoft). Although these companies are supportive of the open development of AI and some of them make their AI development platforms available open-source, this does not guarantee full accessibility. An EU AI infrastructure, possibly with a European AI certification or label, could help promote the development of responsible, sustainable AI, but could also give the EU a competitive advantage.


Kunstmatige intelligentie: Europa heeft een ‘human in command-benadering’ nodig, zegt EESC

De EU moet een beleid voeren dat ervoor zorgt dat de ontwikkeling, inzet en het gebruik van artificial intelligence (AI) in Europa in het voordeel, en niet in het nadeel, werkt van de samenleving en het sociaal welzijn bevordert, zei het EESC in een initiatiefadvies over de maatschappelijke impact van AI waarin 11 domeinen voor actie worden gesignaleerd.

“We hebben een human in command-benadering van kunstmatige intelligentie nodig, waarbij machines machines blijven en mensen te allen tijde de controle over deze machines behouden”, zei rapporteur Catelijne Muller (NL - groep Werknemers). Ze had het niet alleen over technische controle: “Mensen kunnen en moeten ook bepalen of, wanneer en hoe AI wordt gebruikt in ons dagelijks leven, welke taken we toevertrouwen aan AI en hoe transparant en ethisch verantwoord dit allemaal is. Uiteindelijk bepalen we zelf of we willen dat bepaalde werkzaamheden worden uitgevoerd, zorg wordt verleend of medische besluiten worden genomen door AI, en of we willen accepteren dat AI onze veiligheid, privacy of autonomie misschien in gevaar brengt”, aldus mevrouw Muller.

Kunstmatige intelligentie heeft de laatste tijd een stormachtige groei doorgemaakt. De omvang van de markt voor AI bedraagt circa 664 miljoen USD en zal naar verwachting toenemen tot 38,8 miljard USD in 2025. Het is vrijwel onbetwist dat kunstmatige intelligentie grote maatschappelijke voordelen kan hebben: denk aan toepassingen voor duurzamere landbouw, milieuvriendelijkere productieprocessen, veiliger verkeer, veiliger werk, een veiliger financieel systeem, betere geneeskunde en nog veel meer. Artificial intelligence kan mogelijk zelfs bijdragen aan de uitbanning van ziekte en armoede.

Maar de voordelen van AI kunnen alleen worden gerealiseerd als ook de uitdagingen die ermee samenhangen worden aangepakt. Het EESC heeft 11 domeinen aangeduid waarbinnen AI voor maatschappelijke uitdagingen zorgt: variërend van ethiek, veiligheid, transparantie, privacy en standaarden tot arbeid, educatie, (on)gelijkheid en inclusiviteit, wet- en regelgeving, bestuur en democratie, naast oorlogsvoering en superintelligentie.

Deze uitdagingen mogen niet alleen bij het bedrijfsleven worden neergelegd: dit is een zaak van regeringen, sociale partners, wetenschappers en bedrijven samen. Het EESC vindt dat de EU beleidskaders moet vaststellen en hierin mondiaal een voortrekkersrol moet spelen. “We hebben pan-Europese normen en standaarden nodig voor AI, zoals we die nu voor voeding en huishoudelijke apparaten hebben. We hebben een pan-Europese ethische code nodig om ervoor te zorgen dat AI-systemen compatibel blijven met de beginselen van menselijke waardigheid, integriteit, vrijheid en culturele- en genderdiversiteit, evenals met de fundamentele mensenrechten”, aldus Catelijne Muller, “en we hebben arbeidsstrategieën nodig om banen te behouden of te creëren en ervoor te zorgen dat werknemers autonoom blijven en plezier houden in hun werk.”

De kwestie van de impact van AI op de werkgelegenheid staat inderdaad centraal in het debat over AI in Europa, waar de werkloosheid nog altijd hoog is als gevolg van de crisis. Hoewel de voorspellingen over het aantal banen dat de komende 20 jaar verloren gaat als gevolg van het inzetten van AI variëren van een kleine 5% tot een desastreuze 100%, met als gevolg een samenleving zonder banen, denkt de rapporteur op basis van een recent rapport van McKinsey dat het aannemelijker is dat onderdelen of delen van banen, en geen complete banen, zullen worden overgenomen door AI. In dit geval komt het aan op educatie, levenslang leren en bijscholing, om ervoor te zorgen dat werknemers de vruchten plukken van deze ontwikkelingen en er niet het slachtoffer van worden.

Het EESC-advies pleit ook voor een Europese AI-infrastructuur met open source en privacy respecterende leeromgevingen, reallife-testomgevingen en datasets van hoge kwaliteit voor ontwikkeling en training van AI-systemen. Kunstmatige intelligentie is vooral ontwikkeld door de “grote 5” (Amazon, Facebook, Apple, Google en Microsoft). Hoewel deze bedrijven voorstander zijn van de open ontwikkeling van AI, en sommigen hun AI-ontwikkelplatforms als ‘open source’ aanbieden, is volledige toegankelijkheid hiermee niet gewaarborgd. Een AI-infrastructuur voor de EU, eventueel met een Europese AI-certificering of labelling, kan niet alleen de ontwikkeling van verantwoorde en duurzame AI helpen bevorderen, maar ook de EU competitief voordeel opleveren.

 

Downloads

Artificial Intelligence - EESC Press Release CP 27