European Economic
and Social Committee
Un'IA "made in Europe" è possibile, ma bisogna lavorarci
a cura di Sandra PARTHIE
La legge sull'IA è il primo esempio al mondo di quadro giuridico globale che disciplina l'intelligenza artificiale.
L'uso di questa tecnologia è sempre più diffuso e incide su molti aspetti della nostra vita quotidiana. Ad esempio, attraverso annunci pubblicitari mirati, influenza le informazioni che tutti noi vediamo online. Cosa ancora più importante, è ora utilizzata nel settore sanitario per contribuire alla diagnosi e al trattamento di malattie come il cancro. A tal fine, le sue applicazioni si basano su modelli di IA per finalità generali, che devono essere addestrati. È necessario alimentarli con molte immagini di cellule cancerogene, ad esempio, affinché in ultimo riescano a riconoscerle autonomamente.
La riuscita di questo addestramento si basa sui dati, enormi quantità di dati. Le modalità di svolgimento dell'addestramento influiscono sulla qualità dei risultati del modello o applicazione di IA che si addestra. Se vengono alimentati con dati o immagini errati, identificheranno erroneamente le cellule sane come cellule cancerogene.
Il miglioramento dell'assistenza medica e sanitaria è un esempio convincente del motivo per cui è necessario che nell'UE vi siano la capacità e le infrastrutture per sviluppare modelli di IA per finalità generali sottostanti. Ciò, semplicemente, contribuirà a salvare vite umane.
Inoltre, l'IA per finalità generali (GPAI) è un fattore di svolta nei processi di produzione e anche per le imprese. Affinché l'economia europea rimanga competitiva, dobbiamo garantire lo spazio per l'innovazione all'interno dell'UE e incoraggiare gli imprenditori e le start-up a sviluppare le loro idee.
Naturalmente, vi sono rischi connessi all'IA e alla GPAI, che vanno dai difetti nei modelli e dai bug nelle applicazioni all'utilizzo della tecnologia per scopi criminali. Pertanto, l'UE deve anche disporre delle competenze necessarie per contrastare gli attacchi dolosi e le minacce informatiche, e poter contare su infrastrutture comuni situate nella stessa UE, per fare in modo che, in parole semplici, "le luci rimangano accese".
Tutto ciò dimostra l'importanza di disporre di una regolamentazione adeguata, che sia incentrata sulla qualità dei dati di addestramento dell'IA, sui metodi di addestramento e, in ultima analisi, sul prodotto finale. Deve basarsi su valori europei quali la trasparenza, la sostenibilità, la protezione dei dati o il rispetto dello Stato di diritto. Purtroppo molti dei principali sviluppi della GPAI sono determinati da attori al di fuori della giurisdizione dell'UE. Quest'ultima deve pertanto sviluppare le capacità per garantire che gli attori sia dell'UE che dei paesi terzi attivi nel nostro mercato rispettino le sue disposizioni normative e i valori europei.
L'Unione deve ridurre la posizione dominante sul mercato delle grandi imprese digitali, spesso non europee, anche mobilitando gli strumenti della politica di concorrenza. Le autorità garanti della concorrenza nell'UE devono far leva sulle loro capacità per garantire che gli hyperscaler (ossia, gestori di centri di elaborazione dati che offrono servizi scalabili di cloud computing) non abusino della loro posizione di mercato in un contesto B2B o B2G.
Le autorità pubbliche possono sostenere i fornitori europei di GPAI e di applicazioni IA acquistando i loro prodotti e dimostrando in tal modo la loro affidabilità ad altri utenti e clienti. L'UE possiede il talento, il know-how tecnologico e lo spirito imprenditoriale necessari per sviluppare "un'IA made in Europe", ma la mancanza di investimenti, la carenza di infrastrutture informatiche in questo settore e la continua frammentazione del mercato interno, che ostacola l'espansione, compromettono la competitività degli attori europei dell'IA.