In due pareri dedicati alle proposte legislative dell'UE in materia di intelligenza artificiale (IA), il Comitato economico e sociale europeo (CESE) chiede di introdurre un divieto assoluto di "punteggio sociale" e di creare un meccanismo di reclamo e ricorso per chi si reputi danneggiato da sistemi di IA.

Nella sessione plenaria di settembre il CESE ha accolto con favore le proposte di una legge sull'intelligenza artificiale e di un piano coordinato sull'IA.

La legislazione proposta, secondo il CESE, pone effettivamente al centro la salute, la sicurezza e i diritti fondamentali e assume una portata globale fissando una serie di requisiti che gli sviluppatori, europei e non, dovranno rispettare se vogliono vendere i loro prodotti nell'UE.

Il CESE individua una serie di punti deboli nelle proposte in esame, anzitutto, ma non solo, riguardo al problema dell'attribuzione dei cosiddetti "punteggi sociali". Il Comitato segnala infatti il pericolo che questa pratica – già corrente in Cina, dove le autorità possono giungere a negare ai cittadini l'accesso a servizi pubblici – possa prendere piede anche in Europa.

La proposta di legge sull'IA vieta in tutta l'UE pratiche di valutazione sociale da parte delle autorità pubbliche, ma il CESE vorrebbe che tale divieto fosse esteso anche alle organizzazioni private e semiprivate, onde evitare che anch'esse possano ricorrere a tali pratiche, ad esempio per stabilire se una persona sia ammissibile a un prestito personale o a un mutuo ipotecario.

Il CESE sottolinea inoltre i pericoli insiti nell'elencazione di una serie di applicazioni di IA "ad alto rischio", avvertendo che un approccio di questo tipo (iscrizione in un apposito elenco) rischia di far considerare "normali" – e quindi generalizzare l'uso di – una serie di impieghi dell'IA ancora fortemente controversi. Sarebbero infatti ammesse pratiche come il riconoscimento biometrico, compreso quello delle emozioni o dei sentimenti, in cui le espressioni facciali, il tono della voce, la postura e i gesti di una persona sono analizzati per prevederne i comportamenti futuri, individuarne le menzogne e persino verificarne le probabilità di successo in una data occupazione. E sarebbe permesso valutare, classificare e persino licenziare i lavoratori utilizzando sistemi di IA o valutare gli studenti nelle sessioni di esame con l'ausilio di tali sistemi.

Inoltre, i requisiti di cui la legge propone di imporre il rispetto per l'IA ad alto rischio non sempre possono attenuare i danni alla salute, alla sicurezza e ai diritti fondamentali che tali pratiche comportano. Da qui la necessità di introdurre un meccanismo di reclamo e ricorso affinché le persone che subiscono danni a causa dei sistemi di IA abbiano il diritto di contestare le decisioni prese esclusivamente da un algoritmo.

Più in generale, secondo il CESE, la legge sull'IA si basa sul presupposto che, una volta soddisfatti i requisiti relativi all'IA a medio e alto rischio, questa possa sostituire in larga misura il processo decisionale umano.

"Al CESE abbiamo sempre propugnato un approccio all'intelligenza artificiale basato sul controllo umano, perché non tutte le decisioni possono essere ridotte a delle cifre binarie", spiega Catelijne Muller, relatrice del parere del CESE sull'IA. "Molte decisioni, infatti, hanno una componente morale, gravi implicazioni giuridiche e importanti ripercussioni per la società: è il caso, ad esempio, dell'applicazione della legge da parte degli organi giurisdizionali e di polizia, ma anche della prestazione dei servizi sociali, abitativi e finanziari, dell'istruzione e delle norme in materia di lavoro. Siamo davvero disposti a permettere all'IA di sostituire il processo decisionale umano anche in processi critici come l'attività di contrasto e quella giudiziaria?". (dm)