Nell'intelligenza artificiale (IA) antropocentrica dell'UE non può esservi posto per il riconoscimento biometrico a scopi di tracciamento, sorveglianza e rilevamento di emozioni: lo afferma il CESE nella risposta al Libro bianco della Commissione sull'IA, adottata nella sua sessione plenaria del 16 luglio.

La Commissione europea ha proposto che un'applicazione di IA sia considerata ad alto rischio se riguarda un settore ad alto rischio (sanità, trasporti, energia e parti del settore pubblico) ed implica un uso ad alto rischio, con alcune eccezioni da definire. Solo se queste due condizioni sono soddisfatte si può parlare di IA ad alto rischio, che in quanto tale ricadrebbe nell'ambito di applicazione di normative e strutture di governance specifici.

Il CESE reputa che tale definizione rischi di lasciare aperte scappatoie potenzialmente pericolose.

"Considerate la pubblicità di natura politica veicolata tramite Facebook", afferma la relatrice del parere Catelijne Muller. "La pubblicità è un settore considerato a basso rischio, e la funzione di aggregazione delle notizie su Facebook può essere considerata come un uso a basso rischio; eppure abbiamo visto come, durante le campagne elettorali, la diffusione su Facebook di notizie false (fake news) e falsi realistici (deepfakes) generati con l'IA possa avere molteplici effetti negativi e influenzare il voto delle persone, con interferenze anche da parte di paesi terzi".

Il CESE ritiene più opportuno stilare un elenco di caratteristiche comuni da considerare ad alto rischio, a prescindere dal settore interessato.

Il CESE ribadisce che andrebbe vietato anche il riconoscimento biometrico basato sull'IA teso a sorvegliare, seguire, valutare o classificare le emozioni o i comportamenti umani, tanto più che - come sottolinea Catelijne Muller - non è scientificamente provato che sia possibile discernere i sentimenti di una persona sulla base dei suoi dati biometrici.

Il CESE mette inoltre in guardia contro la diffusione incontrollata delle tecnologie di tracciatura e localizzazione, che stanno prendendo piede nella società nel tentativo di contrastare il propagarsi del coronavirus.

"Le tecniche e le procedure dell'IA volte a combattere la pandemia dovrebbero essere altrettanto solide, efficaci, trasparenti e spiegabili di qualsiasi altra metodica di IA adoperata in una qualsiasi altra situazione", ammonisce Catelijne Muller, aggiungendo che esse "dovrebbero rispettare i diritti umani, i principi etici e le leggi vigenti. Dovrebbero inoltre essere applicate su base volontaria, perché - ci piaccia oppure no - molte delle tecniche introdotte durante questa crisi sono destinate a diventare permanenti". (dm)