Il CESE propone di introdurre una certificazione europea per i prodotti affidabili di intelligenza artificiale

Il CESE raccomanda che l'UE istituisca una certificazione per un'intelligenza artificiale affidabile, che dovrà essere rilasciata da un organismo indipendente dopo aver testato i prodotti sotto il profilo di requisiti fondamentali quali la resilienza, la sicurezza e l'assenza di pregiudizi, discriminazioni o condizionamenti. La proposta è stata presentata in due recenti pareri del CESE in cui sono stati esaminati gli orientamenti etici della Commissione europea sull'intelligenza artificiale.

Il CESE ritiene che tale certificazione contribuirebbe notevolmente ad accrescere la fiducia dei cittadini nei confronti dell'intelligenza artificiale in Europa. Come insistono alcuni, affinché le persone abbiano fiducia nelle applicazioni di intelligenza artificiale, è necessario che gli algoritmi siano spiegabili, ma è anche vero che i sistemi di intelligenza artificiale e l'apprendimento automatico sono talmente complessi che persino gli stessi sviluppatori non sanno veramente quali saranno i risultati e devono mettere a punto strumenti di prova per capire dove si collocano i limiti.

Il CESE propone di affidare questi test a un organismo indipendente (un'agenzia, un consorzio o un altro soggetto da definire) che verifichi i sistemi per valutare l'assenza di pregiudizi, discriminazioni e condizionamenti, la resilienza, la solidità e, soprattutto, la sicurezza. Le imprese potrebbero avvalersi del certificato per dimostrare che i sistemi di intelligenza artificiale che stanno sviluppando sono sicuri, affidabili e in linea con i valori e le norme europee.

"I prodotti di intelligenza artificiale sono paragonabili ai medicinali", afferma Franca Salis-Madinier, relatrice del parere generale del CESE in merito alla comunicazione della Commissione europea. "I medicinali possono essere benefici ma possono anche essere pericolosi, e prima di poter essere immessi sul mercato devono essere certificati. I fabbricanti devono dimostrare di aver effettuato prove e test sufficienti a garantire che il loro prodotto apporti effettivamente dei benefici. Lo stesso approccio dovrebbe essere adottato per le macchine dotate di intelligenza artificiale."

Il CESE evidenzia anche la necessità di regole chiare in materia di responsabilità. La responsabilità deve sempre essere legata a una persona, sia essa fisica o giuridica. Le macchine non possono essere ritenute responsabili in caso di guasto", ha sottolineato Ulrich Samm, relatore del parere del CESE in merito all'intelligenza artificiale e in particolare alle implicazioni degli orientamenti nel settore automobilistico. Come sottolinea il CESE, un'altra questione che deve essere affrontata in via prioritaria è quella dell'assicurabilità dei sistemi di intelligenza artificiale. (dm)