El CESE propone introducir una certificación de la UE para los productos fiables de inteligencia artificial

El CESE sugiere que la UE desarrolle una certificación para una inteligencia artificial (IA) fiable, que habrá de ser expedida por un organismo independiente tras someter a prueba los productos para comprobar que cumplen requisitos clave como la resistencia, la seguridad y la ausencia de prejuicios, discriminación o parcialidad. El CESE ha presentado esta propuesta en dos Dictámenes recientes en los que se evalúan las Directrices éticas de la Comisión Europea sobre la IA.

El CESE considera que esta certificación contribuiría en gran medida a aumentar la confianza de los ciudadanos en la IA en Europa. Hay quien considera que, para que la gente confíe en las aplicaciones de la IA, los algoritmos deben ser comprensibles; sin embargo, el hecho es que los sistemas de IA y el aprendizaje automático son tan complejos que hasta las personas que los desarrollan no saben realmente qué resultados arrojarán, y tienen que elaborar herramientas de prueba para ver dónde están sus límites.

El CESE propone confiar los ensayos a un organismo independiente —una agencia, un consorcio o cualquier otra entidad que se determine—, encargado de probar los sistemas para evaluar la ausencia de prejuicios, discriminación o parcialidad, así como su resistencia, robustez y, en particular, seguridad. Las empresas podrían valerse de la certificación para garantizar que desarrollan unos sistemas de IA seguros, fiables y conformes a los valores y las normas europeas.

«Se puede comparar a los productos de IA con medicamentos», afirma Franca Salis-Madinier, ponente del Dictamen del CESE sobre la Comunicación de la Comisión Europea. «Los medicamentos pueden ser beneficiosos, pero también peligrosos, y tienen que certificarse antes de ser comercializados. Los fabricantes deben demostrar que han realizado suficientes ensayos y pruebas para garantizar que su producto es beneficioso. Debería aplicarse el mismo enfoque a las máquinas de IA».

El CESE subraya asimismo la necesidad de disponer de normas claras en materia de responsabilidad. «La responsabilidad siempre debe estar vinculada a una persona, ya sea física o jurídica. Las máquinas no pueden ser consideradas responsables en caso de fallo», afirma Ulrich Samm, ponente del Dictamen del CESE sobre la IA y, en particular, las consecuencias de las directrices en el sector del automóvil. Para el CESE, la asegurabilidad de los sistemas de IA también es una cuestión que debe examinarse con carácter prioritario. (dm)