Inteligencia artificial: la legislación de la UE debe establecer límites seguros para las aplicaciones de alto riesgo, señala el CESE

En su respuesta al Libro Blanco de la Comisión Europea sobre la inteligencia artificial, que se aprobó en el pleno del CESE del 16 de julio, el Comité Económico y Social Europeo (CESE) señala que el reconocimiento biométrico para las aplicaciones de rastreo no debería tener cabida en el enfoque antropocéntrico europeo de la inteligencia artificial (IA).

La Comisión Europea ha propuesto que una aplicación de IA se considere de alto riesgo si implica tanto un sector de alto riesgo (la sanidad, el transporte, la energía y determinados ámbitos del sector público) como un uso de alto riesgo, con algunas excepciones que todavía están por definir. Solo si se cumplen estas dos condiciones, sugiere la Comisión, debería hablarse de IA de alto riesgo, que sería objeto de normas y estructuras de gestión específicas.

El CESE considera que esta definición corre el riesgo de crear lagunas potencialmente peligrosas. La publicidad política en Facebook ofrece un ejemplo paradigmático, afirma el Comité.

La publicidad es un sector de bajo riesgo y la función de agregación de noticias de Facebook puede considerarse de bajo riesgo. No obstante —sostiene la ponente, Catelijne Muller— hemos visto durante las campañas electorales que la difusión en Facebook de noticias falsas y falsedades profundas generadas con la ayuda de la IA puede tener efectos muy negativos e influir en el voto de las personas, con injerencias incluso de fuera de Europa.

¿Debería haber excepciones y cuántas debería haber? En lugar de establecer una lista de excepciones, el CESE considera que sería mejor elaborar una lista de características comunes que se consideren de alto riesgo, independientemente del sector en el que se empleen.

Muchas aplicaciones tienen una gran repercusión en los derechos fundamentales, afirma la Sra. Muller, no solo en cuanto a la intimidad de las personas, sino también en cuanto a su derecho a manifestarse o afiliarse a un sindicato, por ejemplo.

El lado oscuro del reconocimiento biométrico

El reconocimiento facial y biométrico es un ámbito clave en el que la IA afecta a los derechos fundamentales. Su uso puede permitirse para fines de identificación personal y, efectivamente, está regulado por el Reglamento general de protección de datos.

Sin embargo, debe prohibirse el uso generalizado del reconocimiento biométrico basado en IA para la vigilancia o para rastrear, evaluar o clasificar el comportamiento o las emociones de los seres humanos. Tanto más cuanto que no hay pruebas científicas que permitan discernir los sentimientos de una persona basándose en sus datos biométricos, subraya la Sra. Muller.

Aplicaciones de rastreo y localización para la COVID-19

El CESE también advierte de que se está produciendo un aumento incontrolado de la tecnología de rastreo y localización en nuestra sociedad, mucho más rápido y con mucho menos escrutinio que antes, en un intento de luchar contra el brote de coronavirus.

Las técnicas y enfoques de IA para luchar contra la pandemia deben ser tan sólidos, eficaces, transparentes y explicables como cualquier otra técnica de IA en cualquier otra situación, afirma la ponente del CESE. Deberían respetar los derechos humanos, los principios éticos y la legislación. También deberían ser de carácter voluntario, ya que, nos guste o no, muchas técnicas introducidas durante la crisis acabarán siendo permanentes.

El CESE confía en que la Comisión tenga en cuenta sus aportaciones, como ha hecho con las recomendaciones que ha presentado el CESE desde que emitió su Dictamen pionero sobre la IA en 2017, en el que defendió por primera vez un enfoque («humanos al mando») basado en el control humano de la IA en Europa.

Contexto general

El Libro Blanco sobre la IA, que forma parte de un amplio paquete de medidas sobre la IA anunciado en la Comunicación de la Comisión titulada «Configurar el futuro digital de Europa», expone:

·         medidas de racionalización de la investigación, fomento de la cooperación entre los Estados miembros e impulso a la inversión en IA;

·         opciones de actuación para un futuro marco regulador de la UE en materia de IA, con especial atención a las aplicaciones de alto riesgo.

En febrero de 2020, la Comisión puso en marcha una consulta pública sobre el Libro Blanco que finalizó el 14 de junio y recabó más de 1 200 respuestas a los cuestionarios y otras 700 respuestas por escrito. La Comisión está procesando estas aportaciones y publicará próximamente un informe.

Configurar el futuro digital de Europa esboza las acciones que la Comisión Europea tiene la intención de adoptar para garantizar una Europa adaptada a la era digital, una de las principales prioridades de Ursula von der Leyen para su mandato como presidenta del Ejecutivo europeo. Se basa en tres pilares:

·           una tecnología que esté al servicio de las personas;

·           una economía justa y competitiva;

·           una sociedad abierta, democrática y sostenible.

El CESE ha emitido sus orientaciones sobre el tema en un Dictamen separado, «Configurar el futuro digital de Europa», aprobado también en el pleno de julio del CESE, con una recomendación clave:

La enorme velocidad de la transformación digital significa que no sabemos qué novedades se producirán el próximo mes. Por lo tanto, debemos ser flexibles y adaptables. Esto requiere un diálogo constante entre todas las partes implicadas. El CESE, como voz de la sociedad civil organizada, debería formar parte de él, y pedimos a la Comisión que entable tal diálogo permanente, afirmó Ulrich Samm, ponente del Dictamen.