Inteligencia artificial: la legislación de la UE debe establecer límites seguros para las aplicaciones de alto riesgo

En su respuesta al Libro Blanco de la Comisión Europea sobre la inteligencia artificial, que se aprobó en el pleno del CESE del mes de julio, el CESE señala que el reconocimiento biométrico para rastreo, vigilancia y detección de emociones no debería tener cabida en la inteligencia artificial (IA) centrada en el ser humano en Europa.

La Comisión Europea ha propuesto que una aplicación de IA se considere de alto riesgo si implica tanto un sector de alto riesgo (la sanidad, el transporte, la energía y determinados ámbitos del sector público) como un uso de alto riesgo, con algunas excepciones que hay que definir. Solo si se cumplen estas dos condiciones debería hablarse de IA de alto riesgo, que sería objeto de normas y estructuras de gestión específicas.

El CESE considera que esta definición corre el riesgo de crear lagunas potencialmente peligrosas.

«Por ejemplo, en lo que respecta a la publicidad política en Facebook» —sostiene la ponente, Catelijne Muller— «La publicidad es un sector de bajo riesgo y la función de agregación de noticias de Facebook puede considerarse de bajo riesgo. No obstante, hemos visto durante las campañas electorales que la difusión en Facebook de noticias falsas y falsedades profundas generadas con la ayuda de la IA puede tener efectos muy negativos e influir en el voto de las personas, con injerencias incluso de fuera de Europa».

El CESE considera que sería mejor elaborar una lista de características comunes que se consideren de alto riesgo, independientemente del sector en el que se empleen,

e insiste en que también debería prohibirse el reconocimiento biométrico basado en IA para vigilar o para rastrear, evaluar o clasificar el comportamiento o las emociones de los seres humanos. Tanto más cuanto que no hay pruebas científicas que permitan discernir los sentimientos de una persona basándose en sus datos biométricos, subraya Cateljine Muller.

El CESE advierte además de un aumento incontrolado que se está produciendo en la tecnología de rastreo y localización en nuestra sociedad, en un intento de luchar contra el brote de coronavirus.

«Las técnicas y enfoques de IA para luchar contra la pandemia deben ser tan sólidos, eficaces, transparentes y explicables como cualquier otra técnica de IA en cualquier otra situación», afirma la Sra. Muller. «Deberían respetar los derechos humanos, los principios éticos y la legislación. También deberían ser de carácter voluntario, ya que, nos guste o no, muchas técnicas introducidas durante la crisis acabarán siendo permanentes». (dm)