En dos dictámenes dedicados a sendos proyectos legislativos de la UE sobre inteligencia artificial, el CESE aboga por la prohibición absoluta de la puntuación social y por la instauración de un mecanismo de reclamación y reparación para las personas que han sufrido daños causados por un sistema de IA.

Así, en el pleno de septiembre, el CESE acogió favorablemente las propuestas de Ley de Inteligencia Artificial y de plan coordinado sobre la inteligencia artificial.

El CESE considera que la nueva legislación otorga realmente un papel central a la salud, la seguridad y los derechos fundamentales, además de tener un alcance mundial al establecer una serie de requisitos que deben cumplir los desarrolladores situados tanto en Europa como fuera de ella si quieren comercializar sus productos en la UE.

El CESE considera que las propuestas presentan algunas carencias, en particular en materia de puntuación social. El Comité advierte del peligro que entraña esta práctica que está ganando terreno en Europa –así como en China– mediante la cual un gobierno puede llegar incluso a denegar el acceso de la ciudadanía a determinados servicios públicos.

Aunque el proyecto de Ley de Inteligencia Artificial prevé la prohibición de la puntuación social por parte de las autoridades en Europa, el CESE recomienda ampliar el alcance de esta prohibición para incluir las clasificaciones sociales de organismos privados y semipúblicos con vistas a excluir tales usos a la hora de determinar si un particular puede optar a un préstamo o a una hipoteca.

El CESE señala, asimismo, el riesgo que representa enumerar las soluciones de IA que presentan un alto riesgo, ya que ello puede desembocar en la normalización e integración de un gran número de prácticas de IA que todavía reciben muchas críticas. Ello supondría autorizar la identificación biométrica, incluido el reconocimiento de las emociones o de los afectos, mediante el análisis de las expresiones faciales, el tono de voz, la postura y los gestos de una persona para predecir su comportamiento futuro, detectar mentiras e incluso evaluar la probabilidad de que alguien desempeñe con éxito determinado empleo. También se podría llegar a utilizar la IA para evaluar y despedir a trabajadores, o incluso puntuar los exámenes de los estudiantes.

Además, el cumplimiento de los requisitos establecidos para la IA de alto riesgo no reduce necesariamente los riesgos de menoscabo de la salud, la seguridad y los derechos fundamentales que suscitan dichas prácticas. Además, la necesidad de incluir un mecanismo de denuncia y recurso otorgaría a quienes se han visto perjudicados por un sistema de IA el derecho a cuestionar decisiones tomadas únicamente en base a algoritmos.

Con carácter más general, el CESE considera que la Ley de Inteligencia Artificial parte de la base de que, una vez que se cumplan los requisitos para la IA de riesgo medio y alto, la IA puede suplantar en gran medida la toma de decisiones de las personas.

«El CESE viene abogando por un planteamiento de tipo “control humano”, ya que no todas las decisiones pueden reducirse a ceros y unos», afirma Cateljine Muller, ponente del Dictamen del CESE sobre la Ley de Inteligencia Artificial. «Muchas de estas decisiones comportan un elemento moral y repercusiones jurídicas o sociales de envergadura, por ejemplo en los ámbitos judicial y policial, los servicios sociales, la vivienda, los servicios financieros, la enseñanza y las relaciones laborales. ¿Estamos realmente dispuestos a permitir que la IA suplante la toma de decisiones de las personas incluso en procesos críticos como las actuaciones policiales o el ejercicio del poder judicial?» (dm)