Em dois relatórios relativos a projetos de legislação sobre a inteligência artificial (IA), o CESE apela a uma proibição total da classificação social e a um mecanismo de reclamação e recurso para as pessoas que foram lesadas por um sistema de IA.
Na reunião plenária de setembro, o CESE acolheu favoravelmente a proposta de Regulamento Inteligência Artificial e a comunicação sobre um plano coordenado em matéria de IA.
O CESE considera que a nova legislação coloca efetivamente a tónica na saúde, na segurança e nos direitos fundamentais e tem um impacto global ao estabelecer uma série de requisitos a cumprir pelos programadores, dentro e fora da Europa, se quiserem comercializar os seus produtos na UE.
O CESE considera que as propostas apresentam algumas lacunas, nomeadamente no que se refere à «classificação social». O Comité alerta para o perigo de esta prática ganhar terreno na Europa como está a acontecer na China, onde o governo pode mesmo negar o acesso das pessoas a serviços públicos.
O projeto de Regulamento Inteligência Artificial prevê efetivamente a proibição da classificação social por autoridades públicas, mas segundo o CESE há que alargar a sua aplicação às organizações privadas e às autoridades semipúblicas, para excluir utilizações que visem, por exemplo, determinar se certa pessoa é elegível para um empréstimo ou um crédito hipotecário.
O CESE alerta igualmente para os perigos de categorizar os sistemas de IA de risco elevado, pois essa abordagem pode normalizar e generalizar uma série de práticas de IA que ainda são objeto de duras críticas. Assim, seria permitido o reconhecimento biométrico, que comporta o reconhecimento de emoções ou afetivo, em que se analisam as microexpressões faciais de uma pessoa, o tom de voz, a postura e os gestos para predizer o comportamento futuro, detetar mentiras e mesmo para verificar se alguém poderá ter êxito num emprego. Também seria permitido avaliar, classificar e mesmo despedir trabalhadores com base na IA ou até avaliar estudantes em exames.
Além disso, os requisitos propostos aplicáveis aos sistemas de IA de elevado risco nem sempre podem minorar os danos que essas práticas colocam à saúde, à segurança e aos direitos fundamentais. Por essa razão, importa criar um mecanismo de reclamação e recurso para que as pessoas lesadas por sistemas de IA tenham o direito de recorrer de decisões tomadas com base exclusivamente num algoritmo.
De modo geral, na opinião do CESE, o Regulamento Inteligência Artificial assenta na premissa de que, uma vez cumpridos os requisitos para sistemas de IA de risco médio e elevado, a IA pode substituir, em grande medida, a decisão humana.
«O CESE desde há muito que defende a abordagem assente na “detenção do controlo da IA por humanos”, pois nem todas as decisões podem ser reduzidas a “zeros” e “uns”», afirmou Catelijne Muller, relatora do Parecer do CESE – Regulamento Inteligência Artificial. «Muitas decisões têm uma componente moral e implicações jurídicas graves ou um grande impacto social, por exemplo no sistema judicial, na manutenção da ordem pública, nos serviços sociais, na habitação, nos serviços financeiros, na educação e nas relações laborais. Estaremos verdadeiramente dispostos a permitir que a IA substitua a tomada de decisões humana, incluindo em processos cruciais, como a manutenção da ordem pública e o sistema judiciário?» (dm)