European Economic
and Social Committee
Inteligência artificial: legislação da UE deve estabelecer limites de segurança para aplicações de alto risco
A biometria para efeitos de seguimento, vigilância e deteção de emoções não tem lugar na estratégia europeia para a inteligência artificial (IA) centrada no ser humano, defende o CESE no seu Parecer – Livro Branco sobre a IA da Comissão Europeia, adotado na reunião plenária do CESE em julho.
A Comissão Europeia propôs que uma aplicação de IA seja considerada de alto risco se implicar um setor de alto risco (saúde, transportes, energia e partes do setor público) e uma utilização de alto risco, com a possibilidade de definir algumas exceções. Apenas se ambas as condições forem preenchidas será possível falar de IA de alto risco, a qual ficará sujeita a regulamentações e a estruturas de governação específicas.
O CESE considera que esta definição corre o risco de criar lacunas potencialmente perigosas.
«Vejamos a política de publicidade do Facebook», defendeu a relatora do parecer Catelijne Muller. «A publicidade é um setor de baixo risco e a função de compilação de notícias do Facebook pode ser considerada como uma utilização também de baixo risco. No entanto, verificámos que durante as campanhas eleitorais a disseminação no Facebook de notícias falsas e falsificações profundas geradas com recurso à IA pode ter muitos impactos negativos e influenciar o voto das pessoas, havendo mesmo interferências de fora da Europa.»
O CESE considera que seria mais judicioso elaborar uma lista de características comuns que devem ser consideradas de alto risco independentemente do setor.
O CESE insiste na proibição da biometria assente na IA para efeitos de vigilância ou de seguimento, avaliação ou categorização dos comportamentos humanos ou das suas emoções. «Tanto mais que não há provas científicas de que se pode distinguir os sentimentos de uma pessoa com base na sua biometria», sublinhou Catelijne Muller.
O CESE alerta ainda contra o impulso incontrolado, que começa a permear a nossa sociedade, de adotar tecnologia de localização e seguimento a fim de lutar contra a pandemia de COVID-19.
«As tecnologias e abordagens em matéria de IA para lutar contra a pandemia devem obedecer aos mesmos critérios de robustez, eficácia, transparência e fundamentação como qualquer outra tecnologia de IA noutras situações», afirmou Catelijne Muller. «Devem respeitar os direitos humanos, os princípios éticos e a legislação. Devem também ser voluntárias, pois, independentemente da nossa vontade, muitas das tecnologias adotadas durante a crise tornar-se-ão permanentes». (dm)