CESE propõe certificação da UE para produtos de inteligência artificial fiáveis

O CESE propõe que a UE institua uma certificação para os produtos de inteligência artificial fiáveis, que deverá ser emitida por um organismo independente após ter testado o seu desempenho à luz de critérios essenciais, como a capacidade de resistência, a segurança e a ausência de preconceitos, discriminação ou parcialidade. A proposta foi apresentada em dois pareceres recentes do CESE sobre as orientações éticas da Comissão Europeia em matéria de inteligência artificial.

O CESE considera que tal certificação contribuiria significativamente para reforçar a confiança dos cidadãos europeus na inteligência artificial. Embora haja quem insista em que é necessário tornar os algoritmos inteligíveis para que as pessoas confiem nas aplicações de inteligência artificial, o facto é que os sistemas de inteligência artificial e de aprendizagem automática são tão complexos que nem mesmo quem os desenvolve sabe ao certo qual será o seu resultado, tendo que conceber instrumentos de ensaio para conhecer as limitações desses mesmos sistemas.

O CESE propõe que estes ensaios sejam confiados a um organismo independente – uma agência, um consórcio ou qualquer outra entidade a determinar – que testaria os sistemas, avaliando o seu desempenho no que toca à ausência de preconceitos, discriminação e parcialidade, bem como à capacidade de resistência, robustez e, particularmente, segurança. As empresas poderiam utilizar a certificação para demonstrar que estão a desenvolver sistemas de inteligência artificial seguros, fiáveis e conformes com as normas e os valores europeus.

Segundo Franca Salis-Madinier, relatora do parecer do CESE sobre a comunicação da Comissão Europeia, «podemos comparar os produtos de inteligência artificial aos medicamentos. Os medicamentos podem ser benéficos, mas também perigosos, e antes de poderem ser colocados no mercado têm de ser submetidos a um processo de certificação. Os fabricantes têm de demonstrar que efetuaram ensaios e testes suficientes para assegurar que o seu produto é benéfico. Devemos adotar esta mesma abordagem para as máquinas de inteligência artificial».

O CESE salienta ainda que é necessário definir regras claras em matéria de responsabilidade. «A responsabilidade deve estar sempre ligada a uma pessoa, seja ela singular ou coletiva. As máquinas não podem ser responsabilizadas em caso de erro», afirma Ulrich Samm, relator do parecer do CESE sobre as implicações das orientações éticas em matéria de inteligência artificial para o setor automóvel. Segundo o CESE, a segurabilidade dos sistemas de inteligência artificial é outra questão que tem de ser analisada com caráter prioritário. (dm)