Sztuczna inteligencja: prawo UE powinno ustanawiać bezpieczne granice dla zastosowań wysokiego ryzyka

W swojej odpowiedzi na białą księgę Komisji Europejskiej w sprawie sztucznej inteligencji, przyjętej na lipcowej sesji plenarnej, EKES stwierdził, że w europejskiej sztucznej inteligencji, zorientowanej na człowieka, nie powinna mieć miejsca identyfikacja biometryczna w celu śledzenia i nadzoru ludzi oraz wykrywania emocji.

Komisja Europejska zaproponowała, aby dane zastosowanie sztucznej inteligencji było uznawane za zastosowanie wysokiego ryzyka w przypadkach, gdy łączy sektor wysokiego ryzyka (chodzi o sektory: opieki zdrowotnej, transportu, energii i częściowo sektor publiczny) i wykorzystanie wysokiego ryzyka, przy czym należałoby określić pewną liczbę wyjątków. Tylko w przypadku wystąpienia obu tych okoliczności powinniśmy mówić o sztucznej inteligencji wysokiego ryzyka. Takie sytuacje powinny być regulowane szczególnymi przepisami i mieć przypisane odpowiednie struktury zarządzania.

EKES uważa, że taka definicja może spowodować powstanie potencjalnie niebezpiecznych luk prawnych.

„Przyjrzyjmy się reklamie politycznej na Facebooku” – mówi sprawozdawczyni opinii Catelijne Muller. „Reklama jest sektorem niskiego ryzyka, a funkcja agregacji wiadomości na Facebooku może zostać uznana za wykorzystanie niskiego ryzyka. Jednakże w trakcie kampanii wyborczych można było zauważyć, że rozpowszechnianie na Facebooku fałszywych wiadomości i informacji typu deepfake utworzonych za pomocą sztucznej inteligencji może mieć wiele negatywnych konsekwencji i wywierać wpływ na to, jak ludzie głosują, a źródła tego wpływu znajdowały się nawet poza Europą”.

EKES uważa, że należałoby raczej sporządzić wykaz elementów, które wskazywałyby na wysokie ryzyko, niezależnie od sektora.

Zdaniem Komitetu należy również zakazać SI na potrzeby identyfikacji biometrycznej do celów nadzoru lub śledzenia, oceny lub kategoryzacji ludzi lub ludzkich zachowań lub emocji. Catelijne Muller podkreśliła, że należy tak uczynić tym bardziej dlatego, iż nie ma dowodów naukowych na to, aby możliwe było rozpoznanie uczuć danej osoby na podstawie danych biometrycznych.

Ponadto EKES przestrzega przed niekontrolowanym wykorzystywaniem w społeczeństwie technologii identyfikacji i śledzenia w celu zwalczania pandemii koronawirusa.

„Oparte na SI techniki i podejścia do zwalczania pandemii powinny być tak samo solidne, skuteczne, przejrzyste i możliwe do wyjaśnienia jak wszelkie inne zastosowania SI w innych sytuacjach” – stwierdziła Catelijne Muller. „Przy ich stosowaniu należy respektować prawa człowieka, zasady etyczne i prawodawstwo. Powinny one być również dobrowolne, ponieważ niezależnie od tego, czy nam się to podoba czy nie, wiele technologii wprowadzonych w czasie kryzysu zacznie trwale obowiązywać”. (dm)