European Economic
and Social Committee
Sztuczna inteligencja w Europie: nie da się sprowadzić wszystkich decyzji do maszynowego języka złożonego z ciągu jedynek i zer
W dwóch sprawozdaniach w sprawie projektów przepisów UE dotyczących sztucznej inteligencji (AI) EKES apeluje o całkowity zakaz punktowej oceny zachowań społecznych i o wprowadzenie mechanizmu składania skarg i dochodzenia roszczeń dla osób, które poniosły szkodę w związku z systemem AI.
Na swej wrześniowej sesji plenarnej EKES wyraził zadowolenie w związku z propozycjami aktu w sprawie sztucznej inteligencji i skoordynowanego planu w sprawie sztucznej inteligencji.
Komitet uważa, że nowe przepisy rzeczywiście stawiają zdrowie, bezpieczeństwo i prawa podstawowe w centrum uwagi oraz mają wymiar globalny, gdyż określają szereg wymogów, które będą musieli spełnić twórcy wykorzystujący AI zarówno w Europie, jak i poza nią, jeśli chcą sprzedawać swoje produkty w UE.
Zdaniem EKES-u przedstawione propozycje mają jednak pewne słabe punkty, w tym w zakresie punktowej oceny zachowań obywateli. Komitet zwraca uwagę na niebezpieczeństwo rozpowszechnienia się tej praktyki w Europie, tak jak ma to już miejsce w Chinach, gdzie rząd może posunąć się nawet do odmówienia obywatelom dostępu do usług publicznych.
Zaproponowany akt w sprawie sztucznej inteligencji zakazuje stosowania przez organy publiczne w Europie systemów punktowej oceny zachowań społecznych, ale EKES pragnąłby, aby zakaz ten został rozszerzony na organizacje prywatne i półprywatne, tak aby wykluczyć takie zastosowania, jak wykorzystywanie punktowej oceny do ustalania, czy dana osoba kwalifikuje się do otrzymania pożyczki lub kredytu hipotecznego.
EKES zwraca również uwagę na niebezpieczeństwo związane ze sporządzeniem wykazu systemów sztucznej inteligencji wysokiego ryzyka, ostrzegając, że tego rodzaju podejście może normalizować i upowszechniać wiele praktyk związanych z AI, które nadal są mocno krytykowane. Dozwolone byłoby na przykład wykorzystywanie biometrii, w tym rozpoznawanie emocji lub emocjonalnej ekspresji, w ramach której analizuje się wyraz twarzy, ton głosu, postawę i gesty danej osoby, aby przewidzieć przyszłe zachowanie, wykryć kłamstwa, a nawet sprawdzić, czy dana osoba ma szansę odnieść sukces zawodowy. Również dozwolone byłoby ocenianie, punktowanie, a nawet zwalnianie pracowników w oparciu o AI, czy też ocenianie studentek i studentów na egzaminach.
Ponadto zaproponowane wymogi w odniesieniu do AI wysokiego ryzyka nie zawsze mogą złagodzić szkodliwe skutki tego rodzaju praktyk dla zdrowia, bezpieczeństwa i praw podstawowych. Stąd istnieje potrzeba wprowadzenia mechanizmu skarg i dochodzenia roszczeń, który zapewniłby osobom poszkodowanym przez systemy AI prawo do podważania decyzji podejmowanych wyłącznie przez algorytmy.
Akt w sprawie sztucznej inteligencji opiera się na założeniu, że po spełnieniu wymogów ustalonych dla sztucznej inteligencji średniego i wysokiego ryzyka AI może w znacznym stopniu zastąpić ludzki proces decyzyjny.
EKES zawsze zalecał przyjęcie podejścia opartego na zasadzie ludzkiej kontroli, ponieważ nie wszystkie decyzje można sprowadzić do maszynowego języka złożonego z ciągu jedynek i zer – twierdzi Cateljine Muller, sprawozdawczyni opinii EKES-u na temat aktu w sprawie sztucznej inteligencji. Wiele decyzji ma aspekt moralny i niesie ze sobą poważne skutki prawne i społeczne, na przykład w zakresie egzekwowania prawa i sądownictwa, usług społecznych, mieszkalnictwa, usług finansowych, edukacji i przepisów prawa pracy. Czy naprawdę jesteśmy gotowi pozwolić na to, aby AI zastąpiła ludzi w podejmowaniu decyzji, nawet w kluczowych procesach decyzyjnych dotyczących na przykład sądownictwa i egzekwowania prawa? – zapytuje sprawozdawczyni. (dm)