Ve svých dvou stanoviscích k návrhům právních předpisů EU o umělé inteligenci vyzývá EHSV k úplnému zákazu přidělování sociálního kreditu a k zavedení mechanismu pro vyřizování stížností a zjednávání nápravy pro lidi, kteří utrpěli újmu ze strany systému umělé inteligence.

EHSV na svém zářijovém plenárním zasedání ocenil návrh aktu o umělé inteligenci i Koordinovaného plánu v oblasti umělé inteligence.

Výbor konstatuje, že nová legislativa skutečně klade prvořadý důraz na zdraví, bezpečnost a základní práva a má celosvětový význam, neboť stanoví řadu požadavků, které budou muset vývojáři v Evropě i mimo ni splnit, pokud chtějí své výrobky prodávat v EU.

Návrhy však mají podle EHSV i určité nedostatky, jako např. v oblasti přidělování sociálního kreditu. Výbor poukazuje na nebezpečí, jež hrozí v případě, že se tato praxe prosadí v Evropě, stejně jako se to stalo v Číně, kde může vláda zajít tak daleko, že lidem odepře přístup k veřejným službám.

Návrh aktu o umělé inteligenci sice obsahuje zákaz přidělování sociálního kreditu ze strany veřejných orgánů v Evropě, EHSV však podporuje rozšíření tohoto zákazu, aby se vztahoval i na soukromé a polosoukromé organizace, a vyloučilo se tak využívání tohoto systému například za účelem posouzení úvěruschopnosti žadatele.

EHSV rovněž upozorňuje na nebezpečí spojená s vytvořením seznamu vysoce rizikové umělé inteligence a varuje, že tento přístup může vést k normalizaci a běžnému využívání celé řady postupů v oblasti umělé inteligence, které jsou stále silně kritizovány. Bylo by tak možné provádět biometrické rozpoznávání včetně rozpoznávání emocí nebo afektů, při němž by byl analyzován výraz obličeje dané osoby, tón jejího hlasu, držení těla a gesta s cílem předpovědět její budoucí chování, odhalit lži, nebo dokonce určit, zda je vhodným uchazečem o práci. A stejně tak by bylo možné na základě umělé inteligence posuzovat, klasifikovat, či dokonce propouštět pracovníky nebo hodnotit studenty u zkoušek.

Navrhované požadavky na vysoce rizikovou umělou inteligenci navíc nemohou vždy zmírnit riziko, které představuje pro zdraví, bezpečnost a základní práva a jež je s jejím využíváním spojeno. Je proto nezbytné zavést mechanismus pro vyřizování stížností a zjednávání nápravy, aby tak občané, kteří v důsledku používání systémů umělé inteligence utrpěli újmu, mohli napadnout rozhodnutí přijatá jen na základě nějakého algoritmu.

Obecněji vzato se EHSV domnívá, že akt o umělé inteligenci vychází z předpokladu, že jakmile budou splněny požadavky pro středně a vysoce rizikovou umělou inteligenci, může umělá inteligence do značné míry nahradit lidské rozhodování.

„V EHSV se dlouhodobě zasazujeme o to, aby na umělou inteligenci vždy dohlížel člověk. O všem totiž nemohou rozhodovat algoritmy,“ prohlásila autorka stanoviska EHSV k tomuto tématu Catelijne Muller. „Řada těchto rozhodnutí obsahuje morální složku a má závažné právní důsledky a dalekosáhlý společenský dopad, například v oblasti prosazování práva, soudnictví, sociálních služeb, bydlení, finančních služeb, vzdělávání a pracovněprávních předpisů. Skutečně jsme připraveni umožnit, aby umělá inteligence nahradila rozhodování člověka i v tak zásadních oblastech, jako je prosazování práva a soudnictví?“ (dm)