A mesterséges intelligenciára vonatkozó uniós jogszabálytervezetekről szóló két jelentésében az EGSZB a társadalmi pontozás teljes betiltását kéri, illetve egy panasztételi és jogorvoslati mechanizmus létrehozását szorgalmazza azok számára, akik valamilyen kárt szenvedtek bármilyen mesterséges intelligenciára épülő rendszer miatt.

Szeptemberi plenáris ülésén az EGSZB üdvözölte a mesterséges intelligenciáról szóló rendeletet, illetve a mesterséges intelligenciáról szóló összehangolt tervet.

Az EGSZB szerint az új jogszabály középpontjában valóban az egészségügy, a biztonság és az alapvető jogok állnak. Emellett a rendeletnek globális visszhangja is van, mivel egy sor olyan követelményt is meghatároz, amelynek az uniós és a nem uniós fejlesztőknek is meg kell felelniük, amennyiben termékeiket az uniós piacon akarják értékesíteni.

Az EGSZB azonban úgy látja, hogy a javaslatoknak vannak gyenge pontjaik is: ilyen például a „társadalmi pontozás” területe. Az EGSZB felhívja a figyelmet arra, hogy veszélyekkel jár, ha Európában is elterjed ez a gyakorlat, amely Kínában már annyira teret nyert, hogy ott a kormány akár egyes közszolgáltatásokat is megtagadhat emberektől.

A mesterséges intelligenciáról szóló jogszabály tervezetében szerepel, hogy az állami hatóságok Európában nem alkalmazhatják a társadalmi pontozást, de az EGSZB azt szeretné, ha ezt a tilalmat kiterjesztenék a magán és félmagán szervezetekre is, hogy így ne lehessen ezt a gyakorlatot például annak eldöntésére alkalmazni, hogy valaki kaphat-e hitelt.

Az EGSZB figyelmeztet a magas kockázatú mesterségesintelligencia-rendszerek felsorolásának veszélyeire is, mivel szerinte ez a gyakorlat számos olyan mesterségesintelligencia-alkalmazást normalizálhat és elterjeszthet, amellyel kapcsolatban még sok a kifogás. Megengedett lenne például a biometrikus azonosítás, azaz az érzelemfelismerés vagy érzelmi arcfelismerés, amikor annak érdekében elemzik egy személy arckifejezéseit, hanghordozását, testtartását és gesztusait, hogy előrejelezzék jövőbeli viselkedését, észleljék, hogy hazudik-e, vagy akár megállapítsák, hogy valószínűleg sikeres lesz-e egy állásban. Ennek alapján pedig mesterséges intelligencia segítségével lehetne értékelni, pontozni, illetve adott esetben az így kapott eredmények alapján akár elbocsátani munkavállalókat vagy vizsgáztatni diákokat.

Ráadásul a magas kockázatú mesterségesintelligencia-alkalmazásokhoz javasolt követelmények révén sem lehet mindig enyhíteni azokat a károkat, amelyekkel ezeknek a rendszereknek az alkalmazása járhat az egészségre, a biztonságra vagy az alapvető jogokra nézve. Ezért van tehát szükség egy olyan panasztételi és jogorvoslati mechanizmus bevezetésére, amelynek segítségével azok, akik valamilyen kárt szenvedtek bármilyen mesterséges intelligenciára épülő rendszer miatt, óvást emelhetnének az olyan döntések ellen, amelyeket kizárólag egy algoritmus hozott meg.

Általánosságban az EGSZB véleménye az, hogy a mesterséges intelligenciáról szóló jogszabály arra a feltételezésre épül, hogy amint teljesülnek a közepes és a magas kockázatú mesterségesintelligencia-alkalmazásokra vonatkozó követelmények, a mesterséges intelligencia nagyrészt helyettesítheti az emberi döntéshozatalt.

„Mi itt, az EGSZB-nél mindig is a mesterséges intelligencia »emberi vezérlés« alapú megközelítését propagáltuk, mivel szerintünk nem lehet minden döntést egyszerűen algoritmusok szintjén meghozni” – fogalmaz Catelijne Muller, a mesterséges intelligenciáról szóló jogszabállyal foglalkozó EGSZB-vélemény előadója. „Sok döntésnél van erkölcsi szempont is, a döntéseknek komoly jogi következményei és jelentős társadalmi hatásai lehetnek, például a bűnüldözésre és az igazságszolgáltatásra, a szociális szolgáltatásokra, a lakhatásra, a pénzügyi szolgáltatásokra, az oktatásra és a munkaügyi szabályozásra nézve. Fel kell tennünk tehát a kérdést, hogy készek vagyunk-e lehetővé tenni, hogy a mesterséges intelligencia helyettesítse az emberi döntéshozatalt olyan kritikus folyamatokban is, mint a bűnüldözés és az igazságszolgáltatás.” (dm)