Mākslīgais intelekts Eiropā: visus lēmumus nav iespējams reducēt līdz vieniniekiem un nullēm

Divos ziņojumos par Eiropas Savienības tiesību aktu projektiem mākslīgā intelekta jomā EESK aicina pilnībā aizliegt sociālo novērtēšanu un ieviest tiesiskās aizsardzības mehānismu cilvēkiem, kuri ir cietuši mākslīgā intelekta sistēmas kaitējuma dēļ.

Septembra plenārsesijā EESK atzinīgi novērtēja ierosināto Mākslīgā intelekta aktu un Koordinēto mākslīgā intelekta plānu.

EESK skatījumā jauno tiesību aktu centrā tiešām likta veselība, drošība un pamattiesības, un tiem būs globāla ietekme, jo ir noteiktas prasības, kas izstrādātājiem būs jāievēro gan Eiropā, gan ārpus tās, ja tie vēlas pārdot savus produktus Eiropas Savienībā.

EESK skatījumā priekšlikumiem piemīt dažas nepilnības, tostarp sociālās novērtēšanas jomā. Komiteja brīdina par apdraudējumu, ko rada šāda prakse, kas izplatās Eiropā tieši tāpat, kā tas notiek Ķīnā, kur valdība var arī liegt cilvēkiem piekļuvi publiskajiem pakalpojumiem.

Mākslīgā intelekta akta projekts ietver aizliegumu publiskajām iestādēm Eiropā veikt sociālo novērtēšanu, bet EESK vēlētos, lai aizliegums tiktu attiecināts arī uz privātām un daļēji privātām organizācijām un tiktu izslēgts pielietojums tādām vajadzībām, kā vērtēšana, vai cilvēkam var izsniegt aizdevumu vai nostiprināt hipotēku.

EESK norāda arī uz apdraudējumu, kādu rada augsta riska mākslīgā intelekta sarakstu veidošana, un brīdina, ka šīs pieejas dēļ var normalizēties un ieviesties tādi mākslīgā intelekta paņēmieni, kas joprojām izpelnās sīvu kritiku. Tiktu atļauta biometriskā atpazīšana, tostarp emocionālā vai afektīvā uztveršana, kas nozīmē cilvēka sejas izteiksmes, balss toņa, stājas un žestu analizēšanu ar mērķi paredzēt tālāko rīcību, atklāt melus un prognozēt, vai cilvēks varēs veiksmīgi pildīt savu darbu. Tāpat tiktu pieļauta strādājošo profilēšana, vērtēšana un pat atlaišana, balstoties uz mākslīgo intelektu, vai arī izglītojamo vērtēšana eksāmenos.

Turklāt ierosinātās prasības augsta riska mākslīgajam intelektam ne vienmēr varēs novērst šīs prakses izraisīto kaitējumu veselībai, drošībai un pamattiesībām. Tāpēc arī ir nepieciešams ieviest sūdzību un pārsūdzības mehānismu, kas cilvēkiem, kuri būs cietuši no mākslīgā intelekta sistēmu izraisītā kaitējuma, dos tiesības vērsties pret algoritma izdarītiem lēmumiem.

No EESK viedokļa raugoties plašāk, mākslīgā intelekta akts balstās uz pieņēmumu, ka mākslīgais intelekts var lielā mērā aizstāt cilvēka pieņemtus lēmumus, ja ir izpildītas vidēja un augsta riska mākslīgajam intelektam noteiktās prasības.

“Mākslīgā intelekta jomā mēs EESK vienmēr esam atbalstījuši pieeju, kur vadībā ir cilvēks, jo visus lēmumus nav iespējams reducēt līdz vieniniekiem un nullēm,” norāda EESK atzinumu sagatavojusī ziņotāja Catelijne Muller. “Daudzi lēmumi ietver ētikas elementus, rada nopietnas tiesiskas sekas un spēcīgi ietekmē sabiedrību, piemēram, tiesībaizsardzības un juridiskā, sociālo pakalpojumu, mājokļa, finanšu pakalpojumu, izglītības un darba tiesību jomā.” Vai mēs tiešām esam gatavi atļaut mākslīgajam intelektam pieņemt lēmumus cilvēku vietā tādās kritiski svarīgās jomās kā tiesību aizsardzība un tiesas process? (dm)