F’żewġ rapporti dwar abbozz ta’ leġiżlazzjoni tal-UE dwar l-IA, il-KESE jappella għal projbizzjoni kompleta fuq il-punteġġ soċjali u għal mekkaniżmu ta’ lmenti u rimedju għal persuni li jkunu sofrew ħsara minn sistema tal-IA.
Waqt il-plenarja ta’ Settembru, il-KESE laqa’ l-Att dwar l-Intelliġenza Artifiċjali u l-Pjan Ikkoordinat dwar l-Intelliġenza Artifiċjali
Il-KESE jħoss li l-leġiżlazzjoni l-ġdida tassew tpoġġi s-saħħa, is-sigurtà u d-drittijiet fundamentali fil-qalba tagħha, u tieħu xejra globali billi tistabbilixxi sensiela ta’ rekwiżiti li l-iżviluppaturi, Ewropej u le, iridu jikkonformaw magħhom jekk iridu jbiegħu l-prodotti tagħhom fl-UE.
Fil-fehma tal-KESE, il-proposti għandhom xi dgħufijiet, inklużi fil-qasam tal-“punteġġ soċjali”. Il-Kumitat jwissi kontra l-periklu li din il-prattika – li diġà tinsab fis-seħħ fiċ-Ċina, fejn il-gvern jista’ jinnega liċ-ċittadini l-aċċess għas-servizzi pubbliċi – tista’ tibda tintuża wkoll fl-Ewropa.
L-abbozz tal-Att dwar l-Intelliġenza Artifiċjali jinkludi projbizzjoni fuq il-punteġġ soċjali mill-awtoritajiet pubbliċi fl-Ewropa, iżda l-KESE jixtieq li din il-projbizzjoni tkun estiża għall-organizzazzjonijiet privati u semiprivati sabiex jiġi eskluż li dawn jużaw din il-prattika, pereżempju biex jiġi stabbilit jekk persuna hijiex eliġibbli għal self personali jew self ipotekarju.
Il-KESE jindika wkoll il-perikli li tiġi elenkata intelliġenza artifiċjali “b’riskju għoli”, u jwissi li dan l-approċċ ta’ elenkar jista’ jinnormalizza u jissemplifika numru ta’ prattiki tal-intelliġenza artifiċjali li għadhom ikkritikati ħafna. Jiġu permessi prattiki bħar-rikonoxximent bijometriku, inkluż tal-emozzjoni jew tas-sentimenti, fejn l-espressjonijiet tal-wiċċ, it-ton tal-vuċi, il-pożizzjoni u l-ġesti ta’ persuna jiġu analizzati sabiex titbassar imġiba futura, jiġi identifikat il-gideb u anke tiġi verifikata l-probabbiltà li xi ħadd jirnexxi f’impjieg. Jiġu permessi wkoll il-valutazzjoni, il-klassifikazzjoni u saħansitra t-tkeċċija ta’ ħaddiema abbażi tal-intelliġenza artifiċjali, jew li l-istudenti jiġu vvalutati waqt l-eżamijiet.
Barra minn hekk, ir-rekwiżiti proposti għall-intelliġenza artifiċjali b’riskju għoli mhux dejjem jistgħu jtaffu d-danni għas-saħħa, is-sigurtà u d-drittijiet fundamentali li dawn il-prattiki jimponu. Għalhekk hemm il-ħtieġa li jiġi introdott mekkaniżmu ta’ konformità u rimedju, li ser jagħti lil dawk li soffrew danni mis-sistemi tal-intelliġenza artifiċjali d-dritt li jikkontestaw deċiżjonijiet li ttieħdu purament minn algoritmu.
B’mod ġenerali, fil-fehma tal-KESE, l-Att dwar l-Intelliġenza Artifiċjali jaħdem fuq il-premessa li, ladarba jiġu ssodisfati r-rekwiżiti għall-intelliġenza artifiċjali b’riskju medju u kbir, l-intelliġenza artifiċjali tista’ tissostitwixxi fil-biċċa l-kbira t-teħid tad-deċiżjonijiet mill-bniedem.
Ir-relatur tal-Opinjoni tal-KESE dwar l-Att dwar l-Intelliġenza Artifiċjali, Cateljine Muller, tgħid li l-KESE minn dejjem appoġġja approċċ għall-intelliġenza artifiċjali bbażat fuq il-kontroll mill-bniedem, peress li mhux id-deċiżjonijiet kollha jistgħu jiġu ridotti għal numri binarji. Ħafna għandhom komponent morali, implikazzjonijiet legali serji u impatti soċjetali kbar, pereżempju fuq l-infurzar tal-liġi u l-ġudikatura, is-servizzi soċjali, l-akkomodazzjoni, is-servizzi finanzjarji, l-edukazzjoni u r-regolamenti tax-xogħol. Verament lesti li nippermettu lill-intelliġenza artifiċjali biex tissostitwixxi t-teħid tad-deċiżjonijiet mill-bniedem, anke fi proċessi kritiċi bħall-infurzar tal-liġi u l-ġudikatura? (dm)