European Economic
and Social Committee
Inteligența artificială în Europa: nu toate deciziile pot fi reduse la șiruri de unu și de zero
În două rapoarte privind proiectele de acte legislative ale UE privind inteligența artificială (IA), CESE solicită interzicerea completă a evaluării comportamentului social și introducerea unui mecanism de soluționare a plângerilor și de căi de atac pentru persoanele care au suferit prejudicii ca urmare a unui sistem de IA.
În sesiunea sa plenară din luna septembrie, CESE a salutat propunerea de lege privind inteligența artificială (AIA) și propunerea de Plan coordonat privind IA.
CESE este de părere că noua legislație plasează într-adevăr sănătatea, siguranța și drepturile fundamentale în centrul său și adoptă o perspectivă globală, prin stabilirea unor cerințe care vor trebui respectate atât de dezvoltatorii din Europa, cât și de cei din afara ei, dacă doresc să-și poată vinde produsele în UE.
În opinia CESE, propunerile prezintă unele deficiențe, inclusiv în domeniul evaluării comportamentului social. Comitetul trage un semnal de alarmă cu privire la răspândirea acestei practici în Europa, așa cum se întâmplă deja în China, unde guvernul poate merge până la a le interzice anumitor persoane accesul la servicii publice.
Proiectul de AIA include într-adevăr interzicerea evaluării comportamentului social efectuate de autorități publice în Europa, însă CESE ar dori ca această interdicție să fie extinsă și la organizațiile private și semiprivate, astfel încât să se excludă posibilitatea de a utiliza acest tip de evaluare pentru a stabili, de exemplu, dacă o persoană este eligibilă pentru un împrumut sau un credit ipotecar.
CESE atrage atenția totodată asupra pericolelor listei de IA „cu grad ridicat de risc”, avertizând că abordarea „pe bază de listă” poate normaliza sau integra un număr destul de mare de practici de IA care sunt încă puternic criticate. Recunoașterea biometrică, inclusiv a emoțiilor sau „recunoașterea emoțională”, în care expresiile feței, tonul vocii, postura sau gesturile unei persoane sunt analizate pentru a-i prezice comportamentul ulterior, a detecta minciuni sau chiar pentru a-i estima șansele de reușită la locul de muncă, ar urma să fie permise. Ar fi autorizate totodată evaluarea, notarea și chiar concedierea lucrătorilor pe baza AI, sau evaluarea elevilor și a studenților la examene.
În plus, cerințele propuse pentru IA cu grad ridicat de risc nu pot atenua întotdeauna prejudiciile la adresa sănătății, siguranței și drepturilor fundamentale pe care le generează aceste practici. În aceste condiții se impune introducerea unui mecanism de soluționare a plângerilor și de căi de atac care să confere persoanelor care au suferit prejudicii ca urmare a unui sistem de IA dreptul de a contesta deciziile luate exclusiv prin intermediul unui algoritm.
La nivel mai general, în opinia CESE, AIA se bazează pe premisa că, odată ce sunt îndeplinite cerințele privind IA cu grad mediu și ridicat de risc, IA poate înlocui în mare măsură procesul decizional uman.
„Noi, membrii CESE, am pledat dintotdeauna pentru o abordare de tipul human-in-command (bazată pe controlul uman) a IA, deoarece nu toate deciziile pot fi reduse la șiruri de unu și de zero”, declară Cateljine Muller, raportoare pentru avizul CESE privind AIA. „Multe decizii au o componentă morală și implicații juridice sau societale grave, ca în cazul asigurării respectării legii, al sistemului judiciar, al serviciilor sociale, al locuințelor, al serviciilor financiare, al relațiilor de muncă și al educației. Suntem oare cu adevărat pregătiți să permitem ca IA să înlocuiască deciziile umane, chiar și în cazul proceselor critice precum asigurarea aplicării legii și sistemul judiciar?” (dm)