European Economic
and Social Committee
Inteligența artificială: legislația UE ar trebui să stabilească limite sigure pentru aplicațiile cu risc ridicat
Recunoașterea biometrică pentru activități de urmărire, supraveghere și detectare a emoțiilor nu ar trebui să își aibă locul în inteligența artificială (AI) centrată pe factorul uman, afirmă CESE în răspunsul său la Cartea albă privind IA a Comisiei Europene, adoptată în sesiunea plenară a CESE din iulie.
Comisia Europeană a propus ca o aplicație IA să fie considerată cu risc ridicat dacă, pe de o parte, este utilizată într-un sector cu risc ridicat (asistență medicală, transporturi, energie și unele părți ale sectorului public) și, pe de altă parte, este utilizată în așa fel încât să apară riscuri semnificative, cu câteva excepții care urmează să fie definite. Doar dacă aceste două condiții sunt îndeplinite putem vorbi despre IA cu risc ridicat, care ar intra sub incidența unor reglementări și structuri de guvernanță specifice.
CESE consideră că această definiție riscă să genereze lacune potențial periculoase.
„Să ne gândim la publicitatea de pe Facebook”, spune raportoarea avizului, dna Catelijne Muller. „Publicitatea este un sector cu risc redus, iar serviciul de agregare a știrilor oferit de Facebook poate fi privit ca o utilizare cu risc redus. Și totuși, am văzut în timpul campaniilor electorale că răspândirea pe Facebook a știrilor false și a materialelor deepfake generate cu ajutorul IA poate avea numeroase consecințe negative și influența modul în care oamenii votează, în condițiile unor interferențe chiar și din afara Europei.”
CESE consideră că ar fi mai bine să se stabilească o listă de caracteristici comune care să fie considerate cu risc ridicat, indiferent de sector.
CESE insistă asupra faptului că recunoașterea biometrică bazată pe IA pentru a supraveghea sau pentru a urmări, a evalua sau clasifica comportamentul sau emoțiile umane ar trebui de asemenea interzisă. Cu atât mai mult cu cât nu există dovezi științifice că putem discerne sentimentele unei persoane pe baza datelor sale biometrice, subliniază dna Muller.
În plus, CESE avertizează împotriva răspândirii necontrolate a tehnologiei de urmărire, care își găsește drumul în societatea noastră în contextul eforturilor de combatere a pandemiei de coronavirus.
„Tehnicile și abordările IA pentru a combate pandemia ar trebui să fie la fel de robuste, eficace, transparente și explicabile ca orice altă aplicație a IA în orice altă situație”, afirmă dna Muller. „Ele ar trebui să respecte drepturile omului, principiile etice și legislația. De asemenea, ele ar trebui utilizate pe bază voluntară, dat fiind că, ne place sau nu, multe aplicații introduse în timpul crizei vor deveni permanente”. (dm)