CESE propune introducerea certificării UE pentru produsele IA de încredere

CESE consideră că UE ar trebui să elaboreze o certificare pentru o IA fiabilă, care ar urma să fie emisă de un organism independent în urma testării produselor în privința unor cerințe-cheie cum ar fi reziliența, siguranța și absența prejudecăților, a discriminării sau a parțialității. Propunerea a fost avansată în două avize recente ale CESE, care au evaluat orientările Comisiei Europene în materie de etică privind IA.

CESE consideră că o astfel de certificare ar aduce o contribuție semnificativă la creșterea încrederii publicului european în IA. Se insistă uneori asupra faptului că, pentru ca publicul să aibă încredere în aplicațiile IA, este necesar ca algoritmii să poată fi explicați, dar adevărul este că sistemele IA și învățarea automatizată sunt atât de complexe, încât nici dezvoltatorii lor nu cunosc de fapt care vor fi rezultatele concrete și trebuie să creeze instrumente de testare pentru a constata care le sunt limitele.

CESE propune ca testarea să fie încredințată unui organ independent – o agenție, un consorțiu sau o altă entitate care urmează a fi stabilită –, care ar urma să testeze sistemele, verificând atât absența prejudecăților, a discriminării și a parțialității, cât și reziliența, robustețea și, în special, siguranța. Întreprinderile ar putea utiliza certificatul pentru a dovedi că dezvoltă sisteme IA sigure, fiabile și conforme cu valorile și standardele europene.

„Produsele IA pot fi comparate cu medicamentele”, susține dna Franca Salis-Madinier, raportoarea avizului general al CESE privind comunicarea Comisiei Europene. „Medicamentele pot fi benefice, dar și periculoase, și, înainte de a putea fi introduse pe piață, trebuie certificate. Producătorii trebuie să probeze că au efectuat suficiente experimente și teste pentru a se asigura că produsul lor este benefic. În cazul echipamentelor IA ar trebui adoptată aceeași abordare”.

De asemenea, CESE subliniază că este necesar să existe norme clare privind răspunderea. „Răspunderea trebuie să revină întotdeauna unei persoane fizice sau juridice. Echipamentele nu pot fi considerate răspunzătoare în caz de disfuncționalitate”, declară dl Ulrich Samm, raportorul avizului CESE pe tema „Inteligența artificială în sectorul autovehiculelor”. CESE subliniază că și posibilitatea de asigurare a sistemelor IA este o chestiune care trebuie examinată cu prioritate. (dm)