EESO predlaga, naj EU razvije certifikat za zaupanja vredne izdelke umetne inteligence, ki bi ga izdajal neodvisni organ po preverjanju, ali izdelki izpolnjujejo bistvene zahteve, kot so odpornost, varnost ter neobstoj predsodkov, diskriminacije ali pristranskosti. Svoj predlog je podal v dveh nedavnih mnenjih, v katerih je ocenil etične smernice Evropske komisije za umetno inteligenco.
EESO meni, da bi se s takim certificiranjem močno povečalo zaupanje javnosti v umetno inteligenco v Evropi. Nekateri vztrajajo, da bodo ljudje zaupali v aplikacije umetne inteligence, če bodo algoritmi razložljivi. Dejstvo pa je, da so sistemi umetne inteligence in strojno učenje tako zapleteni, da tudi njihovi razvijalci dejansko ne vedo, kako se bodo obnašali, in morajo razviti preskusna orodja za ugotavljanje njihovih meja.
EESO predlaga, naj se preverjanje zaupa neodvisnemu organu – agenciji, konzorciju ali drugemu subjektu, ki ga je treba še določiti –, ki bo preskušal sisteme, kar zadeva predsodke, diskriminacijo, pristranskost, odpornost, robustnost in zlasti varnost. Podjetja bi lahko s certifikatom dokazovala, da razvijajo varne in zanesljive sisteme umetne inteligence, ki so skladni z evropskimi vrednotami in standardi.
„Izdelke umetne inteligence bi lahko primerjali z zdravili,“ je dejala Franca Salis-Madinier, poročevalka za splošno mnenje EESO o sporočilu Evropske komisije. „Zdravila so lahko koristna, vendar tudi nevarna, in morajo biti certificirana, preden jih damo na trg. Proizvajalci morajo dokazati, da so opravili zadosti preskusov, s katerimi so potrdili, da je njihov izdelek koristen. Enak pristop je potreben tudi za stroje z umetno inteligenco.“
EESO želi tudi poudariti, da je treba sprejeti jasna pravila o odgovornosti. Odgovornost mora biti vedno povezana z osebo, bodisi fizično ali pravno. „Stroji ne morejo biti odgovorni, če zatajijo,“ je dejal Ulrich Samm, poročevalec za mnenje EESO o umetni inteligenci v avtomobilskem sektorju in vplivu smernic. EESO poleg tega poudarja, da je treba prednostno obravnavati tudi vprašanje zavarovanja sistemov umetne inteligence. (dm)