Biomeetria kasutamisel emotsioonide seireks, jälgimiseks ja tuvastamiseks ei tohiks olla kohta Euroopa inimkeskses tehisintellektis, leidis komitee oma juuli täiskogul vastu võetud vastuses Euroopa Komisjoni tehisintellekti käsitlevale valgele raamatule.
Euroopa Komisjoni ettepaneku kohaselt tuleks tehisintellektirakendus lugeda kõrge riskitasemega rakenduseks, kui see puudutab korraga nii kõrge riskitasemega sektorit (tervishoid, transport, energeetika ja mõned avaliku sektori osad) kui ka kõrge riskitasemega kasutusviisi, v.a mõned määratlemist vajavad erandid. Vaid juhul, kui mõlemad tingimused on täidetud, peaksime rääkima kõrge riskitasemegat tehisintellektist, mille suhtes kehtivad spetsiaalsed eeskirjad ja juhtimisstrukuurid.
Komitee on seisukohal, et see määratlus võib luua potentsiaalselt ohtlikke lünki.
Arvamuse raportöör Catelijne Muller väitis: „Võtame näiteks Facebooki poliitilise reklaami. Reklaam on madala riskitasemega sektor ja Facebooki uudiste koondamise funktsiooni võib pidada madala riskitasemega kasutuseks. Ent valimiskampaaniate ajal oleme kogenud, et valeuudiste levimisel Facebookis ja tehisintellekti abil loodud süvavõltsingutel võib olla palju negatiivseid mõjusid ja et need võivad mõjutada seda, kuidas inimesed hääletavad, kusjuures sekkuda võidakse ka väljastpoolt Euroopat.“
Komitee arvates oleks parem koostada loetelu ühistest omadustest, mille riskitaset tuleb olemuslikult pidada kõrgeks, valdkonnast olenemata.
Komitee rõhutab tungivalt, et keelata tuleks ka tehisintellektipõhine biomeetriline tuvastamine inimeste käitumise või emotsioonide jälgimiseks, hindamiseks või liigitamiseks. See on iseäranis vajalik, kuna puuduvad teaduslikud tõendid selle kohta, et suudame eristada inimese tundeid biomeetria alusel, toonitas Catelijne Muller.
Lisaks hoiatab komitee kontrollimatu kasvu eest tuvastus- ja jälgimistehnoloogia kasutamisel – see tehnoloogia võib leida tee meie ühiskonda meie püüete kaudu võidelda koroonaviiruse puhangu vastu.
„Koroonaviiruse pandeemia vastu võitlemiseks kasutatavad tehisintellekti meetodid ja lähenemisviisid peaksid olema sama stabiilsed, tõhusad, läbipaistvad ja selgitatavad nagu kõik teisedki tehisintellekti meetodid igas muus olukorras,“ ütles Catelijne Muller. „Need peaksid järgima inimõigusi, eetikapõhimõtteid ja õigusakte. Samuti peaksid need olema vabatahtlikud, sest paljud kriisi ajal kasutusele võetud meetodid muutuvad püsivaks, ükskõik, kas me seda soovime või mitte.“ (dm)