Tekoäly: EU:n lainsäädännössä olisi asetettava turvalliset rajat suuririskisille sovelluksille

Biometrisen tunnistamisen tunteiden jäljittämistä, valvontaa ja havainnointia varten ei pitäisi kuulua EU:n ihmiskeskeiseen tekoälyyn, ETSK sanoo heinäkuun täysistunnossa hyväksytyssä vastauksessaan tekoälyä käsittelevään komission valkoiseen kirjaan.

Euroopan komissio on ehdottanut, että tekoälysovellusta olisi pidettävä suuririskisenä, jos se koskee sekä riskialtista alaa (terveydenhuolto, liikenne, energia ja osa julkista sektoria) että riskialtista käyttöä, mihin on määriteltävä eräitä poikkeuksia. Vain jos molemmat ehdot täyttyvät, voitaisiin puhua suuririskisestä tekoälystä, jota koskevat erityiset säännöt ja hallintorakenteet.

ETSK katsoo, että tällainen määrittely saattaa luoda vaarallisia porsaanreikiä.

”Ajatellaanpa esimerkiksi Facebookin poliittisia mainoksia”, toteaa lausunnon esittelijä Catelijne Muller. ”Mainonta on matalariskinen ala ja Facebookin uutta uutiskoostepalvelua voidaan pitää matalariskisenä käyttönä. Vaalikampanjoiden aikana on kuitenkin nähty, että tekoälyn avulla luotujen valeuutisten ja huijausvideoiden levittämisellä kaikkialla Facebookissa voi olla monia kielteisiä vaikutuksia, ja niillä voidaan vaikuttaa äänestyksiin jopa Euroopan ulkopuolelta.”

ETSK katsoo, että olisi parempi laatia luettelo yhteisistä piirteistä, joita olisi pidettävä suuririskisinä alasta riippumatta.

ETSK painottaa, että myös tekoälyyn perustuva biometrinen tunnistaminen ihmisten käyttäytymisen tai tunteiden valvontaan, jäljittämiseen, arviointiin tai luokitteluun olisi kiellettävä. Tämä on sitäkin tärkeämpää, koska ei ole olemassa tieteellistä näyttöä siitä, että ihmisen tunteita voitaisiin tunnistaa biometriikan perusteella, Muller korostaa.

Lisäksi ETSK varoittaa, että koronaviruksen torjunnan varjolla yhteiskuntaan on ujuttautumassa hallitsemattomien jäljitys- ja seurantateknologiasovellusten vyöry.

”Pandemian torjuntaan tarkoitettujen tekoälytekniikoiden ja -lähestymistapojen tulisi olla yhtä vakaita, tehokkaita, avoimia ja selitettäviä kuin minkä tahansa tekoälytekniikan muissakin tilanteissa”, toteaa Muller. ”Niiden olisi kunnioitettava ihmisoikeuksia, eettisiä periaatteita ja lainsäädäntöä. Niiden tulisi olla myös vapaaehtoisia, koska monista kriisin aikana käyttöön otetuista tekniikoista tulee pysyviä, halusimme tai emme.” (dm)