Изкуствен интелект: в законодателството на ЕС следва да се определят безопасни граници за високорисковите приложения

В приетия на пленарната сесия през юли отговор на Бялата книга за изкуствения интелект (ИИ) на Европейската комисия, ЕИСК заявява, че Европа не бива да позволява използването в ориентирания към човека изкуствен интелект (ИИ) на биометричното разпознаване за целите на проследяването, наблюдението и откриването на емоции.

Европейската комисия предложи да се счита, че дадено приложение, използващо ИИ, представлява висок риск, ако се отнася едновременно до високорисков сектор (здравеопазване, транспорт, енергетика и части от публичния сектор) и използването му е с висок риск, с няколко изключения, които трябва да бъдат определени. Само ако тези две условия са изпълнени, следва да говорим за високорисков ИИ, който би попаднал в обхвата на специфични регламенти и структури за управление.

ЕИСК счита, че това определение създава опасност от допускане на потенциално опасни „вратички“.

„Да вземем например политическата реклама във Facebook“, обясни Кателайне Мюлер, докладчик по становището. „Рекламата е нискорисков сектор и функцията за агрегиране на новини на Facebook може да се разглежда като употреба с малък риск. По време на предизборни кампании обаче видяхме, че разпространението във Facebook на фалшиви новини и дълбинни фалшификати, генерирани с помощта на ИИ, може да има много отрицателни последици и да повлияе на начина, по който хората гласуват, дори с намеса извън Европа.“

ЕИСК счита, че би било по-добре да се изготви списък с общи характеристики, които да се считат за високорискови области, независимо от сектора.

ЕИСК настоява за забрана на използването на биометрично разпознаване чрез ИИ за наблюдение или локализиране, оценяване или категоризиране на човешкото поведение или емоциите. Още повече, че няма научни доказателства за това, че можем да разпознаваме чувствата на дадено лице по неговите биометрични данни, подчертава г-жа Мюлер.

Освен това ЕИСК предупреждава срещу неконтролираното разрастване на технологията за локализиране и проследяване, която се използва все повече в нашето общество в стремежа му да се бори срещу разпространението на коронавируса.

„Техниките, свързани с ИИ, и подходите за борба с пандемията следва да бъдат също толкова стабилни, ефективни, прозрачни и да могат да се обяснят като всички други техники в областта на ИИ в която и да е друга ситуация“, заяви г-жа Мюлер. „Следва да зачитат правата на човека, етичните принципи и законодателството. Освен това следва да бъдат доброволни, тъй като независимо дали ни харесва или не, много техники, въведени по време на кризата, ще станат постоянно използвани“. (dm)