Изкуственият интелект (ИИ) в Европа: не всички решения могат да се сведат до единици и нули

В двата си доклада относно проекта на законодателство на ЕС в областта на ИИ ЕИСК призовава за всеобхватна забрана на оценяването на гражданите и за механизъм за подаване на жалби и правна защита за хората, които са претърпели вреди от система с ИИ.

На септемврийската си пленарна сесия ЕИСК приветства предложения Законодателен акт за изкуствения интелект (ЗАИИ) и Координирания план за ИИ.

ЕИСК счита, че новото законодателство наистина поставя в центъра на вниманието здравето, безопасността и основните права и има влияние в световен мащаб, като определя редица изисквания, на които ще трябва да отговарят предприемачите както в Европа, така и извън нея, ако искат да продават продуктите си в ЕС.

Според ЕИСК има някои слабости в предложенията, включително в областта на „оценяването на гражданите“. Комитетът отбелязва опасността тази практика да възприета в Европа, както е в Китай, където правителството може да дори да откаже на хората достъп до обществени услуги.

Проектът за ЗАИИ включва забрана на оценяването на гражданите от страна на публичните органи в Европа, но ЕИСК би желал обхватът да бъде разширен, така че да обхване и частните и получастните организации, за да се изключи подобно използване в процедури като установяване дали дадено лице отговаря на условията за отпускане на заем или ипотека.

ЕИСК посочва също така опасностите от изброяването на случаи на „високорисков“ ИИ, като предупреждава, че този подход на изброяване може да нормализира и да интегрира редица практики на ИИ, които все още са силно критикувани. Би било позволено биометрично разпознаване, включително на емоция или състояние, когато изражението на лицето, тонът на гласа, позата и жестовете се анализират, за да се предвиди бъдещото поведение, да се открият лъжи и дори да се види дали има вероятност някой да има успех в дадена работа. По този начин ще се оценяват, точкуват и дори уволняват работници въз основа на ИИ или ще се оценяват ученици на изпит.

Освен това предложените изисквания за високорисков ИИ не могат винаги да смекчат вредите за здравето, безопасността и основните права, които тези практики представляват. Следователно е необходимо да се въведе механизъм за подаване на жалби и правна защита, който да даде на хората, които са претърпели вреди от системите с ИИ, правото да оспорват решения, взети единствено от алгоритъм.

В по-общ план според ЕИСК ЗАИИ действа въз основа на допускането, че след като бъдат изпълнени изискванията за ИИ със среден и висок риск, ИИ може в голяма степен да замени вземането на решения от човека.

„В ЕИСК винаги сме се застъпвали за подход, при който човекът остава този, който контролира, тъй като не всички решения могат да бъдат сведени до единици и нули“, заяви Кателайне Мюлер, докладчик по становището на ЕИСК относно ЗАИИ. „Много решения имат морален компонент, сериозни правни последици и значително обществено въздействие, например относно правоприлагането и съдебната система, социалните услуги, жилищното настаняване, финансовите услуги, образованието и трудовото законодателство. Готови ли сме да позволим на ИИ да замени вземането на решения от човека дори в процеси от критично значение като правоприлагането и съдебната система?“ (dm)