Die Verfolgung und Überwachung sowie die Erkennung von Emotionen mittels Biometrie sollten in Europas auf den Menschen ausgerichteter künstlicher Intelligenz (KI) keinen Platz haben, forderte der EWSA in seiner auf der Juli-Plenartagung verabschiedeten Stellungnahme zum Weißbuch zur Künstlichen Intelligenz der Europäischen Kommission.

Laut Europäischer Kommission sollte eine KI-Anwendung als mit hohem Risiko behaftet eingestuft werden, wenn sie sowohl in einem Sektor eingesetzt wird, in dem mit erheblichen Risiken zu rechnen ist (Gesundheitswesen, Verkehr, Energie und Teile des öffentlichen Sektors), als auch wenn ihr Einsatz an sich mit einem hohen Risiko verbunden ist. Nur wenn diese beiden Bedingungen erfüllt sind, sollte von hochriskanter KI gesprochen werden, die dann unter spezifische Vorschriften und eine eigene Governance-Struktur fallen sollte.

Der EWSA ist der Auffassung, dass diese Definition zu potenziell gefährlichen Schlupflöchern führen könnte.

„Nehmen wir die politische Werbung von Facebook“, so Berichterstatterin Catelijne Muller. „Werbung ist ein Bereich mit geringem Risiko, und die Nachrichtenaggregationsfunktion von Facebook kann als risikoarme Nutzung von KI betrachtet werden. Wir haben jedoch im Wahlkampf gesehen, dass die Verbreitung von Falschmeldungen und mittels KI generierter ‚Deepfakes‘ über Facebook viele negative Auswirkungen haben und das Wahlverhalten beeinflussen kann, und zwar auch von außerhalb Europas aus.“

Der EWSA hält es für besser, eine Liste gemeinsamer Merkmale zu erstellen, die eine Anwendung unabhängig vom betreffenden Sektor als hochriskant kennzeichnen.

Er besteht außerdem auf einem Verbot KI-gestützter biometrischer Erkennung zur Überwachung oder zur Verfolgung, Bewertung oder Kategorisierung menschlichen Verhaltens bzw. menschlicher Emotionen. Dies gelte laut Frau Muller umso mehr, als es keine wissenschaftlichen Belege dafür gibt, dass man die Gefühle eines Menschen anhand seiner Biometrie erkennen kann.

Der EWSA warnt darüber hinaus vor dem unkontrollierten Einsatz von Technologie zur Verfolgung und Rückverfolgung als Mittel zur Bekämpfung der Covid-19-Pandemie in unserer Gesellschaft.

„KI-gestützte Techniken und Ansätze zur Bekämpfung der Pandemie sollten genauso robust, wirksam, transparent und begründbar sein wie jede andere KI-Technik in jeder anderen Situation“, so Frau Muller. „Die Menschenrechte, die ethischen Grundsätze und die Rechtsvorschriften sollten gewahrt werden. Ihre Nutzung sollte überdies freiwillig sein, da viele Techniken, die während der Krise eingeführt wurden, zwangsläufig Bestand haben werden.“ (dm)