Σε δύο εκθέσεις σχετικά με το σχέδιο νομοθεσίας της ΕΕ για την τεχνητή νοημοσύνη (ΤΝ), η ΕΟΚΕ ζητεί την καθολική απαγόρευση της κοινωνικής βαθμολόγησης και τη θέσπιση μηχανισμού καταγγελιών και προσφυγών για τους πολίτες που έχουν υποστεί ζημία από κάποιο σύστημα ΤΝ.
Κατά τη σύνοδο ολομέλειας του Σεπτεμβρίου, η ΕΟΚΕ επιδοκίμασε την προτεινόμενη Πράξη για την τεχνητή νοημοσύνη (AIA) και το Συντονισμένο σχέδιο για την ΤΝ.
Η ΕΟΚΕ εκτιμά ότι η νέα νομοθεσία θέτει πραγματικά στο επίκεντρο την υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα και έχει παγκόσμιο αντίκτυπο θεσπίζοντας μια σειρά απαιτήσεων με τις οποίες θα πρέπει να συμμορφώνονται οι προγραμματιστές εντός και εκτός Ευρώπης εάν επιθυμούν να πωλούν τα προϊόντα τους στην ΕΕ.
Κατά την άποψη της ΕΟΚΕ, οι προτάσεις παρουσιάζουν ορισμένες αδυναμίες, μεταξύ άλλων στον τομέα της «κοινωνικής βαθμολόγησης». Η ΕΟΚΕ επισημαίνει τον κίνδυνο να κερδίσει έδαφος η πρακτική αυτή στην Ευρώπη, όπως συμβαίνει ήδη στην Κίνα, όπου η κυβέρνηση μπορεί να φτάσει μέχρι του σημείου να αρνηθεί την πρόσβαση των πολιτών στις δημόσιες υπηρεσίες.
Το σχέδιο Πράξης για την τεχνητή νοημοσύνη περιλαμβάνει την απαγόρευση της κοινωνικής βαθμολόγησης από τις δημόσιες αρχές στην Ευρώπη, αλλά η ΕΟΚΕ επιθυμεί την επέκταση της απαγόρευσης αυτής σε ιδιωτικούς και ημι-ιδιωτικούς οργανισμούς, με στόχο να αποκλειστούν δυνητικές χρήσεις όπως η διαπίστωση του κατά πόσον ένα άτομο δικαιούται καταναλωτικό ή στεγαστικό δάνειο.
Η ΕΟΚΕ επισημαίνει επίσης τους κινδύνους που ενέχει η καταχώριση της ΤΝ «υψηλού κινδύνου» σε κατάλογο, προειδοποιώντας ότι αυτή η προσέγγιση «βάσει καταλόγου» δύναται να επιφέρει την κανονικοποίηση και τη συνεκτίμηση αρκετών πρακτικών της ΤΝ που εξακολουθούν να επικρίνονται έντονα. Η προσέγγιση αυτή θα επέτρεπε τη βιομετρική αναγνώριση, συμπεριλαμβανομένης της αναγνώρισης των συναισθημάτων ή της διάθεσης, όπου οι εκφράσεις του προσώπου, ο τόνος της φωνής, η στάση του σώματος και οι χειρονομίες ενός ατόμου αναλύονται με στόχο την πρόβλεψη της μελλοντικής συμπεριφοράς, την ανίχνευση ψεμάτων ή ακόμη και τις πιθανότητες επιτυχίας σε μια δεδομένη θέση εργασίας. Το ίδιο θα συνέβαινε επίσης όσον αφορά την αξιολόγηση, τη βαθμολόγηση ή ακόμη την απόλυση εργαζομένων με βάση την τεχνητή νοημοσύνη ή την αξιολόγηση των φοιτητών στις εξετάσεις.
Επιπλέον, οι προτεινόμενες απαιτήσεις για την τεχνητή νοημοσύνη υψηλού κινδύνου δεν μπορούν πάντοτε να μετριάσουν τη βλάβη που επιφέρουν οι συγκεκριμένες πρακτικές στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα. Εξ ου λοιπόν και η ανάγκη θέσπισης μηχανισμού καταγγελιών και προσφυγών, ο οποίος θα παρέχει στους πολίτες που έχουν υποστεί ζημία από κάποιο σύστημα ΤΝ το δικαίωμα να προσβάλλουν αποφάσεις που λαμβάνονται αποκλειστικά μέσω ενός αλγορίθμου.
Γενικότερα, η ΕΟΚΕ είναι της γνώμης ότι η πράξη για την τεχνητή νοημοσύνη βασίζεται στην παραδοχή ότι, εφόσον πληρούνται οι απαιτήσεις για την ΤΝ μεσαίου και υψηλού κινδύνου, η ΤΝ μπορεί σε μεγάλο βαθμό να αντικαταστήσει τη λήψη αποφάσεων από τον άνθρωπο.
«Εμείς στην ΕΟΚΕ προκρίνουμε ανέκαθεν μια προσέγγιση σχετικά με την ΤΝ που ευνοεί την άσκηση ελέγχου από τον άνθρωπο διότι δεν είναι δυνατόν να περιοριστούν όλες οι αποφάσεις σε δυαδικά ψηφία», δηλώνει η Cateljine Muller, εισηγήτρια της γνωμοδότησης της ΕΟΚΕ με θέμα την Πράξη για την τεχνητή νοημοσύνη. «Πολλές αποφάσεις έχουν ηθική συνιστώσα, σοβαρές νομικές συνέπειες και μείζονες κοινωνικές επιπτώσεις, όπως π.χ. όσον αφορά την επιβολή του νόμου και τη δικαστική εξουσία, τις κοινωνικές υπηρεσίες, τη στέγαση, τις χρηματοπιστωτικές υπηρεσίες, την εκπαίδευση και τις εργασιακές ρυθμίσεις. Είμαστε στ’ αλήθεια έτοιμοι να επιτρέψουμε στην ΤΝ να αντικαταστήσει σε μεγάλο βαθμό τη λήψη αποφάσεων από τον άνθρωπο, ακόμη και σε κρίσιμες διαδικασίες όπως η επιβολή του νόμου και η δικαστική εξουσία;» (dm)