Το πρώτο ολοκληρωμένο νομοθετικό πλαίσιο για την ρύθμιση της Τεχνητής Νοημοσύνης (ΤΝ) είναι γεγονός. Ύστερα από δύο χρόνια διαπραγματεύσεων, τον Δεκέμβριο 2023, το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο της Ευρωπαϊκής Ένωσης ολοκλήρωσαν τις διαπραγματεύσεις για την πολυπόθητη Πράξη για την Τεχνητή Νοημοσύνη. Στις 13 Μαρτίου 2024 το Ευρωπαϊκό Κοινοβούλιο ενέκρινε το νέο Κανονισμό με συντριπτική πλειοψηφία. Απομένει η μετάφρασή του σε όλες τις επίσημες γλώσσες της Ευρωπαϊκής Ένωσης, και στην συνέχεια η επίσημη έγκριση του Κανονισμού από το Συμβούλιο, ώστε να τεθεί σε ισχύ μέχρι τον Ιούλιο 2024 και να τεθεί σε εφαρμογή το καλοκαίρι του 2026.
Κατόπιν έντονων διαπραγματεύσεων, ο Κανονισμός εξαιρεί από το πεδίο εφαρμογής του τα συστήματα ΤΝ τα οποία χρησιμοποιούνται, μεταξύ άλλων, αποκλειστικά για σκοπούς στρατιωτικούς, εθνικής άμυνας και ασφάλειας. Επίσης, ακολουθώντας το παράδειγμα του Γενικού Κανονισμού για την Προστασία Προσωπικών Δεδομένων, η Πράξη για την ΤΝ έχει εξωεδαφική εφαρμογή, καθώς εφαρμόζεται σε κάθε περίπτωση που το σύστημα ΤΝ χρησιμοποιείται στην Ευρωπαϊκή Ένωση, ανεξαρτήτως από το αν ο πάροχος ή ο χρήστης του συστήματος είναι εγκατεστημένος σε αυτή.
Αξίζει να σημειωθεί ότι ο Κανονισμός εισάγει μια γενική υποχρέωση αλφαβητισμού στην ΤΝ (AI literacy) για τους παρόχους και τους φορείς ανάπτυξης συστημάτων ΤΝ, η οποία στην πράξη ερμηνεύεται σε υποχρέωση διαρκούς εκπαίδευσης και κατάρτισης του προσωπικού τους (άρθ. 4).
Το βασικό χαρακτηριστικό του Κανονισμού είναι ότι υιοθετεί μία προσέγγιση που βασίζεται σε παράγοντες κινδύνου. Ειδικότερα, προβλέπει 4 κατηγορίες συστημάτων ΤΝ: 1) απαγορευμένες πρακτικές στον τομέα της ΤΝ, 2) συστήματα ΤΝ υψηλού κινδύνου, 3) συστήματα ΤΝ με περιορισμένο κίνδυνο που ενέχουν συγκεκριμένες υποχρεώσεις διαφάνειας, 4) συστήματα ΤΝ ελάχιστου κινδύνου που δεν ρυθμίζονται από τον Κανονισμό. Κάθε κατηγορία συνεπάγεται και αντίστοιχες υποχρεώσεις οι οποίες γίνονται πιο αυστηρές, όσο αυξάνεται ο κίνδυνος για την υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα. Η ανάγκη ρύθμισης των συστημάτων ΤΝ γενικού σκοπού (General Purpose AI models) λόγω της ταχύτατης διάδοσής τους είχε ως αποτέλεσμα την συμπερίληψη συγκεκριμένων διατάξεων στο τελικό κείμενο του Κανονισμού (Τίτλος VIIIA).
Στη λίστα με τις απαγορευμένες πρακτικές (άρθ. 5) εμφανίζονται κάποιες από τις πιο παρεμβατικές χρήσεις ΤΝ, όπως μεταξύ άλλων, η χρήση ή θέση στην αγορά συστημάτων ΤΝ που χρησιμοποιούν παραπλανητικές τεχνικές με σκοπό να διαστρεβλώσουν ουσιωδώς την συμπεριφορά ενός ατόμου προκαλώντας σημαντική βλάβη, συστημάτων βιομετρικής κατηγοριοποίησης για να συναχθούν ιδιαίτερα χαρακτηριστικά ενός ατόμου (π.χ. φυλή, πολιτικές πεποιθήσεις), συστημάτων ΤΝ για την αξιολόγηση της αξιοπιστίας φυσικών προσώπων με βάση την κοινωνική τους συμπεριφορά (social scoring), συστημάτων εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου εκτός αν κρίνεται απολύτως αναγκαία, η χρήση συστημάτων αναγνώρισης συναισθημάτων στην εργασία και την εκπαίδευση και συστήματα που προβλέπουν τον κίνδυνο διάπραξης ποινικού αδικήματος.
Κεντρικό ρόλο στον Κανονισμό έχουν τα συστήματα ΤΝ υψηλού κινδύνου (άρθ. 6), που χρησιμοποιούνται, μεταξύ άλλων, στην εξ αποστάσεως βιομετρική ταυτοποίηση φυσικών προσώπων, την λειτουργία υποδομών ζωτικής σημασίας (π.χ. παροχή νερού, θέρμανσης, ηλεκτρικής ενέργειας), την εκπαίδευση και επαγγελματική κατάρτιση, τον τομέα της εργασίας, την επιβολή του νόμου, την διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων κλπ. Ο Κανονισμός ορίζει επίσης προϋποθέσεις υπό τις οποίες συστήματα ΤΝ που δεν εμπίπτουν στις προαναφερθείσες κατηγορίες καθίστανται συστήματα ΤΝ υψηλού κινδύνου. Ένα αδύναμο σημείο είναι η εισαγωγή μίας διάταξης-φίλτρου που επιτρέπει υπό συγκεκριμένες προϋποθέσεις τον αποχαρακτηρισμό ενός συστήματος ΤΝ ως υψηλού κινδύνου σε περίπτωση που δεν θέτει σε κίνδυνο την υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των φυσικών προσώπων, η εφαρμογή της οποίας θα πρέπει να γίνει με σύνεση. O Κανονισμός απαιτεί την κατάρτιση εκτίμησης επιπτώσεων στα θεμελιώδη δικαιώματα για διάφορα συστήματα υψηλού κινδύνου, μια υποχρέωση που έχει όμως περιορισμένο πεδίο εφαρμογής (άρθ. 27).
Ο Κανονισμός θέτει συγκεκριμένες υποχρεώσεις για τα συστήματα ΤΝ υψηλού κινδύνου, όπως η τήρηση συστήματος διαχείρισης ποιότητας, η κατάρτιση τεχνικού φακέλου, η τήρηση αρχείων που να επιτρέπει την αυτόματη καταγραφή συμβάντων, η κατάλληλη ενημέρωση των χρηστών, και η εξασφάλιση ανθρώπινης εποπτείας. Βασική υποχρέωση είναι η αξιολόγηση της συμμόρφωσης (conformity assessment) πριν την είσοδο ενός τέτοιου συστήματος στην αγορά (άρθ. 43). Ανάλογα με την περίπτωση, η αξιολόγηση συμμόρφωσης μπορεί να γίνεται με εσωτερικό έλεγχο ή με βάση την αξιολόγηση του συστήματος διαχείρισης της ποιότητας και αξιολόγηση του τεχνικού φακέλου, σύμφωνα με τις διατάξεις του Κανονισμού, ή μπορεί να τεκμαίρεται μέσω της συμμόρφωσης με εναρμονισμένα πρότυπα (άρθ. 40) ή κοινές προδιαγραφές (άρθ. 41). Ο Κανονισμός έχει κατακριθεί για την δυνατότητα παρέκκλισης από τη διαδικασία αξιολόγησης της συμμόρφωσης για εξαιρετικούς λόγους δημόσιας ασφάλειας ή προστασίας της ζωής και της υγείας, προσώπων, προστασίας του περιβάλλοντος και προστασίας βασικών βιομηχανικών στοιχείων ενεργητικού και υποδομών (άρθ. 47).
Οι πάροχοι των συστημάτων ΤΝ, όσοι δηλαδή αναπτύσσουν συστήματα ΤΝ ή έχουν στην κατοχή τους ένα σύστημα ΤΝ το οποίο σκοπεύουν να διαθέσουν στην αγορά με τη δική τους επωνυμία ή εμπορικό σήμα, είναι οι κύριοι αποδέκτες των υποχρεώσεων συμμόρφωσης που προβλέπονται στον Κανονισμό. Ωστόσο ο Κανονισμός περιλαμβάνει διατάξεις που αφορούν και άλλους φορείς, όπως φορείς ανάπτυξης συστημάτων ΤΝ-εξαιρώντας περιπτώσεις προσωπικής χρήσης, εισαγωγείς που διαθέτουν στην αγορά σύστημα ΤΝ το οποίο φέρει την επωνυμία ή το εμπορικό σήμα φυσικού ή νομικού προσώπου εγκατεστημένου εκτός της Ένωσης, και διανομείς των συστημάτων.
Ο Κανονισμός συστήνει το Ευρωπαϊκό Γραφείο Τεχνητής Νοημοσύνης, καθώς και την Επιστημονική Ομάδα Ανεξάρτητων Εμπειρογνωμόνων, που θα διευκολύνουν την ορθή εφαρμογή του Κανονισμού σε Ευρωπαϊκό επίπεδο. Επίσης, κάθε κράτος μέλος καλείται να συστήσει τουλάχιστον μία Κοινοποιούσα Αρχή και μία Αρχή Εποπτείας της Αγοράς, οι οποίες θα έχουν εποπτικό ρόλο στην εφαρμογή του Κανονισμού σε εθνικό επίπεδο.
Ως αντίβαρο για τις υποχρεώσεις που θέτει, ο Κανονισμός προβλέπει τη δημιουργία ρυθμιστικών δοκιμαστηρίων ΤΝ (regulatory sandboxes) με στόχο την ενθάρρυνση της καινοτομίας. Κάθε Κράτος Μέλος καλείται να δημιουργήσει ένα ελεγχόμενο περιβάλλον το οποίο θα επιτρέπει τη δοκιμή καινοτόμων συστημάτων ΤΝ για περιορισμένο διάστημα πριν διατεθούν στην αγορά. Το μέτρο αυτό αναμένεται να επιταχύνει την είσοδο των μικρομεσαίων επιχειρήσεων, συμπεριλαμβανομένων των start-ups, στην αγορά της ΤΝ.
Παράλληλα, προβλέπονται πολύ αυστηρά διοικητικά πρόστιμα, τα οποία, ανάλογα με τις παραβάσεις, μπορεί να ανέλθουνστα 35 εκατομμύρια ευρώ ή στο 7% του συνολικού παγκόσμιου ετήσιου κύκλου εργασιών του προηγούμενου οικονομικού έτους, ανάλογα με το ποιο ποσό είναι υψηλότερο.
Συμπερασματικά, ο Κανονισμός αποτελεί ένα νομοθετικό κείμενο που αφορά στην ασφάλεια των προϊόντων και εισάγει μια σειρά από υποχρεώσεις για την ορθή αποκρυπτογράφηση των οποίων χρειάζεται συστηματική μελέτη από νομικούς και τεχνικούς.
* Η κ. Ελένη Κώστα είναι τακτική καθηγήτρια Δικαίου Τεχνολογίας και Ανθρωπίνων Δικαιωμάτων (Tilburg Institute for Law, Technology, and Society-TILT, Tilburg University, Ολλανδία).
* Η κ. Αλεξάνδρα Ζιάκα είναι υποψήφια διδάκτορας (Tilburg Institute for Law, Technology, and Society-TILT, Tilburg University, Ολλανδία).
Δείτε το σχετικό Σεμινάριο: Ο νέος Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act)