Η Γαλλική Αρχή Προστασίας Δεδομένων (CNIL) δημοσίευσε νέες συστάσεις για την τεχνητή νοημοσύνη, στοχεύοντας σε μια ισορροπία μεταξύ καινοτομίας και προστασίας προσωπικών δεδομένων. Οι προτάσεις της παρέχουν πρακτικές λύσεις για τη διαφάνεια και τη διασφάλιση των δικαιωμάτων των πολιτών, ενισχύοντας τη συμμόρφωση με τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR).
Ο GDPR διαμορφώνει το θεσμικό πλαίσιο που επιτρέπει την ανάπτυξη της AI χωρίς να θέτει σε κίνδυνο την ιδιωτικότητα των πολιτών. Ενώ ορισμένα AI μοντέλα, όπως τα ανώνυμα συστήματα, δεν εμπίπτουν στις διατάξεις του, άλλα – όπως τα μεγάλα γλωσσικά μοντέλα (LLMs) – ενδέχεται να περιέχουν προσωπικά δεδομένα, απαιτώντας αυστηρότερη συμμόρφωση.
Η CNIL επισημαίνει ότι οι βασικές αρχές του GDPR πρέπει να προσαρμοστούν στη νέα πραγματικότητα της AI:
- Ευελιξία στον καθορισμό του σκοπού: Οι δημιουργοί συστημάτων AI γενικής χρήσης δεν είναι πάντα σε θέση να προβλέψουν όλες τις πιθανές εφαρμογές των μοντέλων τους. Ωστόσο, μπορούν να περιγράψουν τον γενικό σκοπό και τις βασικές λειτουργίες τους.
- Αρχή ελαχιστοποίησης δεδομένων: Η χρήση μεγάλων συνόλων δεδομένων είναι αποδεκτή, αρκεί να γίνεται με προσεκτική επιλογή και καθαρισμό, ώστε να αποφεύγεται η άσκοπη επεξεργασία προσωπικών πληροφοριών.
- Διατήρηση δεδομένων: Μπορεί να επιτραπεί για μεγαλύτερο διάστημα, εφόσον υπάρχουν σοβαροί επιστημονικοί ή οικονομικοί λόγοι και διασφαλίζεται η προστασία τους.
- Επαναχρησιμοποίηση δεδομένων: Επιτρέπεται, υπό την προϋπόθεση ότι δεν παραβιάζεται ο αρχικός σκοπός συλλογής τους και δεν προέρχονται από παράνομες πηγές.
Σύμφωνα με τη CNIL, οι πολίτες πρέπει να ενημερώνονται όταν τα προσωπικά τους δεδομένα χρησιμοποιούνται για την εκπαίδευση AI μοντέλων. Ο τρόπος παροχής αυτής της ενημέρωσης μπορεί να προσαρμοστεί ανάλογα με τον βαθμό κινδύνου και τις τεχνικές δυνατότητες των εταιρειών. Σε περιπτώσεις όπου η άμεση επικοινωνία είναι ανέφικτη – όπως συμβαίνει με δεδομένα που προέρχονται από τρίτους – η γενική δημοσιοποίηση μέσω ιστοσελίδων μπορεί να θεωρηθεί επαρκής.
Παράλληλα, τα δικαιώματα πρόσβασης, διόρθωσης και διαγραφής προσωπικών δεδομένων παραμένουν κεντρικά ζητήματα. Ωστόσο, η εφαρμογή τους στην AI παρουσιάζει προκλήσεις, όπως η δυσκολία εντοπισμού δεδομένων μέσα σε πολύπλοκα μοντέλα. Η CNIL προτείνει στους προγραμματιστές να ενσωματώσουν μηχανισμούς προστασίας από το στάδιο του σχεδιασμού και να αναζητήσουν καινοτόμες λύσεις που αποτρέπουν την ακούσια αποκάλυψη ευαίσθητων πληροφοριών.
Η ανάπτυξη αυτών των συστάσεων βασίστηκε σε ανοιχτή διαβούλευση με επιχειρήσεις, ερευνητές, ακαδημαϊκούς και φορείς της κοινωνίας των πολιτών, εξασφαλίζοντας ότι ανταποκρίνονται στις πραγματικές ανάγκες και προκλήσεις του κλάδου. Η CNIL δεσμεύεται να συνεχίσει τη στήριξη των οργανισμών και να παρακολουθεί στενά τις εξελίξεις, συμβάλλοντας στη διαμόρφωση ενός σαφούς ρυθμιστικού πλαισίου για την τεχνητή νοημοσύνη στην Ευρώπη.