fbpx
Δευτέρα, 16 Σεπτεμβρίου, 2024

Τροχαίο ατύχημα από σύστημα τεχνητής νοημοσύνης: Οι προκλήσεις στην ανεύρεση της ποινικής ευθύνης

Το ποινικό δίκαιο βρίσκεται σε μία κρίσιμη καμπή, η οποία στην προσπάθεια εξεύρεσης λύσεων θα έρθει αντιμέτωπη με την αμφισβήτηση των παραδοσιακών ποινικών δογμάτων

Χρόνος ανάγνωσης 4 λεπτά
Χρόνος ανάγνωσης 4 λεπτά

Δείτε επίσης

Οι αλματώδεις τεχνολογικές εξελίξεις των τελευταίων ετών έχουν επιφέρει ραγδαίες αλλαγές στη ζωή του σύγχρονου ανθρώπου. Πλέον τα συστήματα τεχνητής νοημοσύνης έχουν αναπτυχθεί σε τέτοιον βαθμό, ώστε να υποκαθιστούν πολλές ανθρώπινες δραστηριότητες. Όπως είναι λογικό το δίκαιο γενικότερα, αλλά και το ποινικό δίκαιο ειδικότερα σε περιπτώσεις προσβολής των έννομων αγαθών δεν μπορεί να μένει αμέτοχο, αλλά πρέπει να θέσει τις βάσεις για την αντιμετώπιση των σημαντικών προκλήσεων που ανακύπτουν.

Σε μία προσπάθεια ανάλυσης των κρίσιμων ζητημάτων που ανακύπτουν, και με στόχο τη διατύπωση κάποιων βασικών συμπερασμάτων, κρίνεται σκόπιμο να γίνει λόγος για συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται για την οδήγηση οχημάτων. Τα τελευταία χρόνια όλο και περισσότερα αυτοκίνητα ενισχύονται με τέτοια συστήματα που όχι απλώς υποβοηθούν τον οδηγό στην πλοήγηση του οχήματος, αλλά πολλές φορές αναλαμβάνουν και μόνα τους την πλοήγηση αυτού. Τίθεται, λοιπόν, το εξής ερώτημα: Πώς αποτιμάται η ποινική ευθύνη σε περίπτωση που προκληθεί ένα αυτοκινητικό ατύχημα από ένα αυτόματο σύστημα πλοήγησης; Το ερώτημα αυτό ήδη κλήθηκαν να απαντήσουν τρία κρίσιμα νομολογιακά παραδείγματα, και συγκεκριμένα της Tesla, του Uber και της γερμανικής υπόθεσης «Aschaffenburger».

Το πρώτο ζήτημα, το οποίο αναφύεται είναι αν μπορούν τα συστήματα τεχνητής νοημοσύνης να ευθύνονται ποινικά. Στον ευρωπαϊκό χώρο τα δίκαια των επιμέρους χωρών φαίνεται να οικοδομούνται στην ανθρώπινη ποινική ευθύνη, με κάποιες εξαιρέσεις που αναγνωρίζουν ποινική ευθύνη και στα νομικά πρόσωπα. Στο πλαίσιο αυτό δημιουργείται το εύλογο ερώτημα, αν θα μπορούσε να αναγνωριστεί μία ηλεκτρονική προσωπικότητα σε ένα σύστημα τεχνητής νοημοσύνης (ηλεκτρονικό πρόσωπο) και φυσικά ποιες θα είναι οι δογματικές συνέπειες μίας τέτοιας αποδοχής.

Η συνεχής εξέλιξη των αλγορίθμων έχει δημιουργήσει συστήματα τεχνητής νοημοσύνης που μπορούν να έχουν τη δική τους «αντίληψη» και ως εκ τούτου μία αυτόνομη αντίδραση στον κίνδυνο

Ανεξαρτήτως της απάντησης που θα δοθεί παραπάνω, και των ηθικών προσεγγίσεων που αναγκαία προκύπτουν, το δεύτερο κρίσιμο θέμα που πρέπει να ερευνηθεί είναι η αποτίμηση της ευθύνης των ανθρώπων που σχετίζονται με τη διαμόρφωση και τη λειτουργία του συστήματος τεχνητής νοημοσύνης. Συγκεκριμένα, ο εξοπλισμός ενός αυτοκινήτου με ένα σύστημα τεχνητής νοημοσύνης δεν αποτελεί ένα απλοϊκό ζήτημα, αλλά αντίθετα περιλαμβάνει μία σειρά ενεργειών, και συγκεκριμένα, την έρευνα, την παρασκευή, τον προγραμματισμό, την κατασκευή και τη χρήση του. Η ανάμειξη πολλαπλών προσώπων στην αιτιώδη διαδρομή προς την προσβολή των έννομων αγαθών δημιουργεί υψηλές απαιτήσεις στον προσήκοντα έλεγχο της ποινικής ευθύνης, ώστε να μην οδηγείται η έρευνα αναγκαία κάθε φορά στη σωρευτική αιτιότητα όλων των προσώπων που εμπλέκονται σε αυτήν. Συγχρόνως, κομβική είναι η διατύπωση θέσης στο εξής ζήτημα: στις περιπτώσεις προσβολής ενός έννομου αγαθού από τη λειτουργία ενός συστήματος τεχνικής νοημοσύνης, η ποινική ευθύνη του δράστη αποτιμάται μόνο από εγκλήματα αμέλειας εξαιτίας του περιορισμού ή ακόμη και της εξαφάνισης της ανθρώπινης δράσης και επιλογής; Υπάρχει περίπτωση να διεκδικήσουν εφαρμογή εγκλήματα δόλου;

Δεν πρέπει, άλλωστε, να αγνοείται το γεγονός, πως η συνεχής εξέλιξη των αλγορίθμων έχει δημιουργήσει συστήματα τεχνητής νοημοσύνης που μπορούν να έχουν τη δική τους «αντίληψη» και ως εκ τούτου μία αυτόνομη αντίδραση στον κίνδυνο. Εδώ τίθεται, το πιο ενδιαφέρον ερώτημα: Μπορεί η αυτονομία επιλογής των συστημάτων τεχνητής νοημοσύνης και ως εκ τούτου η προσβολή των έννομων αγαθών προσώπων εξαιτίας της κακής εκτίμησης των συνθηκών να αμβλύνει ή ακόμα και να εξαλείψει τις ευθύνες των παραπάνω προσώπων; Και σε ένα ακόμη πιο ακανθώδες σκέλος, κατά πόσο είναι ικανά τα συστήματα τεχνητής νοημοσύνης να λύνουν διλήμματα και πώς επηρεάζεται η ευθύνη των προγραμματιστών τους; Είναι βέβαιο, πως το μέγεθος της αυτονομίας των συστημάτων τεχνητής νοημοσύνης πρέπει να αποτελέσει κεφαλαιώδη όρο στην αποσαφήνιση της ποινικής ευθύνης των εμπλεκόμενων προσώπων.

Σε συνέχεια των παραπάνω προβληματισμών, ενδιαφέρον παρουσιάζει ο τρόπος που θα λειτουργήσει η επιτρεπόμενη κινδυνώδης δράση στην άρση του άδικου χαρακτήρα της πράξης. Η παραδοσιακή συζήτηση αυτού του κρίσιμου λόγου άρσης που διαμορφώνεται στην πλειοψηφία των ευρωπαϊκών δικαίων, πρέπει να εμπλουτιστεί, ακολουθώντας τις ιδιαίτερες απαιτήσεις του κρίσιμου πεδίου της τεχνητής νοημοσύνης.

Είναι φανερό από τους παραπάνω προβληματισμούς που τέθηκαν, πως το ποινικό δίκαιο βρίσκεται σε μία κρίσιμη καμπή, η οποία στην προσπάθεια εξεύρεσης λύσεων θα έρθει αντιμέτωπη με την αμφισβήτηση των παραδοσιακών ποινικών δογμάτων. Αναγκαία θα κληθεί τόσο η επιστήμη, όσο και η νομολογία, να αποφασίσουν σε ποια κατεύθυνση θα πρέπει το ποινικό δίκαιο να κινηθεί: στη διαμόρφωση ενός νέου μοντέλου απόδοσης ποινικής ευθύνης που θα ανατρέψει τις πάγιες συνιστώσες ή στη νομοθετική ενίσχυση των ποινικών διατάξεων με την αναπροσαρμογή των ήδη υπαρχόντων ή την ποινικοποίηση νέων εγκλημάτων κοινής διακινδύνευσης;

* Ο κ. Γεώργιος Ι. Μπαστουνάς είναι Δικηγόρος – ΔΝ.

- Διαφήμιση -

- Διαφήμιση -

Πρόσφατες αναρτήσεις

- Διαφήμιση -