Η Πρόταση ρύθμισης της Τεχνητής Νοημοσύνης
H Τεχνητή Νοημοσύνη (Artificial Intelligence, στο εξής: “AI”) συνιστά, αναμφίβολα, «τεχνολογία του μέλλοντος». Εντούτοις, η χρήση, αξιοποίηση και επιρροή της στις διάφορες εκφάνσεις της ζωής και δραστηριότητες έχει, εδώ και καιρό, ξεκινήσει. Διεκδικεί μάλιστα, ολοένα, και μεγαλύτερο έδαφος-ακόμα και σε τομείς που δεν θα ήταν δυνατό πριν από μερικά χρόνια να διανοηθούμε. (Η AI, λ.χ., στην υπηρεσία της δικαιοσύνης μας απασχόλησε, ήδη, σε προηγούμενη αρθρογραφία μας). Η ΕΕ αισθάνθηκε την ανάγκη, και ορθά-έστω και λίγο καθυστερημένα, να ξεκινήσει τη διαδικασία της ρύθμισής της. Όσο αυτό είναι εφικτό.
Η ενασχόληση της Ευρωπαϊκής Επιτροπής με την Τεχνητή Νοημοσύνη
Η επίδειξη εμπιστοσύνης σε μια τεχνολογία εν πολλοίς άγνωστη, δυσχερώς κατανοητή ή, ενίοτε, απολύτως μη κατανοητή (για τους περισσότερους από εμάς), δεν αποτελεί εύκολο στόχο. Ακριβέστερα: μοιάζει απολύτως επικίνδυνη. Πολύ περισσότερο που οι επιμέρους παράμετροί της δεν έχει, έστω, επιχειρηθεί να ρυθμιστούν νομοθετικά.
Η Ευρωπαϊκή Επιτροπή προχώρησε πρόσφατα, στις 21 Απριλίου 2021, στη δημοσίευση της Πρότασης Κανονισμού για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη. Πρόκειται για την ευρωπαϊκή προσέγγιση που αποσκοπεί σε μια αξιόπιστη ΑΙ που θα υπηρετεί τις ευρωπαϊκές αρχές, αξίες και, ιδίως, τον άνθρωπο. Πρόκειται για μια προσπάθεια που αποσκοπεί στην άμβλυνση των (δεδομένων) κινδύνων που δημιουργούνται από την σταδιακή επέκτασή της.
Ο ορισμός της ΑΙ
Η ΑΙ συνιστά, όπως ήδη σημειώθηκε, αντικείμενο άγνωστο για τους περισσότερους από εμάς. Ακόμα όμως κι ο ορισμός της, δεν μοιάζει εύκολα κατανοητός: «σύστημα τεχνητής νοημοσύνης» είναι, κατά την Πρόταση, το «λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις (όπως αυτές παρατίθενται στο Παράρτημα I της πρότασης) και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά» (άρθρο 3 περ. 1).
Ο σκοπός του (προτεινόμενου) Κανονισμού
Η σημασία του προτεινόμενου Κανονισμού διαφαίνεται, με πλήρη ενάργεια, στο σκοπό που αναφέρεται στην παραπάνω Πρόταση. Ως τέτοιος, λοιπόν, (σκοπός) προσδιορίζεται η βελτίωση της λειτουργίας της εσωτερικής αγοράς με τη θέσπιση ενιαίου νομικού πλαισίου (ιδίως) για την ανάπτυξη, την εμπορία και τη χρήση της τεχνητής νοημοσύνης-σύμφωνα με τις αξίες της Ένωσης.
Ο Κανονισμός προκύπτει λοιπόν πως επιδιώκει σκοπούς υπέρτερου δημοσίου συμφέροντος. Μεταξύ αυτών: υψηλό επίπεδο προστασίας της υγείας, της ασφάλειας και των θεμελιωδών δικαιωμάτων.
Παράλληλα, αξιώνει την διασφάλιση της ελεύθερης κυκλοφορίας αγαθών και υπηρεσιών, που βασίζονται στην ΑΙ, σε διασυνοριακό επίπεδο. Με τον τρόπο αυτό επιδιώκει να εμποδίσει τα κράτη μέλη να επιβάλλουν περιορισμούς στην ανάπτυξη, την εμπορία και τη χρήση συστημάτων ΑΙ, στο μέτρο που οι περιορισμοί δεν προβλέπονται στον ίδιο τον Κανονισμό.
Ο Κανονισμός αναγνωρίζει επίσης την αναγκαιότητα ομοιόμορφης ρύθμισης σε επίπεδο ΕΕ, ώστε να αποφευχθεί τυχόν κατακερματισμός της εσωτερικής αγοράς και να αποτραπεί τυχόν ανασφάλεια δικαίου. Η ασφάλεια δικαίου, αντίθετα, κρίνεται αναγκαία για τη διευκόλυνση των επενδύσεων στην ΑΙ και την ανάπτυξη ενιαίας αγοράς για νόμιμα, ασφαλή και αξιόπιστα τέτοια συστήματα.
Από το σύνολο της πρότασης διαφαίνεται η προσπάθεια επίτευξης ασφάλειας κατά την ανάπτυξη της ΑΙ και τη συμπόρευσή της με την ηθική και τις αξίες της ΕΕ. Γι΄αυτό, άλλωστε, η προσέγγιση των ρυθμίσεών της γίνεται υπό το πρίσμα των κινδύνων που επιφυλάσσει η χρήση των συστημάτων ΑΙ.
Η προσέγγιση της χρήσης ΑΙ με βάση τον κίνδυνο
Ο Κανονισμός ως προς τους τρόπους χρήσης της ΑΙ προβαίνει σε μια προσέγγιση με βάση τον κίνδυνο που δημιουργείται από την αξιοποίησή της. Συγκεκριμένα, οι χρήσεις τις ΑΙ διακρίνονται σε αυτές που δημιουργούν: (α) μη αποδεκτό κίνδυνο, (β) υψηλό κίνδυνο, (γ) χαμηλό-μη υψηλό κίνδυνο.
Μη αποδεκτός κίνδυνος
Ορισμένα συστήματα ΑΙ κρίνεται ότι δημιουργούν μη αποδεκτό κίνδυνο.
Η χρήση τέτοιων συστημάτων θεωρείται μη αποδεκτή διότι αντιβαίνει στις αξίες της Ένωσης (παραβιάζει λ.χ. θεμελιώδη δικαιώματα). Πρόκειται για τα συστήματα εκείνα που έχουν σημαντικές δυνατότητες χειραγώγησης προσώπων μέσω τεχνικών που απευθύνονται στο υποσυνείδητο υπερκεράζοντας το συνειδητό τους. Πρόκειται, επίσης, για συστήματα που εκμεταλλεύονται τα τρωτά σημεία συγκεκριμένων ευάλωτων ομάδων, προκειμένου να στρεβλώσουν ουσιωδώς τη συμπεριφορά τους.
Τέτοιου είδους χρήσεις της ΑΙ απαγορεύονται. Απαγορεύεται επίσης η χρήση συστημάτων βιομετρικής ταυτοποίησης εξ αποστάσεως-σε «πραγματικό χρόνο», σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου. Ενδέχεται, εντούτοις, να υπάρξουν ορισμένες εξαιρέσεις.
Υψηλός κίνδυνος
Κάποια συστήματα ΑΙ κρίνεται ότι προκαλούν υψηλό κίνδυνο για την υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των φυσικών προσώπων.
Για τα συστήματα αυτά επιφυλάσσονται ειδικοί κανόνες. Συγκεκριμένα, τα συστήματα αυτά επιτρέπονται στην ευρωπαϊκή αγορά με την επιφύλαξη της συμμόρφωσης με ορισμένες υποχρεωτικές απαιτήσεις και της εκ των προτέρων αξιολόγησης της σχετικής συμμόρφωσης. Παράλληλα, ο Κανονισμός επιβάλλει σαφείς υποχρεώσεις στους παρόχους και στους χρήστες τέτοιων συστημάτων. Αποσκοπεί, στο πλαίσιο αυτό, στην ασφάλεια και τήρηση της ισχύουσας νομοθεσίας για την προστασία των θεμελιωδών δικαιωμάτων καθ’ όλη τη διάρκεια του κύκλου ζωής τους.
Μη υψηλός κίνδυνος
Για τα συστήματα ΑΙ μη υψηλού κινδύνου επιβάλλονται μόνο πολύ περιορισμένες υποχρεώσεις διαφάνειας.
Η νομοθετική ρύθμιση για την ΑΙ οφείλει να είναι, σε κάθε περίπτωση, ανθρωποκεντρική. Η παραπάνω πρόταση σε σημαντικό βαθμό φαίνεται πως το επιδιώκει.
Είναι σημαντικό, σε κάθε περίπτωση, που η παραπάνω Πρόταση καθιστά προτεραιότητά της τις αξίες της Ε.Ε. Είναι ενδιαφέρον πως κινείται (και ορθά) στη βάση των κινδύνων που ενδέχεται να προκύψουν από συστήματα ΑΙ.
Οι εξελίξεις της τεχνολογίας είναι αληθινά ραγδαίες, ακόμα και για κείνους που ασχολούνται με εκείνη. Πολύ περισσότερο για μας-τους υπόλοιπους. Αναγκαία όμως προκύπτει η προστασία όλων (επαϊόντων και μη) από τους κινδύνους που συνεπάγεται η χρήση και αξιοποίηση των ευχερειών της Τεχνητής Νοημοσύνης. Το σχέδιο Κανονισμού κινείται (και) προς τη συγκεκριμένη κατεύθυνση.
Ερώτημα πάντως που μέλλει να απαντηθεί από την επόμενη, μάλλον, γενιά:
Είναι, άραγε, εφικτό να τεθεί η Τεχνητή Νοημοσύνη σε αυστηρά προσδιορισμένο πλαίσιο έξω από το οποίο δεν θα είναι δυνατό να κινηθεί;
Φοβάμαι πως όχι.
*Σε πλήρη μορφή το άρθρο που δημοσιεύθηκε στη "ΜτΚ" στις 27 Ιουνίου 2021