ΚΕΦΑΛΑΙΟ Β’ ΡΥΘΜΙΣΕΙΣ ΓΙΑ ΤΗΝ ΑΝΑΠΤΥΞΗ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ Άρθρο 3 Ορισμοί

Για τους σκοπούς του παρόντος Μέρους ισχύουν οι ακόλουθοι ορισμοί:
1. «Σύστημα αλγοριθμικής λήψης αποφάσεων»: κάθε λογισμικό, σύστημα ή διαδικασία που χρησιμοποιεί σύστημα τεχνητής νοημοσύνης για να αυτοματοποιήσει ή να υποστηρίξει μια διαδικασία λήψης απόφασης, η οποία επηρεάζει τα δικαιώματα ενός φυσικού προσώπου, και η οποία διαφορετικά απαιτεί ανθρώπινη ενέργεια.
2. «Κατάρτιση προφίλ»: κάθε αυτοματοποιημένη διαδικασία που χρησιμοποιεί σύστημα τεχνητής νοημοσύνης για την αξιολόγηση ορισμένων προσωπικών πτυχών ενός φυσικού προσώπου, ιδίως για την ανάλυση ή την πρόβλεψη πτυχών που αφορούν στην απόδοση στην εργασία, την οικονομική κατάσταση, την υγεία, τις προσωπικές προτιμήσεις, τα ενδιαφέροντα, την αξιοπιστία, τη συμπεριφορά, τη θέση ή τις μετακινήσεις του εν λόγω φυσικού προσώπου.

  • 14 Ιουλίου 2022, 19:54 | Μπάλλας, Πελεκάνος & Συνεργάτες Α.Ε.Δ.Ε.

    Κατ’ αρχάς, παρόλο που το εν λόγω νομοσχέδιο περιλαμβάνει ρυθμίσεις που αφορούν επεξεργασία δεδομένων προσωπικού χαρακτήρα, δεν έχει τεθεί υπόψη της Αρχής Προστασίας Δεδομένων Προσωπικού Χαρακτήρα («ΑΠΔΠΧ»), προκειμένου η τελευταία να γνωμοδοτήσει κατ’ εφαρμογή των άρθρων 36 παρ. 4 του Γενικού Κανονισμού για την Προστασία των Δεδομένων («ΓΚΠΔ») και 13 παρ. 1 περ. γ’ του Ν. 4624/2019. Μάλιστα, με την όλως πρόσφατη απόφαση του ΣτΕ (Ολομ.) 1478/2022, κρίθηκε ότι η παροχή γνώμης της ΑΠΔΠΧ πριν την έκδοση της κανονιστικής πράξης με περιεχόμενο την επεξεργασία δεδομένων προσωπικού χαρακτήρα απαιτείται ως ουσιώδης τύπος, η έλλειψη του οποίου οδηγεί σε ακύρωση της πράξεως.

    Δευτερευόντως, όπως ήδη αναφέρεται στην παράγραφο 2.1. της Αιτιολογικής Έκθεσης και στην υπ’ αρ. 2 αιτιολογική σκέψη του Κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για τη Θέσπιση Εναρμονισμένων Κανόνων σχετικά με την Τεχνητή Νοημοσύνη («ΤΝ») (Πράξη για την Τεχνητή Νοημοσύνη) της 21ης Απριλίου 2021 [2021/0106 (COD)] (εφεξής «Πρόταση Κανονισμού»), το ενδεχόμενο θέσπισης εθνικών κανόνων για να διασφαλιστεί ότι η ΤΝ είναι ασφαλής και αναπτύσσεται και χρησιμοποιείται σύμφωνα με τις υποχρεώσεις που απορρέουν από τα θεμελιώδη δικαιώματα είναι πιθανό να οδηγήσει σε δύο βασικά προβλήματα: i) στον κατακερματισμό της εσωτερικής αγοράς σε σχέση με ουσιώδη στοιχεία, ειδικότερα όσον αφορά τις απαιτήσεις για τα προϊόντα και τις υπηρεσίες ΤΝ, την εμπορία τους, τη χρήση τους, την ευθύνη και την εποπτεία από τις δημόσιες αρχές, και ii) τη σημαντική μείωση της ασφάλειας δικαίου τόσο για τους παρόχους όσο και για τους χρήστες συστημάτων ΤΝ σχετικά με τον τρόπο εφαρμογής των υφιστάμενων και των νέων κανόνων στα εν λόγω συστήματα ΕΕ. Τονίζεται, επιπλέον, ότι, δεδομένης της ευρείας διασυνοριακής κυκλοφορίας προϊόντων και υπηρεσιών, τα δύο αυτά προβλήματα μπορούν να επιλυθούν καλύτερα μέσω της εναρμόνισης της νομοθεσίας σε επίπεδο ΕΕ.
    Επιπλέον, οι ρυθμίσεις για την ανάπτυξη ΤΝ κινδυνεύουν να χαρακτηρισθούν ως πρόχειρες και απομονωμένες, καθώς είναι εμφανές ότι δεν έχει ληφθεί υπόψη κατά τη διατύπωσή τους η εκτενής συζήτηση και οι προβληματισμοί που έχουν τεθεί σε επίπεδο ΕΕ στο πλαίσιο της υιοθέτησης της Πρότασης Κανονισμού. Κατά κύριο λόγο, δεν έχει ληφθεί υπόψη η προσέγγιση βάσει του κινδύνου που μπορούν να επιφέρουν τα συστήματα ΤΝ, προσέγγιση υπέρ της οποίας τάχθηκε ρητά και η πλειοψηφία των ενδιαφερομένων μερών κατά την εκτενή διαδικτυακή δημόσια διαβούλευση που έλαβε χώρα πριν από την υιοθέτηση της Πρότασης Κανονισμού.

    Περαιτέρω, ο ορισμός που δίνεται για το «σύστημα αλγοριθμικής λήψης αποφάσεων», ήδη διαφέρει από τον ορισμό της ΤΝ στην Πρόταση Κανονισμού, ενώ η φράση «και η οποία διαφορετικά απαιτεί ανθρώπινη ενέργεια» που εμπεριέχεται σε αυτόν, οδηγεί στο συμπέρασμα ότι σε καμία περίπτωση χρήσης συστήματος αλγοριθμικής λήψης αποφάσεων δεν υπάρχει ανθρώπινη παρέμβαση/εποπτεία, η οποία, μάλιστα, θα έπρεπε να προβλέπεται ρητά στο παρόν σχέδιο νόμου προκειμένου να διασφαλιστούν τα θεμελιώδη δικαιώματα, αλλά και να μη δημιουργείται ασυνέπεια σε σχέση με το άρθρο 22 του ΓΚΠΔ.

    Τέλος, η επανάληψη του διαφοροποιημένου ορισμού της «κατάρτισης προφίλ» σε σχέση με τον ΓΚΠΔ, κρίνεται ως μη σκόπιμη και μάλλον προβληματική.

  • 14 Ιουλίου 2022, 18:37 | ΟΜΑΔΑ ΕΡΓΑΣΙΑΣ ΟΜΙΛΟΥ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ AI CATALYST

    Στην πρώτη παράγραφο ο ορισμός είναι ασαφής και πολύ γενικός, θα μπορούσε να χρησιμοποιηθεί κάποιος άλλος ορισμός σχετικά με τα αλγοριθμικά συστήματα αποφάσεων και ίσως να αλλάξει η φράση ώστε να είναι εμφανές ότι περιέχει τεχνολογίες τεχνητής νοημοσύνης. Επίσης, αντί για τη φράση «σύστημα τεχνητής νοημοσύνης», ίσως είναι πιο σχετική η φράση «τεχνολογίες τεχνητής νοημοσύνης».

    ΟΜΑΔΑ ΕΡΓΑΣΙΑΣ ΟΜΙΛΟΥ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ AI CATALYST

  • 14 Ιουλίου 2022, 11:05 | Γιάννης Κανελλόπουλος

    Θεωρώ πως είναι απαραίτητος ο ορισμός του τι θεωρεί ο νομοθέτης ως Τεχνητή Νοημοσύνη γιατί ο όρος είναι ευρύς και μπορεί να παρερμηνευτεί εύκολα. Ενδεικτικά αναφέρω ότι στο προτεινόμενο Regulation for Artificial Intelligence του Ευρωπαϊκού Συμβουλίου, ως τεχνικές και προσεγγίσεις σχετικές με την Τεχνητή Νοημοσύνη ορίζονται/αναφέρονται οι παρακάτω:
    (a) Machine learning approaches, including supervised, unsupervised and reinforcement learning, using a wide variety of methods including deep learning;
    (b) Logic- and knowledge-based approaches, including knowledge representation, inductive (logic) programming, knowledge bases, inference and deductive engines, (symbolic) reasoning and expert systems;
    (c) Statistical approaches, Bayesian estimation, search and optimization methods.

  • 13 Ιουλίου 2022, 16:48 | Χ.Γ.

    Άρθρο 3, παρ. 1-2
    Η άμεση ερμηνεία του όρου «αλγοριθμική λήψη αποφάσεων» με το χαρακτηριστικό «χρησιμοποιεί σύστημα τεχνητής νοημοσύνης» είναι αντιεπιστημονική και εντελώς λάθος. Αλγοριθμική λήψη αποφάσεων σημαίνει επεξεργασία δεδομένων εισόδου και παραγωγή δεδομένων εξόδου, που εν δυνάμει υποδεικνύει ή υποβοηθά προς συγκεκριμένη πράξη ή περαιτέρω επεξεργασία, «βέλτιστη σύμφωνα με κάποιο προκαθορισμένο κριτήριο (π.χ. κόστους, χρονοκαθυστέρησης, ασφάλειας, χρήσης πόρων, κτλ) που δεν συνδέεται απαραίτητα με κάποιο χαρακτηριστικό τεχνητής νοημοσύνης. Παράδειγμα τέτοιας «αλγοριθμικής λήψης απόφασης» είναι ο αυτόματος διακόπτης διακοπής της τροφοδοσίας ρεύματος (ρελέ ασφαλείας) όταν η ροή υπερβεί κάποιο προκαθορισμένο κατώφλι. Αντίστοιχα, η «κατάρτιση προφίλ» σύμφωνα με τον ορισμό εδώ δεν προϋποθέτει σύνδεση με κάποιο «σύστημα τεχνητής νοημοσύνης», καθώς μπορεί να πραγματοποιηθεί σε καθαρά στατιστικό επίπεδο. Αντιθέτως, η αναφορά απαραιτήτως σε «σύστημα τεχνητής νοημοσύνης» εξαιρεί τέτοια συστήματα επεξεργασίας δεδομένων από τον ορισμό, κατά συνέπεια και από τις προβλέψεις και θεσμικούς περιορισμούς που περιγράφει το παρόν νομοθέτημα.

  • 6 Ιουλίου 2022, 12:24 | Σπυριδούλα Καρύδα

    Κάποιες τελευταίες παρατηρήσεις.
    Η ρύθμιση κρίνεται ως πρόχειρη και ατεκμηρίωτη και εκφράζω την ανησυχία μου για τα προβλήματα που θα δημιουργήσει στην εφαρμογή του το ΣχΝ και τα όποια ήδη με λύπη μου εντοπίζω.
    Ρυθμίζονται θεμελιώδη δικαιώματα, θεσπίζεται στη χώρα μας για πρώτη φορά τομεακό δίκαιο προστασίας δεδομένων προσωπικού χαρακτήρα, όσον αφορά τη χρήση αλγόριθμου ακόμη και σε δικαστήρια αλλά και σε εργαζόμενους και αγνοείται ο ΓΚΠΔ και η Αστυνομική Οδηγία ( ν. 4624/2019).
    Πρέπει όμως να πείτε καθαρά τι θέλετε να ρυθμίσετε!
    Δεν γίνεται χρήση του όρου «δεδομένα προσωπικού χαρακτήρα» ούτε μία φορά στα 10 αυτά άρθρα! Δεν κάνετε παραπομπή σε εθνικό ή ενωσιακό δίκαιο ( ΓΚΠΔ, ν.4624/2019).Η ορολογία που χρησιμοποιείται σε όλα τα άρθρα είναι εκτός ενωσιακής και εθνικής νομοθεσίας περί δεδομένων προσωπικού χαρακτήρα με αποτέλεσμα από το υποκείμενο των δεδομένων να μην γίνεται αντιληπτό ότι επιχειρείται ρύθμιση που αφορά σε δεδομένα προσωπικού χαρακτήρα και μάλιστα του άρθρου 22 ΓΚΠΔ περί αυτοματοποιημένης λήψης αποφάσεων, συμπεριλαμβανομένου του profiling.
    Ας γίνει επιτέλους αντιληπτή η σοβαρότητα του ζητήματος!
    Εκτιμώ ότι θα ήταν απολύτως εποικοδομητικό πριν από την ψήφισή του, αν δεν το έχετε ήδη πράξει, να ζητήσετε την γνώμη αρμόδιων θεσμικών φορέων, όπως είναι η Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (θαρρώ θα σας είχε επισημάνει την απόφασή της για εκτίμηση αντικτύπου), η οποία θα σας δώσει τις απαραίτητες κατευθύνσεις, και αν η επιχειρούμενη ρύθμιση καταλαμβάνει και δικαστήρια, και των Ολομελειών των Ανωτάτων Δικαστηρίων της χώρας ( ΣτΕ, ΑΠ και ΕλΣυν), κατά το λόγο αρμοδιότητάς τους.
    Κάποιες ακόμη τελευταίες παρατηρήσεις:
    Η υποχρέωση για τη διενέργεια εκτίμησης αντικτύπου σχετικά με την προστασία δεδομένων (ΕΑΠΔ) προβλέπεται στο άρθρο 35 παρ. 1 του ΓΚΠΔ.
    Η ΕΑΠΔ διενεργείται από τον υπεύθυνο επεξεργασίας όταν οι πράξεις επεξεργασίας ενδέχεται να επιφέρουν υψηλό κίνδυνο για τα δικαιώματα και τις ελευθερίες των φυσικών προσώπων ιδίως με τη χρήση νέων τεχνολογιών και συνεκτιμώντας το φύση, το πεδίο εφαρμογής, το πλαίσιο και τους σκοπούς της επεξεργασίας. Ενδεικτικά είδη πράξεων επεξεργασίας οι οποίες ενέχουν υψηλό κίνδυνο παρατίθενται στο άρθρο 35 παρ. 3 του ΓΚΠΔ (βλ. αιτ. 91 του ΓΚΠΔ).
    Η Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (Αρχή) έχει καταρτίσει, βάσει του άρθρου 35 παρ. 4 του ΓΚΠΔ, σχέδιο καταλόγου με τα είδη των πράξεων επεξεργασίας που υπόκεινται στην απαίτηση για διενέργεια ΕΑΠΔ. Πριν την έκδοση του εν λόγω καταλόγου ΕΑΠΔ, η Αρχή εφάρμοσε, κατά τα προβλεπόμενα στο άρθρο 35 παρ. 6, το μηχανισμό συνεκτικότητας που αναφέρεται στο άρθρο 63 ανακοινώνοντας το σχέδιο καταλόγου στο Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων (ΕΣΠΔ).
    Η Αρχή, με την με αριθμό 65/2018 (Β΄1622/10.5.2019) Απόφασή της, αποφάσισε, σύμφωνα με το άρθρο 64 παρ. 7 του ΓΚΠΔ, την τροποποίηση του καταλόγου ΕΑΠΔ βάσει των συστάσεων της γνώμης 7/2018 του ΕΣΠΔ και την ανακοίνωσή του στο ΕΣΠΔ.
    Με το άρθρο 5 επιβάλλεται καθολική υποχρέωση σε όλους τους δημόσιους φορείς να διενεργούν αλγοριθμική εκτίμηση αντικτύπου, χωρίς παραπομπή στην 65/2018 απόφαση της Αρχής ή στον ΓΚΠΔ και με απουσία οποιαδήποτε κρίσης περί διαβάθμισης του κινδύνου.
    Έχει γίνει αντιληπτό από τους συντάκτες του ΣχΝ το δημοσιονομικό κόστος της προτεινόμενης ρύθμισης? Από ποιους φορείς θα διενεργείται η εκτίμηση αντικτύπου? Οι ίδιες οι δημόσιες υπηρεσίες διαθέτουν την τεχνική ικανότητα να εκπονήσουν αυτόνομα και με ίδια μέσα «αλγοριθμική εκτίμηση αντικτύπου» ή θα αναθέτουν την εν λόγω υποχρέωση σε εξωτερικούς συνεργάτες κλ.π.. Πως θα τηρείται η εμπιστευτικότητα προκειμένου για απόρρητες πληροφορίες? Και ποιος ο λόγος για την επιβολή αυτής της καθολικής υποχρέωσης, χωρίς διαβάθμιση κινδύνου? Το ελληνικό δημόσιο λειτουργεί εντός αυστηρού πλαισίου αρμοδιοτήτων και με γνώμονα την αρχή της νομιμότητας. Με την ασάφεια δε των προτεινόμενων ορισμών υπάρχει ο κίνδυνος για οποιαδήποτε επεξεργασία η οποία περιλαμβάνει χρήση λογισμικού οι φορείς του ελληνικού δημοσίου να εκπονούν αλγοριθμική εκτίμηση αντικτύπου. Αυτός είναι εξάλλου ένας φόβος ο οποίος έχει ήδη εκφρασθεί από ΚΜ και για αυτό και οι τόσες συζητήσεις για τον ορισμό!
    Ως προς τα άρθρα 7, 9 και 10 του ΣχΝ με τα οποία επιβάλλονται υποχρεώσεις σε ιδιωτικούς φορείς έχει προηγηθεί διαβούλευση με αυτούς? Από την έκθεση συνεπειών ρύθμισης είδα πως έχει προηγηθεί διαβούλευση μόνο με συναρμόδια Υπουργεία?
    Επανέρχομαι και πάλι στα ζητήματα σύγκρουσης του δικαιώματος ενημέρωσης με ζητήματα εμπορικού και βιομηχανικού απορρήτου ( trade secrets). Το άρθρο 7 είναι ασαφές και σε ορισμένα σημεία ακατανόητο! Το Ελληνικό Δημόσιο θα έχει πλήρη πρόσβαση στο λογισμικό? Και αν αυτή είναι η βούληση, ποια εταιρεία θα το αποδεχθεί? Και αν το αποδεχθεί, που θα φτάσει και πάλι το δημοσιονομικό κόστος? Θα το αγοράσουμε το πρόγραμμα? Τεχνικός δεν είμαι…αλλά η ρύθμιση μου φαίνεται εκεί κατατείνει…ας μιλήσουν άλλοι για αυτό… ή έστω ας αφήσουμε τον ενωσιακό νομοθέτη και το ΔΕΕ να μας δώσει κατευθύνσεις.
    Περαιτέρω, τι σημαίνει «σχετίζεται»? Άστοχη ορολογία για δημόσιες συμβάσεις. Οι όροι που τίθενται με το άρθρο 7 σε αναδόχους συστημάτων τεχνητής νοημοσύνης είναι συμβατοί με την εθνική και ενωσιακή νομοθεσία περί «δημοσίων συμβάσεων»? Και τι τύχη μπορεί να έχουν αυτοί οι όροι μετά την υιοθέτηση του νέου Κανονισμού?
    Τέλος, να διευκρινισθεί η νομική βάση για το επιτρεπτό του profiling σε εργαζόμενους και τα τεχνικά-οργανωτικά μέτρα. Το δικαίωμα ενημέρωσης με τη χρήση της λέξης «κατ’ελάχιστον» καλύπτει μόνο τις παραμέτρους και όχι και τα υπόλοιπα και συνακόλουθα το δικαίωμα ενημέρωσης κρίνεται συνολικά ανεπαρκές. Η διάταξη είναι προβληματική και χρήζει εξειδίκευσης.
    Δεν έχω άλλο χρόνο, δυστυχώς.
    Θερμή παράκληση
    Ας μην βιαστούμε τόσο!
    Με τιμή
    Σπυριδούλα Καρύδα
    Πάρεδρος ΣτΕ
    LL.M. in Space, SatCom and Media Law
    PhD (c) in International Satellite and Data Protection Law

  • 1 Ιουλίου 2022, 15:16 | Βασίλης

    Πάρτε το πίσω

  • 1 Ιουλίου 2022, 15:29 | Σπυριδούλα Καρύδα

    Με αφορμή τη θέση σε διαβούλευση του ΣχΝ του Υπουργείου Ψηφιακής Διακυβέρνησης υπό τον τίτλο «Ψηφιακή Αναβάθμιση της Δημόσιας Διοίκησης» και ειδικότερα όσον αφορά τα προτεινόμενα άρθρα 1-10 αυτού μέσω των οποίων επιχειρείται, το πρώτον, η θέσπιση τομεακού εθνικού νομοθετικού πλαισίου για την χρησιμοποίηση τεχνολογιών τεχνητής νοημοσύνης διατυπώνω τις ακόλουθες παρατηρήσεις:
    Α. Επί της Αρχής του ΣχΝ
    Όπως είναι γνωστό, από πλευράς ενωσιακού νομοθέτη επιχειρείται μέσω πρότασης κανονισμού [βλ. Πρόταση Κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη ( πράξη για την τεχνητή νοημοσύνη (COM(2021) 206 final] η θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη (πράξη για την τεχνητή νοημοσύνη). Όπως περαιτέρω επισημαίνεται, σε πλείστα όσα σημεία της αιτιολογικής έκθεσης που συνοδεύει την εν θέματι «πρόταση», στόχο του Κανονισμού αποτελεί η θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη ( βλ. σημείο 1.1. της προτάσης). Περαιτέρω, σε άλλο σημείο της πρότασης (σημείο 2.1 της πρότασης) επισημαίνεται από την ΕΕ ότι «Η παρούσα πρόταση αποτελεί βασικό μέρος της στρατηγικής της ΕΕ για την ψηφιακή ενιαία αγορά. Πρωταρχικός στόχος της παρούσας πρότασης είναι να διασφαλιστεί η ορθή λειτουργία της εσωτερικής αγοράς με τη θέσπιση εναρμονισμένων κανόνων, ειδικότερα σε σχέση με την ανάπτυξη, τη διάθεση στην αγορά της Ένωσης και τη χρήση προϊόντων και υπηρεσιών που χρησιμοποιούν τεχνολογίες ΤΝ ή παρέχονται ως αυτόνομα συστήματα ΤΝ. Κάποια κράτη μέλη εξετάζουν ήδη το ενδεχόμενο θέσπισης εθνικών κανόνων για να διασφαλίσουν ότι η ΤΝ είναι ασφαλής και αναπτύσσεται και χρησιμοποιείται σύμφωνα με τις υποχρεώσεις που απορρέουν από τα θεμελιώδη δικαιώματα. Αυτό είναι πιθανό να οδηγήσει σε δύο βασικά προβλήματα: i) στον κατακερματισμό της εσωτερικής αγοράς σε σχέση με ουσιώδη στοιχεία, ειδικότερα όσον αφορά τις απαιτήσεις για τα προϊόντα και τις υπηρεσίες ΤΝ, την εμπορία τους, τη χρήση τους, την ευθύνη και την εποπτεία από τις δημόσιες αρχές, και ii) τη σημαντική μείωση της ασφάλειας δικαίου τόσο για τους παρόχους όσο και για τους χρήστες συστημάτων ΤΝ σχετικά με τον τρόπο εφαρμογής των υφιστάμενων και των νέων κανόνων στα εν λόγω συστήματα στην Ένωση. Δεδομένης της ευρείας διασυνοριακής κυκλοφορίας προϊόντων και υπηρεσιών, τα δύο αυτά προβλήματα μπορούν να επιλυθούν καλύτερα μέσω της εναρμόνισης της νομοθεσίας σε επίπεδο ΕΕ».
    Παρατηρείται λοιπόν ότι με το προτεινόμενο ΣχΝ επιχειρείται από πλευράς εθνικού νομοθέτη μία αναιτιολόγητη σπουδή ως προς τη λήψη σχετικής νομοθετικής πρωτοβουλίας, πριν ακόμη υιοθετηθεί η πρόταση του εν θέματι Κανονισμού, θα τολμούσα να πω και προχειρότητα, η οποία θα επιβαρύνει με αδικαιολόγητα κόστη τις εμπορικές εταιρείες και με γραφειοκρατικό φόρτο τους φορείς του δημόσιου τομέα και νομοτελειακά θα έχει αντίχτυπο σε τυχόν επενδυτικό ενδιαφέρον, θα βλάψει δε και τον ανταγωνισμό. Επισημαίνεται επίσης, ότι παρατηρείται αλληλοεπικάλυψη των προς λήψη μέτρων (δίνεται ορισμός της τεχνητής νοημοσύνης, επιβάλλεται αλγοριθμική εκτίμηση αντιχτύπου, προβλέπονται υποχρεώσεις των αναδόχων συστημάτων τεχνητής νοημοσύνης κ.ο.κ). ζητήματα τα οποία κατ’εξοχήν ρυθμίζονται από τη σχετική «πρόταση» σε ενωσιακό όμως επίπεδο.
    Με πληροφορίες αντλούμενες από το «ΕU AI Act Newsletter» υπό της Προεδρεία της Τσεχίας θα συζητηθεί η πρόταση στην σχετική ομάδα εργασίας την 5.7.2022 και έως και τις 20.7.2022 αναμένεται η κοινοποίηση νέας επικαιροποιημένης πρότασης (τίθενται ζητήματα όσον αφορά τον ορισμό της τεχνητής νοημοσύνης και για τα υψηλού κινδύνου συστήματα). Ωστόσο, ο Κανονισμός, λόγω της νομικής φύσης του, δεν απαιτεί την έκδοση ιδιαίτερης νομικής πράξης εφαρμογής από τα κράτη μέλη, δεσμεύοντας άμεσα τα κρατικά όργανα, τις δημόσιες αρχές και τα δικαστήρια, καθώς και όλα τα πρόσωπα, φυσικά και νομικά, που εμπίπτουν στο πεδίο εφαρμογής του.
    Γίνονται εύκολα αντιληπτά τα προβλήματα που θα δημιουργήσει η προτεινόμενη ρύθμιση με τεχνοοικονομικούς όρους και την ανασφάλεια δικαίου που θα προκαλέσει.

    Β. Επί των αρχών διαφάνειας- θέσπισης νομικής βάσης επεξεργασίας- δικαιώματα εργαζομένων (άρθρα 4-6 και 9 του ΣχΝ).
    Η αλληλεπίδραση του ΣχΝ με τον ΓΚΠΔ και την προστασία δεδομένων προσωπικού χαρακτήρα, κατά την άποψη μου, δεν φωτίζεται επαρκώς. Με το άρθρο 4 πράγματι επιχειρείται να δοθεί μία τομεακή νομική βάση στηριζόμενη στη διατύπωση του άρθρου 22 παρ.2 στοιχ β) του ΓΚΠΔ η οποία δίδει ρήτρα ανοίγματος στα ΚΜ [ βλ. Buchner:Kühling/Buchner, DS-GVO/BDSG, 3η έκδ. 2020, άρ. 22, αρ. 37-38] και με βάση την αρχή της «επιτρεπτικότητας» που διαπνέει όλο το δίκαιο της προστασίας δεδομένων προσωπικού χαρακτήρα (Verbotsprinzip mit Erlaubnisvorbehalt), ωστόσο τα ληφθέντα μέτρα, οι εγγυήσεις, εκτιμώ ότι βρίσκονται αρκετά χαμηλότερα από τα προτεινόμενα με την Αιτ.σκ 71 του ΓΚΠΔ, αν υπάρχουν…. Δεν καθίσταται σαφές αν το άρθρο 4 καταλαμβάνει και την κατάρτιση προφίλ και αν όχι, ποιος είναι ο λόγος που περιλαμβάνεται στους ορισμούς του άρθρου 3 του ΣχΝ (κατά ανεπίτρεπτη επανάληψη του ορισμού του ΓΚΠΔ). Αυτό νομίζω επιβάλλεται να διευκρινισθεί.
    Εξόχως προβληματικό είναι και το άρθρο 9 για τη χρήση τεχνητής νοημοσύνης στον εργασιακό τομέα. Δεν διευκρινίζεται ποια είναι η έννοια «σύστημα τεχνητής νοημοσύνης», η οποία δεν ταυτίζεται με τους ορισμούς του άρθρου 3, δεν προσδιορίζεται η εθνική νομική βάση, αν τυχόν υπάρχει, για το επιτρεπτό της προτεινόμενης επεξεργασίας, η οποία άλλωστε τίθεται σοβαρώς το ενδεχόμενο να έρχεται σε αντίθεση με το άρθρο 22 ΓΚΠΔ και άρθρο 27 ν. 4624/2019 (Α΄137). Δεν λαμβάνονται τέλος ειδικά προστατευτικά μέτρα έναντι των εργαζομένων, ενώ η πρόβλεψη μόνο για ενημέρωση τους δεν κρίνεται επαρκής. Τέλος, ενώ το άρθρο 6 θεσπίζει υποχρεώσεις διαφάνειας, έστω και με προβληματικό τρόπο, αυτό αφορά μόνο τους δημόσιους φορείς, ενώ το άρθρο 9 εφαρμόζεται μόνον στον ιδιωτικό τομέα, χωρίς να γίνεται παραπομπή και στο άρθρο 6 του ΣχΝ αναφορικά με τις πληροφορίες που πρέπει να παρέχονται στο υποκείμενο των δεδομένων.
    Ως προς το ακανθώδες ζήτημα του δικαιώματος ενημέρωσης/ πρόσβασης ή παροχής εξηγήσεων στο υποκείμενο των δεδομένων, προκειμένου για λήψη αυτοματοποιημένης απόφασης που το αφορά, σύμφωνα με το άρθρο 15 παρ.1 στοιχείο η) του ΓΚΠΔ σε συνδυασμό με το άρθρο 22 του ΓΚΠΔ, αν υπάρχει σχετικό δικαίωμα, το εύρος αυτού, την τυχόν πρόσκρουση με δικαιώματα βιομηχανικής ή εμπορικής ιδιοκτησίας, εκκρεμούν αυτή τη στιγμή σχετικές υποθέσεις στο ΔΕΕ [ενδεικτικώς: Υποθέσεις C-203/22 Dun & Bradstreet Austria, C-634/21 and C-552/21 SCHUFA Holding] και εκτιμώ ότι το ζήτημα δεν είναι ώριμο για υιοθέτηση εθνικής ρύθμισης, την προτεινόμενη δε ρύθμιση την κρίνω ως ανεπαρκή από πλευράς προστασίας των δεδομένων προσωπικού χαρακτήρα αλλά και από τεχνοοικονομική όψη ιδιαιτέρως προβληματική.
    Προτείνω, χωρίς επιφύλαξη, την απόσυρση των άρθρων 3-10 του ΣχΝ.
    Με τιμή
    Σπυριδούλα Καρύδα
    Πάρεδρος Συμβουλίου της Επικρατείας
    LL.M. in Space, SatCom and Media Law (University of Luxembourg)
    PhD (c) in International Satellite and Data Protection Law