Άρθρο 5 Αλγοριθμική εκτίμηση αντικτύπου

1. Κάθε φορέας του δημόσιου τομέα που χρησιμοποιεί σύστημα αλγοριθμικής λήψης αποφάσεων, πριν από την έναρξη λειτουργίας του συστήματος, εκπονεί αλγοριθμική εκτίμηση αντικτύπου.
2. Η αλγοριθμική εκτίμηση αντικτύπου περιλαμβάνει, ιδίως, τις ακόλουθες πληροφορίες:
α) βασικές πληροφορίες του συστήματος, όπως η ονομασία, η έκδοση και η επωνυμία του κατασκευαστή,
β) τις παραμέτρους λειτουργίας,
γ) την περιγραφή του επιδιωκόμενου σκοπού, συμπεριλαμβανομένου του δημόσιου συμφέροντος που εξυπηρετείται με τη χρήση του συστήματος,
δ) τις κατηγορίες αποφάσεων που λαμβάνονται με τη συμμετοχή του συστήματος,
ε) τις κατηγορίες δεδομένων που συλλέγονται, τυγχάνουν επεξεργασίας ή παράγονται από το σύστημα,
στ) την αξιολόγηση των κινδύνων που ενδέχεται να προκύψουν για τα δικαιώματα και τις ελευθερίες των φυσικών ή νομικών προσώπων, στα οποία αφορά η λήψη της απόφασης και
ζ) τον προσδιορισμό και την ανάλυση του προσδοκώμενου οφέλους που απορρέει από τη χρήση του συστήματος σε συνάρτηση με τις ενδεχόμενες δυσμενείς συνέπειες.

  • 14 Ιουλίου 2022, 19:03 | Μπάλλας, Πελεκάνος & Συνεργάτες Α.Ε.Δ.Ε.

    Στον βαθμό που η αλγοριθμική εκτίμηση αντικτύπου διαφέρει από την εκτίμηση αντικτύπου σχετικά με την προστασία δεδομένων του άρθρου 35 του ΓΚΠΔ, δεν είναι σαφές ποιος είναι ο σκοπός της από τη στιγμή που δεν είναι υποχρεωτική η λήψη και η αναγραφή σε αυτήν των μέτρων αντιμετώπισης των ενδεχόμενων κινδύνων και των δυσμενών συνεπειών, περιλαμβανόμενων των εγγυήσεων και των μηχανισμών ασφαλείας, ώστε να διασφαλίζεται η προστασία των θεμελιωδών δικαιωμάτων.

  • 14 Ιουλίου 2022, 19:46 | ΟΜΑΔΑ ΕΡΓΑΣΙΑΣ ΟΜΙΛΟΥ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ AI CATALYST

    Δεν είναι εμφανές ποιος και πως θα χρησιμοποιήσει την αλγοριθμική εκτίμηση αντικτύπου. Επίσης θα είναι διαθέσιμο κάποιο template με βάση το οποίο θα γίνεται η εκτίμηση αυτή;

    Στην δεύτερη παράγραφο καλό θα ήταν να προστεθεί ένα επιπλέον σημείο που αφορά στη διαβεβαίωση ότι ο αλγόριθμος τεχνητής νοημοσύνης είναι δίκαιος και αμερόληπτος, με την έννοια ότι έχει λάβει υπόψιν του τα χαρακτηριστικά όλων των ομάδων χρηστών, τους οποίους αφορά η λήψη της απόφασης του συστήματος τεχνητής νοημοσύνης. Eπίσης στην ίδια παράγραφο θα μπορούσαν να συνενωθούν τα σημεία γ και ζ.

  • 14 Ιουλίου 2022, 13:50 | Οργανισμός Ανοιχτών Τεχνολογιών – ΕΕΛΛΑΚ

    Η ΕΕΛΛΑΚ προτείνει την τροποποίηση της παρ2 του αρ5 ως εξής:

    «Η αλγοριθμική εκτίμηση αντικτύπου αναρτάται στην κεντρική ιστοσελίδα ειδικού σκοπού του Αρ6,παρ1 του παρόντος και περιλαμβάνει, ιδίως, τις ακόλουθες πληροφορίες:
    α) βασικές πληροφορίες του συστήματος, όπως η ονομασία, η έκδοση και η επωνυμία του κατασκευαστή,
    β) τις παραμέτρους λειτουργίας,
    γ) την περιγραφή του επιδιωκόμενου σκοπού, συμπεριλαμβανομένου του δημόσιου συμφέροντος που εξυπηρετείται με τη χρήση του συστήματος,
    δ) τις κατηγορίες αποφάσεων που λαμβάνονται με τη συμμετοχή του συστήματος,
    ε) τις κατηγορίες δεδομένων που συλλέγονται, τυγχάνουν επεξεργασίας ή παράγονται από το σύστημα,
    στ) την αξιολόγηση των κινδύνων που ενδέχεται να προκύψουν για τα δικαιώματα και τις ελευθερίες των φυσικών ή νομικών προσώπων, στα οποία αφορά η λήψη της απόφασης και
    ζ) την αξιολόγηση του περιβαλλοντικού αποτυπώματος που ενδέχεται να έχει η χρήση του συστήματος αλγοριθμικής λήψης αποφάσεων
    η) τον προσδιορισμό και την ανάλυση του προσδοκώμενου οφέλους που απορρέει από τη χρήση του συστήματος σε συνάρτηση με τις ενδεχόμενες δυσμενείς συνέπειες.»

  • Η θέσπιση ρυθμίσεων για την ασφαλή αξιοποίηση των δυνατοτήτων της τεχνολογίας Τεχνητής Νοημοσύνης (ΤΝ) από φορείς του δημοσίου και του ιδιωτικού τομέα είναι ιδιαίτερα σημαντική καθώς η χρήση της αυξάνεται ολοένα και περισσότερο και ως εκ τούτου και ο αντίκτυπός της στις ζωές του συνόλου των πολιτών. Παρά το γεγονός ότι η συμβολή της ΤΝ στην αντιμετώπιση σύγχρονων προκλήσεων μπορεί να είναι ιδιαίτερα θετική, ωστόσο την ίδια στιγμή μπορεί ο αντίκτυπός της στα άτομα και τις κοινωνίες να είναι ιδιαίτερα αρνητικός. Πιο συγκεκριμένα, στη Λευκή Βίβλο «Τεχνητή Νοημοσύνη-Η Ευρωπαϊκή προσέγγιση της αριστείας και της εμπιστοσύνης» [Βρυξέλλες 19.02.2020, COM(2020) 65 Final], επισημαίνονται οι κίνδυνοι για τα θεμελιώδη δικαιώματα. Πιο συγκεκριμένα, επισημαίνεται ότι «Η χρήση της ΤΝ μπορεί να επηρεάσει τις αξίες στις οποίες βασίζεται η ΕΕ και να οδηγήσει σε παραβιάσεις των θεμελιωδών δικαιωμάτων, συμπεριλαμβανομένων των δικαιωμάτων της ελευθερίας της έκφρασης, της ελευθερίας του συνέρχεσθαι, της ανθρώπινης αξιοπρέπειας, της απαγόρευσης των διακρίσεων λόγω φύλου, φυλετικής ή εθνοτικής καταγωγής, θρησκείας ή πεποιθήσεων, αναπηρίας, ηλικίας ή γενετήσιου προσανατολισμού, όπως ισχύει σε ορισμένους τομείς». Συνεχίζοντας η Βίβλος αναφέρει ότι «Οι κίνδυνοι αυτοί θα μπορούσαν να προκύψουν από αδυναμίες στον συνολικό σχεδιασμό των συστημάτων ΤΝ (μεταξύ άλλων όσον αφορά την ανθρώπινη εποπτεία) ή από τη χρήση δεδομένων χωρίς διόρθωση της πιθανής μεροληψίας (π.χ. το σύστημα έχει εκπαιδευτεί με τη χρήση μόνο ή κυρίως δεδομένων από άνδρες, γεγονός που οδηγεί σε κατώτερα του επιθυμητού αποτελέσματα για τις γυναίκες)», και εύλογα θα συμπληρώναμε ή μόνο από άτομα δίχως αναπηρία, γεγονός που οδηγεί σε κατώτερα του επιθυμητού αποτελέσματα για τα άτομα με αναπηρία ή/και χρόνιες παθήσεις.
    Αρνητικές επιπτώσεις στα δικαιώματα των ατόμων με αναπηρία θα μπορούσαν να επιφέρουν συστήματα Τεχνητής Νοημοσύνης που χρησιμοποιούνται για τη βιομετρική ταυτοποίηση φυσικών προσώπων, την πρόσβαση στην απασχόληση, στην εκπαίδευση και στην επαγγελματική κατάρτιση, στις βασικές ιδιωτικές υπηρεσίες και στις δημόσιες υπηρεσίες και παροχές. Για τον λόγο αυτό το Ευρωπαϊκό Φόρουμ Ατόμων με Αναπηρία στο Κείμενο Πολιτικής που δημοσίευσε τον Νοέμβριο του 2021[1], στο οποίο περιλαμβάνονταν οι απόψεις του επί της Πρότασης Κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την Τεχνητή Νοημοσύνη, ζητά να απαγορευτούν πρακτικές που περιλαμβάνονται στο Παράρτημα ΙΙΙ αυτού και οι οποίες συνδέονται με τη βιομετρική ταυτοποίηση φυσικών προσώπων, την πρόσβαση στην απασχόληση, στην εκπαίδευση και στην επαγγελματική κατάρτιση, στις βασικές ιδιωτικές υπηρεσίες και στις δημόσιες υπηρεσίες και παροχές.
    Πέραν των προαναφερθέντων, το Ευρωπαϊκό Φόρουμ Ατόμων με Αναπηρία προτείνει ο εν λόγω Κανονισμός:

    • να περιλαμβάνει απαιτήσεις για την οριζόντια ενσωμάτωση της προσβασιμότητας στα άτομα με αναπηρία σε όλα τα συστήματα Τεχνητής Νοημοσύνης, ανεξάρτητα από το επίπεδο κινδύνου, καθώς και την παροχή ενημέρωσης και οδηγιών σε προσβάσιμες μορφές στα άτομα με αναπηρία,

    • να διασφαλίζει την ιδιωτικότητα και την προστασία των προσωπικών δεδομένων όλων των ατόμων με αναπηρία, ήτοι και των ατόμων με νοητική και ψυχοκοινωνική αναπηρία, συμπεριλαμβανομένων μάλιστα και αυτών που στερούνται τη δικαιοπρακτική τους ικανότητα, όταν γίνεται επεξεργασία των στοιχείων τους από τα συστήματα Τεχνητής Νοημοσύνης, και να ενημερώνονται για τα δεδομένα που συλλέγονται καθώς και για τη χρήση τους,

    • να προβλέπει μέτρα για την υποβολή καταγγελιών σε εξουσιοδοτημένους φορείς, που να είναι προσβάσιμα στα άτομα με αναπηρία,

    • να διασφαλίζει την εκ των προτέρων εκτίμηση του αντικτύπου των συστημάτων Τεχνητής Νοημοσύνης υψηλού κινδύνου στα ανθρώπινα δικαιώματα προτού αυτά τεθούν σε χρήση, καθώς και την εκ των προτέρων αξιολόγηση της προσβασιμότητας των συστημάτων αυτών στα άτομα με αναπηρία,

    • να περιλαμβάνει προορατικά μέτρα σε επίπεδο ΕΕ και κρατών μελών για την υποστήριξη της ανάπτυξης της Τεχνητής Νοημοσύνης προς όφελος της κοινωνίας και των ευπαθών ομάδων του πληθυσμού, μεταξύ των οποίων συγκαταλέγονται και τα άτομα με αναπηρία και χρόνιες παθήσεις, και να προωθεί, μέσω της παροχής σχετικών κινήτρων (π.χ. ευρωπαϊκών και εθνικών χρηματοδοτήσεων) τη συμμετοχή εμπειρογνωμόνων με αναπηρία, εμπειρογνωμόνων προσβασιμότητας και οργανώσεων των ατόμων με αναπηρία στην ανάπτυξη συστημάτων Τεχνητής Νοημοσύνης.

    Βάσει των προαναφερθέντων, η Ε.Σ.Α.μεΑ. προτείνει τα ακόλουθα:
    1. Στο άρθρο 5 «Αλγοριθμική εκτίμηση αντικτύπου», το σημείο στ) της παρ. 2 να συμπληρωθεί ως ακολούθως:
    «2. Η αλγοριθμική εκτίμηση αντικτύπου περιλαμβάνει, ιδίως, τις ακόλουθες πληροφορίες: […]
    στ) την αξιολόγηση των κινδύνων που ενδέχεται να προκύψουν για τα δικαιώματα και τις ελευθερίες των φυσικών ή νομικών προσώπων, στα οποία αφορά η λήψη της απόφασης, συμπεριλαμβανομένου του δικαιώματος στη μη διάκριση λόγω φύλου, φυλετικής ή εθνοτικής καταγωγής, θρησκείας ή πεποιθήσεων, αναπηρίας, ηλικίας ή γενετήσιου προσανατολισμού, και […]»
    2. Στο άρθρο 6 «Υποχρεώσεις διαφάνειας», η παρ. 2 να συμπληρωθεί ως ακολούθως:
    «2. Κάθε φορέας του δημόσιου τομέα που χρησιμοποιεί σύστημα αλγοριθμικής λήψης αποφάσεων διασφαλίζει ότι το φυσικό ή νομικό πρόσωπο στο οποίο αφορά η λήψη της απόφασης δύναται να λαμβάνει γνώση για τις παραμέτρους στις οποίες στηρίχθηκε η λήψη της απόφασης σε κατανοητή και εύκολα προσβάσιμη μορφή για όλους, συμπεριλαμβανομένων εκείνων των μορφών που διευκολύνουν την ενημέρωση των ατόμων με αναπηρία (π.χ. easy-to-read, braille κ.λπ.)».

  • Η πρόβλεψη είναι πολύ σωστή και θα συντελέσει στην ορθή και διαφανή λειτουργία αλγοριθμικών συστημάτων σε δημόσιο και ιδιωτικό τομέα ( προσλήψεις προσωπικού, χορήγηση κοινωνικών επιδομάτων, αξιολόγηση πιστοληπτικής ικανότητας δανειοληπτών, δαπάνες φορολογουμένων, προβλέψεις έκβασης δικαστικών διαφορών κ.λπ. Άλλωστε ο έλεγχος διαφάνειας των αλγοριθμικών συστημάτων επιβάλλεται ήδη νομοθετικά (Π.χ Ευρωπαϊκή Πράξη για τα Δεδομένα DSA για πλατφόρμες big tech εταιριών, Δανία για τις εισηγμένες στο χρηματιστήριο εταιρίες, Καναδάς για δημόσιο τομέα κλπ) είτε αναμένεται η ψήφιση της (ΗΠΑ για αλγόριθμους μεγάλων τεχνολογικών εταιριών κλπ)

    Είναι ανάλογη με την προβλεπόμενη στον ΓΚΠΔ εκτίμηση αντίκτυπου ιδιωτικότητας (ΕΑΠΔ άρθρου 35).
    Γίνεται βάσει συγκεκριμένων κριτηρίων και μεθοδολογίας.

    Βλ. περισσότερα για το θέμα και πρότυπα αλγοριθμικής εκτίμησης αντίκτυπου στο βιβλίο μου Εφαρμογές Τεχνητής Νοημοσύνης στο δίκαιο και στη δικαστική πρακτική, Νομική Βιβλιοθήκη, 2021. (Σελ. 285-289 και 443)