Ένα φιλόδοξο βήμα για την εποπτεία των συστημάτων Artificial Intelligence έκανε η ΕΕ με τη δημοσίευση του Κανονισμού 2024/1689 για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την AI (EU AI Act), στις 12 Ιουλίου 2024, η οποία τίθεται σε άμεση εφαρμογή σε όλα τα κράτη-μέλη.

Η ΕΕ πρωτοστατεί σε αυτό το θέμα, διατηρώντας μια νομοθετική ισορροπία μεταξύ, αφενός, της ελευθερίας για έρευνα, ανάπτυξη και χρήση συστημάτων AI από τις εταιρείες και τους οργανισμούς και αφετέρου, της προάσπισης της ασφάλειας, των θεμελιωδών δικαιωμάτων, της δημοκρατίας και του περιβάλλοντος από τους κινδύνους της τεχνητής νοημοσύνης.

Η EE, μέσω της EU AI Act, έχει ως βασικό στόχο τον έλεγχο της ασφάλειας και της αξιοπιστίας των συστημάτων τεχνητής νοημοσύνης, τα οποία λειτουργούν εντός της επικράτειάς της (ανεξάρτητα από τη χώρα ανάπτυξης τους), προστατεύοντας, παράλληλα, τα θεμελιώδη δικαιώματα των πολιτών της. Με την εφαρμογή της Πράξης, οι επιχειρήσεις θα πρέπει να εναρμονιστούν με μια σειρά από απαιτήσεις και πρότυπα, εξασφαλίζοντας ότι τα συστήματα AI, τα οποία αναπτύσσουν ή λειτουργούν, είναι ασφαλή και δίκαια για τους χρήστες.

Σύμφωνα με την EU AI Act, ένα σύστημα AI ορίζεται ως ένα λογισμικό, που αναπτύσσεται με ορισμένες τεχνικές και προσεγγίσεις και μπορεί, για ένα δεδομένο σύνολο καθορισμένων στόχων, με έναν – έστω και ελάχιστο – βαθμό αυτονομίας, να παράγει αποτελέσματα, όπως προτάσεις, εκτιμήσεις, προβλέψεις, αποφάσεις ή άλλες ενέργειες, που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλοεπιδρά.

Είναι σαφές ότι ο ορισμός των συστημάτων ΑΙ καλύπτει ένα ευρύ φάσμα τεχνικών και προσεγγίσεων στον χώρο της τεχνολογίας αυτής, όπως η μηχανική μάθηση (machine learning), η βαθιά μάθηση (deep learning), η επεξεργασία φυσικής γλώσσας (natural language processing) και τα συστήματα AI γενικού σκοπού (general purpose ΑΙ systems).

Διαβάθμιση συστημάτων AI

Όπως εξηγεί η EY Ελλάδος, με αφορμή τη δημοσίευση του Κανονισμού “AI Act”, ο νέος κανονισμός διαβαθμίζει τα συστήματα αυτά σε επίπεδα κινδύνου με βάση τον δυνητικό αντίκτυπο στα δικαιώματα και τις ελευθερίες των ανθρώπων, εισάγοντας διαφορετικές απαιτήσεις για όλους τους εμπλεκόμενους φορείς, όπως όσοι αναπτύσσουν συστήματα ΑΙ και όσοι χρησιμοποιούν τέτοια συστήματα.

Διαφορετικές απαιτήσεις και χρονικά πλαίσια εναρμόνισης, ορίζονται για τις παρακάτω κατηγορίες συστημάτων:

– Μη αποδεκτού κινδύνου συστήματα AI: Περιλαμβάνουν, για παράδειγμα, συστήματα τα οποία χρησιμοποιούνται για την αξιολόγηση ή την ταξινόμηση φυσικών προσώπων με βάση την κοινωνική συμπεριφορά ή την προσωπικότητά τους, ή συστήματα τα οποία εκμεταλλεύονται συγκεκριμένα χαρακτηριστικά ομάδων φυσικών προσώπων. H χρήση των συστημάτων αυτών είναι απαγορευμένη. Το χρονικό πλαίσιο απαγορεύσεων για τα συστήματα μη αποδεκτού κινδύνου έχει οριστεί στους 6 μήνες μετά την έναρξη ισχύος της Πράξης.

– Υψηλού κινδύνου συστήματα ΑΙ: Για τα συστήματα αυτά προβλέπονται πολλαπλές απαιτήσεις πριν από την έναρξη χρήσης τους, και σε συνεχή βάση. Οι βασικές τους απαιτήσεις είναι η εισαγωγή συστήματος διαχείρισης κινδύνων, το οποίο θα χρησιμοποιείται καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος, η διακυβέρνηση και ο έλεγχος ποιότητας δεδομένων για την εκπαίδευση, επικύρωση και λειτουργία του συστήματος, αξιολόγηση ακρίβειας, επάρκειας και αξιοπιστίας των αποτελεσμάτων, η ύπαρξη διαφάνειας, πληροφόρησης, ασφάλειας και ακεραιότητας των χρηστών, η ανθρώπινη εποπτεία για τον έλεγχο λειτουργίας του συστήματος και η ολοκληρωμένη τεχνική τεκμηρίωση.

Η αξιολόγηση των συστημάτων υψηλού κινδύνου αναμένεται 24-36 μήνες μετά την έναρξη ισχύος της Πράξης, ανάλογα με την κατηγορία του συστήματος.

Συστήματα χαμηλού κινδύνου

– Χαμηλού κινδύνου συστήματα AI: Περιλαμβάνουν συστήματα που προορίζονται για άμεση αλληλεπίδραση με φυσικά πρόσωπα και υπόκεινται κυρίως σε απαιτήσεις διαφάνειας. Οι απαιτήσεις για τα συστήματα χαμηλού κινδύνου, θα τεθούν σε εφαρμογή 24 μήνες μετά την έναρξη ισχύος της πράξης.

– Συστήματα AI γενικού σκοπού: Αφορούν συστήματα τα οποία είναι ικανά να εκτελούν ένα ευρύ φάσμα εργασιών και δεν είναι περιορισμένα σε μία συγκεκριμένη λειτουργία ή εφαρμογή. Οι απαιτήσεις για τα συστήματα αυτά, διαφοροποιούνται με βάση τον συστημικό τους κίνδυνο, ενώ αναμένεται να τεθούν σε εφαρμογή 12 μήνες μετά την έναρξη ισχύος της Πράξης.

Να σημειωθεί ότι η EU AI Act προβλέπει τη σύσταση ειδικών εποπτικών αρχών σε κάθε κράτος-μέλος, οι οποίες θα έχουν την ευθύνη να ελέγχουν τη συμμόρφωση των επιχειρήσεων με τις απαιτήσεις της, καθώς και να επιβάλλουν τυχόν κυρώσεις σε περιπτώσεις αποκλίσεων. Ενδεικτικά, οι ποινές μη συμμόρφωσης ενός οργανισμού, σε περίπτωση που θέτει σε λειτουργία συστήματα AI μη αποδεκτού κινδύνου, δύνανται να φτάσουν μέχρι και το 7% του κύκλου εργασιών του.

ΠΗΓΗ: ΣΕΠΕ