Με την εφαρμογή του νέου πλαισίου, ξεκινά η αντίστροφή μέτρηση για μια κλιμακωτή σειρά καταλληκτικών ημερομηνιών συμμόρφωσης, καθώς ο νόμος θα εφαρμοστεί σταδιακά σε διάφορες κατηγορίες δημιουργών μοντέλων τεχνητής νοημοσύνης και αντίστοιχων εφαρμογών. Οι περισσότερες πρόνοιες θα τεθούν σε πλήρη ισχύ έως τα μέσα του 2026. Η πρώτη καταληκτική ημερομηνία, όμως, που προβλέπει την επιβολή πλήρους απαγόρευσης σε ένα μικρό αριθμό χρήσεων τεχνητής νοημοσύνης σε συγκεκριμένα πλαίσια, όπως στη χρήση βιομετρικών στοιχείων από τις αστυνομικές αρχές σε δημόσιους χώρους, καθώς οι πρόνοιες αυτές τίθενται σε ισχύ εντός έξι μηνών.
Σύμφωνα με το ρυθμιστικό πλαίσιο της Ε.Ε. οι περισσότερες εφαρμογές τεχνητής νοημοσύνης θεωρούνται χαμηλού ή μηδενικού ρίσκου, επομένως δεν εμπίπτουν καν στις πρόνοιες του νέου νόμου.
Μια υποκατηγορία ενδεχόμενων χρήσεων τεχνητής νοημοσύνης κατηγοριοποιούνται ως υψηλού κινδύνου, όπως τα βιομετρικά δεδομένα και η αναγνώριση προσώπου, το ιατρικό λογισμικό που βασίζεται σε ΑΙ και η χρησιμοποίηση μοντέλων τεχνητής νοημοσύνης σε τομείς όπως η εκπαίδευση και η εργασία. Οι δημιουργοί τέτοιων μοντέλων υποχρεούνται να διασφαλίζουν τη συμμόρφωσή τους με τις υποχρεώσεις διαχείρισης κινδύνου και ποιότητας, συμπεριλαμβανομένης της αξιολόγησης συμμόρφωσης πριν τη διάθεση του μοντέλου στην αγορά, ενώ δεν αποκλείεται και η περίπτωση ελέγχου από τις ρυθμιστικές αρχές. Επιπλέον, τα συστήματα υψηλού κινδύνου που χρησιμοποιούνται από αρχές του δημοσίου τομέα ή τους προμηθευτές τους υποχρεωτικά θα εγγράφονται σε πανευρωπαϊκή βάση δεδομένων.
Μια τρίτη βαθμίδα "περιορισμένου κινδύνου" καλύπτει τεχνολογίες τεχνητής νοημοσύνης όπως τα chatbot ή εργαλεία που θα μπορούσαν να χρησιμοποιηθούν για τη δημιουργία deepfake βίντεο. Αυτά, καλούνται να τηρούν ορισμένα προαπαιτούμενα διαφάνειας, ώστε να διασφαλίζεται ότι δεν θα εξαπατηθούν οι χρήστες.
Οι ενδεχόμενες ποινές είναι επίσης κλιμακωτές, με τα πρόστιμα να ανέρχονται έως και το 7% του παγκοσμίου ετησίου τζίρου για παραβιάσεις του πλαισίου που αφορούν πλήρως απαγορευμένες εφαρμογές. Αντίστοιχα, για την παραβίαση άλλων υποχρεώσεων τα πρόστιμα θα αγγίζουν έως και το 3% του ετησίου τζίρου και έως 1,5% για την υποβολή ανακριβών στοιχείων στις ρυθμιστικές αρχές.
Μία άλλη σημαντική διάσταση του νόμου αφορά τους δημιουργούς των λεγόμενων μοντέλων τεχνητής νοημοσύνης γενικού σκοπού (GPAI). Και εδώ, η Ευρωπαϊκή Ένωση ακολούθησε μια προσέγγιση αξιολόγηση των κινδύνων, με τους περισσότερους δημιουργούς τέτοιων μοντέλων να βρίσκονται αντιμέτωποι με ήπιες απαιτήσεις διαφάνειας, αν και θα υποχρεούνται να υποβάλλουν περίληψη των δεδομένων εκπαίδευσης του μοντέλου, καθώς και να δεσμεύονται ότι θα τηρούν τη νομοθεσία περί πνευματικών δικαιωμάτων, μεταξύ άλλων.
Μόνο μια υποκατηγορία των πλέον ισχυρών μοντέλων θα υποχρεούνται να προχωρούν σε αξιολόγηση κινδύνων και λήψη μέτρων μετριασμού τους. Επί του παρόντος, ως GPAI με το ενδεχόμενο να προκαλέσουν συστημικό κίνδυνο περιγράφονται τα μοντέλα που εκπαιδεύονται χρησιμοποιώντας συνολική υπολογιστή ισχύ άνω των 10^25 FLOP. Εντωμεταξύ, ενώ την επιβολή των γενικών προνοιών της νέας νομοθεσίας την αναλαμβάνουν οι αρμόδιες αρχές των επιμέρους κρατών-μελών, οι κανόνες που αφορούν τις GPAI επιβάλλονται σε επίπεδο Ευρωπαϊκής Ένωσης.
Το τι ακριβώς θα πρέπει να κάνουν οι δημιουργοί GPAI ώστε να συμμορφώνονται με το νέο πλαίσιο παραμένει υπό συζήτηση, καθώς οι Κώδικες Εφαρμογής ακόμη δεν έχουν συνταχθεί. Η διαδικασία, που ξεκίνησε προ ημερών, αναμένεται να οδηγήσει στην οριστικοποίηση των Κωδίκων τον Απρίλιο του 2025.
Στα τέλη του περασμένου μήνα και ενόψει της εφαρμογής του νέου πλαισίου, η OpenAI, δημιουργός του μεγάλου γλωσσικού μοντέλου πάνω στο οποίο βασίζεται το ChatGPT, ανέφερε ότι ανέμενε να συνεργαστεί στενά με την αρμόδια υπηρεσία της Ε.Ε. και άλλες ρυθμιστικές αρχές, κατά τους επόμενους μήνες. Στο πλαίσιο αυτό θα δημιουργηθούν τεχνικά έγγραφα και άλλο βοηθητικό υλικό για όσους χρησιμοποιούν μοντέλα GPAI. Σε κάθε περίπτωση, η OpenAI καλεί τους ενδιαφερόμενους να συμβουλευτούν τις νομικές υπηρεσίες τους εφόσον έχουν κάποια απορία σχετικά με το κατά πόσο τους επηρεάζει η νέα νομοθεσία, καθώς πρόκειται για σύνθετο νομικό ζήτημα.
Τα ακριβή προαπαιτούμενα για τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου στο πλαίσιο του νέου νόμου επίσης βρίσκονται σε εξέλιξη, καθώς οι υπηρεσίες διαμόρφωσης προτύπων της Ευρωπαϊκής Ένωσης βρίσκονται στο στάδιο διαμόρφωσης αυτών των προνοιών.
Η Κομισιόν έχει δώσει περιθώριο στις υπηρεσίες αυτές έως τον Απρίλιο του 2025 ώστε να ολοκληρώσουν το έργο τους, οπότε θα αξιολογήσει τις προτάσεις τους. Στη συνέχεια, τα πρότυπα αυτά θα χρειαστεί να λάβουν την έγκριση της Ευρωπαϊκής Ένωσης πριν τεθούν σε ισχύ για τους δημιουργούς των αντίστοιχων συστημάτων.
- 5
ΣΧΟΛΙΑ (17)
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώραΔημοσίευση ως Επισκέπτης
· Αποσύνδεση