Η Ευρώπη αποτελεί την πρώτη ένωση κρατών (ή μεμονωμένο κράτος) που δημιουργεί κανόνες για την ανάπτυξη, λειτουργία και ενσωμάτωση συστημάτων τεχνητής νοημοσύνης σε επιχειρήσεις και στην κοινωνία. Και μάλιστα με μια αυξημένη ταχύτητα σε σχέση με προηγούμενες παρεμβάσεις της (π.χ. η περίπτωση του ενιαίου φορτιστή), κατανοώντας και την ταχύτητα εξέλιξης της ίδιας της τεχνολογίας.
Μετά τη σημερινή ψήφιση από το Ευρωπαϊκό Κοινοβούλιο, ανοίγει η διαδικασία του τριμερούς διαλόγου με το Συμβούλιο και την Επιτροπή, προκειμένου να καταλήξουν στην τελική συμφωνία για τη μορφή που θα έχει η νομοθεσία που θα υιοθετηθεί από τα κράτη-μέλη. Στόχος του Ευρωπαϊκού Κοινοβουλίου, όπως μας τονίστηκε από παράγοντες, αλλά και ευρωβουλευτές εδώ στο Στρασβούργο, είναι να έχουμε τελική συμφωνία πριν τις επόμενες Ευρωεκλογές, τον Ιούνιο του 2024. Επιπρόσθετα, όπως επισημάνθηκε, θα δοθεί και η συνήθης σε τέτοιες ρυθμίσεις, διορία δύο χρόνων για την υιοθέτηση της νομοθεσίας. Άρα, το 2026 θα έχουμε καλώς εχόντων των πραγμάτων την πλήρη εφαρμογή των νέων κανόνων.
Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής
- Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο , σε δημόσιους χώρους
- Eκ των υστέρων βιομετρική ταυτοποίηση, εκτός εάν υπάρχει νόμιμη άδεια από τις αρμόδιες αρχές και είναι απολύτως αναγκαία σε συνάρτηση με συγκεκριμένο σοβαρό ποινικό αδίκημα
- Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)
- Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)
- Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα
- Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).
Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά.
Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων, ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.
Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα.
Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.
- 1
ΣΧΟΛΙΑ (39)
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώραΔημοσίευση ως Επισκέπτης
· Αποσύνδεση