Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

  • Super Moderators
Δημοσ.

Οι νέοι κανονισμοί προχωρούν σε διάκριση μεταξύ συστημάτων τεχνητής νοημοσύνης χαμηλού και υψηλού κινδύνου

Η χρήση τεχνολογιών αναγνώρισης προσώπου για λόγους παρακολούθησης ή αλγορίθμων που χειραγωγούν την ανθρώπινη συμπεριφορά πρόκειται να απαγορευτεί, στο πλαίσιο των προτεινόμενων κανονισμών που προωθεί η Ευρωπαϊκή Ένωση στον τομέα της τεχνητής νοημοσύνης.

Οι προτάσεις, με ευρύ φάσμα εφαρμογής, οι οποίες διέρρευσαν ενόψει της επίσημης δημοσίευσής τους, υπόσχονται παράλληλα αυστηρούς νέους κανόνες για τα συστήματα τεχνητής νοημοσύνης τα οποία κατατάσσονται στην κατηγορία υψηλού κινδύνου. Σε αυτά, περιλαμβάνονται αλγόριθμοι οι οποίοι χρησιμοποιούνται από την αστυνομία καθώς και στην αναζήτηση στελεχών.

Σύμφωνα με ειδικούς, οι προτεινόμενοι κανονισμοί χαρακτηρίζονται από ασάφειες και συνοδεύονται από παραθυράκια.

Από τους νέους κανονισμούς εξαιρείται η χρήση της τεχνητής νοημοσύνης από τις ένοπλες δυνάμεις, καθώς και τα συστήματα που χρησιμοποιούνται από τις αρχές για την περιφρούρηση της δημόσιας ασφάλειας.

Στον προτεινόμενο κατάλογο απαγορευμένων συστημάτων τεχνητής νοημοσύνης συμπεριλαμβάνονται τα εξής:

  • συστήματα τα οποία σχεδιάζονται ή χρησιμοποιούνται κατά τρόπο ο οποίος χειραγωγεί την ανθρώπινη συμπεριφορά, τις απόψεις ή αποφάσεις [...] ωθώντας ένα άτομο να συμπεριφέρεται, να σχηματίζει μια άποψη ή να λαμβάνει μια απόφαση επιζήμια για το ίδιο
  • συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται για παρακολούθηση χωρίς διακρίσεις, εφαρμοσμένη κατά γενικευμένο τρόπο
  • συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται για την αξιολόγηση της κοινωνικής επίδρασης του ατόμου
  • συστήματα τα οποία εκμεταλλεύονται πληροφορίες ή προβλέψεις με στόχο ένα άτομο ή ομάδα ατόμων προκειμένου να εστιάσουν στις αδυναμίες τους

Ο Ντανιέλ Λεφλέρ, αναλυτής ευρωπαϊκής πολιτικής, σε ανάρτησή του στο Twitter επισήμανε πως οι ορισμοί άφηναν μεγάλα περιθώρια ερμηνείας. 

"Πώς αποφασίζουμε τι είναι επιζήμιο για ένα άτομο; Και ποιος το αξιολογεί αυτό;" ανέφερε χαρακτηριστικά.

Προκειμένου ένα σύστημα τεχνητής νοημοσύνης να χαρακτηριστεί υψηλού κινδύνου, τα κράτη μέλη θα πρέπει να εντείνουν το πλαίσιο αξιολόγησης, συμπεριλαμβανομένης της ανάγκης συγκρότησης αρμοδίων επιτροπών δοκιμής, έγκρισης και επιθεώρησης αυτών των συστημάτων.

Σύμφωνα με την προτεινόμενη νομοθεσία, όποιες εταιρίες αναπτύσσουν απαγορευμένες υπηρεσίες ή αμελούν να παρουσιάσουν ακριβείς πληροφορίες σχετικά με αυτά, θα μπορούσαν να έρθουν αντιμέτωπες με πρόστιμα ίσα με έως και το 4% των παγκοσμίων εσόδων τους, ανάλογα με τα πρόστιμα που προβλέπονται για παραβίαση της νομοθεσίας GDPR.

Συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θεωρούνται, μεταξύ άλλων:

  • συστήματα τα οποία αποφασίζουν για την προτεραιότητα στην αποστολή υπηρεσιών αντιμετώπισης εκτάκτων καταστάσεων
  • συστήματα τα οποία καθορίζουν την πρόσβαση ή την κατανομή των ατόμων σε εκπαιδευτικά ιδρύματα
  • αλγόριθμοι στελέχωσης
  • συστήματα αξιολόγησης πιστοληπτικής ικανότητας
  • συστήματα αξιολόγησης ατομικού ρίσκου
  • αλγόριθμοι πρόβλεψης διάπραξης αδικημάτων

Ο Ντανιέλ Λεφλέρ θεωρεί πως οι προτάσεις θα πρέπει "να διευρυνθούν ώστε να περιλαμβάνουν όλα τα συστήματα τεχνητής νοημοσύνης του δημοσίου τομέα, ανεξάρτητα από το χαρακτηρισμό τους ως προς το επίπεδο κινδύνου".

"Αυτό πρέπει να συμβεί καθώς οι άνθρωποι συνήθως δεν έχουν το περιθώριο να επιλέξουν αν θα έρθουν σε επαφή με ένα σύστημα τεχνητής νοημοσύνης του δημοσίου τομέα".

Πέρα από το προαπαιτούμενο να υπάρχει ανθρώπινη εποπτεία στα νέα συστήματα τεχνητής νοημοσύνης, η Ευρωπαϊκή Επιτροπή προτείνει επίσης να συστήματα υψηλού κινδύνου να περιλαμβάνουν και κάποιο μηχανισμό άμεσου τερματισμού της λειτουργίας τους, ο οποίος θα μπορούσε να έχει τη μορφή είτε κάποιου διακόπτη, είτε κάποιας διαδικασίας άμεσης απενεργοποίησης του συστήματος, εφόσον παραστεί ανάγκη.

"Οι εταιρίες διάθεσης συστημάτων τεχνητής νοημοσύνης θα εστιάσουν ιδιαίτερα σε αυτές τις προτάσεις, καθώς προϋποθέτουν μια θεμελιώδη αλλαγή στον τρόπο σχεδιασμού της τεχνητής νοημοσύνης", ανέφερε ο Χέρμπερτ Σουόνικερ, στέλεχος της Clifford Chance, δικηγορικής εταιρίας με ειδίκευση στο διεθνές δίκαιο.

Την ίδια ώρα, ο Μάικλ Βιλ, λέκτορας ψηφιακών δικαιωμάτων και κανονισμών, στο University College του Λονδίνου, υπογραμμίζει μια παράμετρο η οποία θα υποχρεώσει τους διάφορους οργανισμούς να γνωστοποιούν τις περιπτώσεις όπου χρησιμοποιούν deepfakes, μια ιδιαίτερα αμφιλεγόμενη χρήση της τεχνητής νοημοσύνης για τη δημιουργία πλαστών ατόμων ή τη χειραγώγηση φωτογραφιών και βίντεο πραγματικών ανθρώπων.

Μιλώντας στο BBC, ανέφερε πως η νομοθεσία κατά κύριο λόγο "στοχεύει σε εκείνες τις εταιρίες και συμβούλους που πωλούν -συχνά ανούσια- τεχνολογία τεχνητής νοημοσύνης σε σχολεία, νοσοκομεία, αστυνομικές αρχές και εργοδότες". Ταυτόχρονα, όμως, θεωρεί πως εκείνες οι τεχνολογικές εταιρίες που χρησιμοποιούσαν την τεχνητή νοημοσύνη "προκειμένου να χειραγωγούν τους χρήστες" ενδέχεται να υποχρεωθούν με τη σειρά τους να αλλάξουν πρακτικές.

Προκειμένου να καταλήξει στις συγκεκριμένες προτάσεις, η Ευρωπαϊκή Επιτροπή κλήθηκε να διατηρήσει μια λεπτή ισορροπία μεταξύ του να διασφαλίσει πως η τεχνητή νοημοσύνη χρησιμοποιείται ως "εργαλείο [...] με τελικό σκοπό την ενίσχυση της ευημερίας του ανθρώπου", χωρίς παράλληλα να εμποδίζει τα κράτη μέλη της Ε.Ε. να συναγωνιστούν τις ΗΠΑ και την Κίνα στον τομέα των τεχνολογικών καινοτομιών.

Παράλληλα, η Ευρωπαϊκή Επιτροπή αναγνωρίζει πως η τεχνητή νοημοσύνη ήδη επιδρά σε πολλές πτυχές της ζωής μας.

Το Ευρωπαϊκό Κέντρο Μη Κερδοσκοπικής Νομοθεσίας, το οποίο συνεργάστηκε με την Ευρωπαϊκή Επιτροπή στη σύνταξη της Λευκής Βίβλου για την τεχνητή νοημοσύνη, δήλωσε στο BBC πως υπήρχαν "πολλές αοριστίες και παραθυράκια" στην προτεινόμενη νομοθεσία.

"Ο τρόπος που προσεγγίζει το ζήτημα η Ε.Ε., με τη διάκριση μεταξύ υψηλού και χαμηλού κινδύνου, είναι άτσαλος στην καλύτερη των περιπτώσεων και επικίνδυνος στη χειρότερη, καθώς στερείται του πλαισίου και των λεπτών διακρίσεων που απαιτούνται για το σύνθετο οικοσύστημα τεχνητής νοημοσύνης που ήδη υφίσταται.

"Κατ' αρχάς, η επιτροπή θα έπρεπε να εξετάσει τους κινδύνους των συστημάτων τεχνητής νοημοσύνης σε ένα πλαίσιο βασισμένο στην προάσπιση των δικαιωμάτων, δηλαδή ως κινδύνους που αυτά συνιστούν για τα ανθρώπινα δικαιώματα, το σεβασμό του νόμου και τη δημοκρατία.

"Δεύτερον, η επιτροπή θα έπρεπε να απορρίψει την υπεραπλουστευμένη διάκριση μεταξύ υψηλού και χαμηλού κινδύνου και να εξετάσει μια κλιμακωτή αξιολόγηση των κινδύνων που προκύπτουν από τα συστήματα τεχνητής νοημοσύνης".

Οι λεπτομέρειες των προτάσεων ενδέχεται να αλλάξουν πριν την επίσημη παρουσίασή τους, την ερχόμενη εβδομάδα. Πέραν αυτού, θεωρείται απίθανο οι προτάσεις αυτές να καταστούν νόμος τα αμέσως επόμενα χρόνια.

 


Διαβάστε ολόκληρο το άρθρο

Δημοσ.

Γνωρίζει η Ε.Ε. ότι επιδρά ήδη ,μέχρι να αφυπνιστούν το ίδιο το ευρωπαϊκό κοινοβούλιο  θα λειτουργεί έμμεσα με τεχνητή νοημοσύνη ,τα σημάδια έπρεπε να τα βλέπατε νωρίτερα πλέον είναι αργά.

Δημοσ.
16 λεπτά πριν, kotronas είπε

Γνωρίζει η Ε.Ε. ότι επιδρά ήδη ,μέχρι να αφυπνιστούν το ίδιο το ευρωπαϊκό κοινοβούλιο  θα λειτουργεί έμμεσα με τεχνητή νοημοσύνη ,τα σημάδια έπρεπε να τα βλέπατε νωρίτερα πλέον είναι αργά.

Σιγά μην γίνει και πρόεδρος της κομισιόν ο Σβατζενειγκερ.

 

Δημοσ.

Θεωρώ ότι δε τη χρειαζόμαστε, ο κόσμος είναι για να ρέουν όλα με λογική και ρυθμούς ανθρώπινους, όχι της τεχνολογίας, εφόσον επιλέξαμε να θεοποιήσουμε την τεχνολογία αυτό θα το πληρώσουμε πολύ ακριβά. Το ίδιο ακριβώς έγινε και με τη πυρηνική ενέργεια, και θα συμπληρώσετε ότι φταίει η χρήση που έγινε, ναι επειδή δόθηκε σε άτομα με κυριαρχία, και τη τεχνολογία αυτή ποιοι θα την έχουν πάλι, ο Μπίλυς και ο Έλον!

  • Confused 1
Δημοσ.

Ερχεται σκοτεινο και δυστοπικο μελλον , αν οχι αμεσα για οσους ειμαστε μιας καποιας ηλικιας οπως εγω , για τις επομενες γενιες σιγουρα

Δημοσ.

Γενικώς περιορισμό της νοημοσύνης θέλει η ε.ε .Αντί να ασχολείται με μείζων ζητήματα τις πλείστες περιπτώσεις ανακατεύεται με μικρά και ασήμαντα, και όχι στο άμεσο μέλλον η τεχνητή νοημοσύνη δεν θα γίνει skynet....

Δημοσ.

"

  • συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται για την αξιολόγηση της κοινωνικής επίδρασης του ατόμου" 

Αντε μπας κ κανουν και οι άσχημοι κανα ματς στο τιντερ!! 

Δημοσ.

Κανένας δεν μπορει να περιορισει ,καθυστερίσει ή επιβραδυνει την τεχνολογική εξέλιξη και προοδο με οποιονδηποτε μέσο ή τρόπο , ουδείς .Παντως όσον αφορα την τεχνητή νοημοσύνη θεωρώ ότι το μεγαλο "μπαμ" θα γίνει οταν έρθει εκείνη η ωρα που θα συνδιαστει με τον κβαντικο υπολογισμό .

  • Thanks 1
Δημοσ.

Ναι αλλά τα συστήματα αυτά κάνουν αρκετή δουλειά , δηλαδή θα πρέπει να προστεθούν ανθρώπινες εργατοώρες , ειναι διαθετημένες οι εταιρίες σε ένα τέτοιο κόστος; 

Δημοσ.
29 λεπτά πριν, vortex365 είπε

Κανένας δεν μπορει να περιορισει ,καθυστερίσει ή επιβραδυνει την τεχνολογική εξέλιξη και προοδο με οποιονδηποτε μέσο ή τρόπο , ουδείς .Παντως όσον αφορα την τεχνητή νοημοσύνη θεωρώ ότι το μεγαλο "μπαμ" θα γίνει οταν έρθει εκείνη η ωρα που θα συνδιαστει με τον κβαντικο υπολογισμό .

Και ολόκληρο μεσαίωνα τι ακριβώς νομίζεις ότι έγινε;  Οι θρησκείες μπορούν και το έχουν αποδείξει χιλιάδες χρόνια τώρα.
Γιατί να γίνει μεγάλο μπαμ με τους κβαντικούς επεξεργαστές; Ότι μπορούν να υπολογίσουν τα κβαντικά συστήματα μπορούν και τα κοινά (με διαφορά χρόνου φυσικά).  

  • Like 1
Δημοσ. (επεξεργασμένο)

  Χρειάζεται μεγάλη προσοχή στην εφαρμογή της τεχνητής νοημοσύνης! Η Ευρωπαϊκή Ένωση πρέπει να κινηθεί προσεκτικά με τις προτάσεις περιορισμού. Αν και πιστεύω ότι πάντα θα υπάρχει ο κίνδυνος να χρησιμοποιηθεί η συγκεκριμένη τεχνολογία από κάποιους παρανόμως και εκτός ηθικού πλαισίου και να υπάρξουν σοβαρά προβλήματα στις κοινωνίες!

  Who Made Who? Ain't Nobody Told You?

Επεξ/σία από Akanthos!

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...