Προς το περιεχόμενο

Οι ΗΠΑ αποκτούν πρόσβαση στα νέα AI μοντέλα των OpenAI και Anthropic, πριν την κυκλοφορία τους


Hal9000

Προτεινόμενες αναρτήσεις

Η κυβέρνηση των ΗΠΑ θα έχει πρόσβαση σε νέα μοντέλα τεχνητής νοημοσύνης (ΤΝ) πριν από την επίσημη κυκλοφορία τους, χάρη σε μια μοναδική συμφωνία με τις εταιρείες OpenAI και Anthropic.

Η συνεργασία αυτή στοχεύει στην ενίσχυση της ασφάλειας και στην αντιμετώπιση πιθανών κινδύνων που σχετίζονται με την εξέλιξη της ΤΝ.

Οι δύο κορυφαίες εταιρείες του κλάδου που βρίσκονται πίσω από τα ChatGPT και Claude LLM, υπέγραψαν μνημόνια συνεργασίας με το Ινστιτούτο Ασφάλειας ΤΝ των ΗΠΑ, παραχωρώντας πρόσβαση στα μοντέλα τους τόσο πριν όσο και μετά τη δημόσια κυκλοφορία τους. Η κίνηση αυτή μπορεί να παρομοιαστεί με την παροχή ενός "κλειδιού ασφαλείας" στην κυβέρνηση, επιτρέποντάς της να εξετάσει λεπτομερώς τις δυνατότητες και τους περιορισμούς των νέων τεχνολογιών ΤΝ.

Η συμφωνία έρχεται σε μια κρίσιμη στιγμή, καθώς οι νομοθέτες σε ομοσπονδιακό και πολιτειακό επίπεδο προσπαθούν να βρουν την ισορροπία μεταξύ της ρύθμισης της ΤΝ και της διατήρησης της καινοτομίας, κάτι που παρομοιάζεται με το χτίσιμο ενός φράγματος που θα συγκρατεί τα επικίνδυνα νερά, χωρίς όμως να εμποδίζει τη ροή των ωφέλιμων.

Στην Καλιφόρνια, για παράδειγμα, ψηφίστηκε πρόσφατα ο νόμος για την "Ασφαλή και Προστατευμένη Καινοτομία στα Μοντέλα Τεχνητής Νοημοσύνης Αιχμής" (SB 1047). Ο νόμος αυτός απαιτεί από τις εταιρείες ΤΝ να λαμβάνουν συγκεκριμένα μέτρα ασφαλείας πριν την εκπαίδευση προηγμένων μοντέλων. Ωστόσο, η νομοθεσία έχει προκαλέσει αντιδράσεις από εταιρείες όπως η OpenAI και η Anthropic, οι οποίες υποστηρίζουν ότι θα μπορούσε να βλάψει μικρότερους open-source προγραμματιστές.

Την ίδια στιγμή, ο Λευκός Οίκος έχει επιδιώξει εθελοντικές δεσμεύσεις από μεγάλες εταιρείες σχετικά με μέτρα ασφαλείας της ΤΝ. Πολλές κορυφαίες εταιρείες έχουν συμφωνήσει να επενδύσουν στην έρευνα για την κυβερνοασφάλεια και την καταπολέμηση των διακρίσεων, καθώς και να εργαστούν στην υδατογράφηση περιεχομένου που παράγεται από ΤΝ.

Η συνεργασία μεταξύ του Ινστιτούτου Ασφάλειας ΤΝ των ΗΠΑ και των εταιρειών OpenAI και Anthropic μπορεί να θεωρηθεί ως ένα είδος "γέφυρας" μεταξύ του δημόσιου και του ιδιωτικού τομέα. Επιτρέπει στην κυβέρνηση να κατανοήσει καλύτερα τις τεχνολογίες αιχμής, ενώ παράλληλα παρέχει στις εταιρείες πολύτιμα σχόλια σχετικά με την ασφάλεια των προϊόντων τους.

Η διευθύντρια του Ινστιτούτου Ασφάλειας ΤΝ των ΗΠΑ, Elizabeth Kelly, τόνισε τη σημασία αυτής της συνεργασίας. Σύμφωνα με τη δήλωσή της, "οι νέες συμφωνίες είναι μόνο η αρχή, αλλά αποτελούν ένα σημαντικό ορόσημο καθώς εργαζόμαστε για να βοηθήσουμε στην υπεύθυνη διαχείριση του μέλλοντος της ΤΝ".

Η συμφωνία προβλέπει επίσης συνεργασία με την αντίστοιχη υπηρεσία του Ηνωμένου Βασιλείου για την παροχή προτάσεων σχετικά με βελτιώσεις ασφαλείας, υπογραμμίζοντας τη διεθνή διάσταση του ζητήματος της ασφάλειας της ΤΝ. 


Διαβάστε ολόκληρο το άρθρο

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

...ναι για την ασφάλεια του πληθυσμού γίνονται όλα. 

Φυσικά κ είναι κερδοσκοπικοί οργανισμοί κ σίγουρα δεν θέλουν να μπουν σε διαμάχες με κρατικές οντότητες.

Φυσικά κ δεν έδωσαν απλά πρόσβαση, αλλά έλεγχο κ φιλτράρισμα όλων των διαδικασιών (αναζητήσεων, δημιουργίας, ανατροφοδότησης κλπ).

Φυσικά κ υπάρχει πάντα ο κίνδυνος να στραφεί εναντίον των κέντρων συμφερόντων κ λήψεων αποφάσεων, αν βρεθούν τα κατάλληλα πρόσωπα.

Κοινώς, "ξέφραγο αμπέλι" θα το άφηναν???

Σε καμία περίπτωση δεν κρίνω αν είναι σωστό ή λάθος αυτό, άλλωστε είναι νωρίς ακόμα κ ο ιδεαλισμός έχει πεθάνει.

Παντού σενάρια υπάρχουν μόνο, ο χρόνος θα δείξει κ οι εσωτερικοί κανονισμοί που θα ενσωματωθούν.

 

Δεν υπάρχει ιδιωτικότητα κ προσωπική ιδιοκτησία σε κανένα δίκτυο κ όσο το χρησιμοποιείτε, το αποδέχεστε αυτό, γιατί είναι τόσο δύσκολα κατανοητό απο ορισμένους?!?!?

 

Επεξ/σία από TechnoState
  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

Φήμες λένε ότι, θέλουν πρώιμη πρόσβαση στις νέες τεχνολογίες ai για να τις χρησιμοποιησουν σε μια νέα στρατιωτική εταιρία που τη λένε Skynet,  κάπως έτσι.. 

:)

Επεξ/σία από oldnew
  • Haha 3
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

Θέλουν να δουν τα παιδιά τι backdoor θα βάλουν για να βλέπουν τι ψάχνει ο καθένας με την AI, θα την εκπαιδεύσουν καλά, θα δει φιλμ με Αρτέμη Μάτσα, Δήμο Σταρένιο κτλ.

Επεξ/σία από cpc464
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
6 ώρες πριν, oldnew είπε

Φήμες λένε ότι, θέλουν πρώιμη πρόσβαση στις νέες τεχνολογίες ai για να τις χρησιμοποιησουν σε μια νέα στρατιωτική εταιρία που τη λένε Skynet,  κάπως έτσι.. 

:)

Ποια στρατιωτική εταιρεία; Εγώ κάτι άκουσα ότι η εταιρεία φτιάχνει και κάτι ρομπότ-βοηθούς για το σπίτι... Το παράξενο είναι ότι όλα έχουν τη φάτσα του Schwarzenegger στα νιάτα του...

Σκοτώνουν μιλάμε...

5 ώρες πριν, Volga είπε

Μπα; Πως κι έτσι; Στην Ε.Ε. οταν τους είπε οτι πρέπει να έχουμε πρόσβαση στο μοντέλο είπαν πως δεν γίνεται... 🤡

Στην ΕΕ... Στις ΗΠΑ γίνεται, αλλιώς τίποτα άλλο δε μπορεί να γίνει.

Επεξ/σία από Tlykog
  • Haha 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Πολύ καλά κάνουν, πριν το πράγμα αρχίσει να ξεφεύγει..

Θα ήθελα βέβαια η κυβέρνηση των ΗΠΑ ν' ανακοίνωνε και σε ποια λειτουργικά υπολογιστών και κινητών συσκευών έχει ήδη αποκτήσει πρόσβαση.

(και μετά ξύπνησα..)

  • Haha 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μόλις τώρα, gadgetseek είπε

Πολύ καλά κάνουν, πριν το πράγμα αρχίσει να ξεφεύγει..

Θα ήθελα βέβαια η κυβέρνηση των ΗΠΑ ν' ανακοίνωνε και σε ποια λειτουργικά υπολογιστών και κινητών συσκευών έχει ήδη αποκτήσει πρόσβαση.

(και μετά ξύπνησα..)

Ευκολάκι: σε όλα τα λειτουργικά. Από windows μέχρι κομπιουτεράκι χειρός.

  • Like 1
  • Thanks 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...