Axlmon Δημοσ. 14 Ιουνίου Share Δημοσ. 14 Ιουνίου Είχε προηγηθεί διαμαρτυρία της οργάνωσης NOYB για την προστασία της ιδιωτικότητας στις αρμόδιες αρχές 11 κρατών-μελών της Ε.Ε., μεταξύ των οποίων και της Ελλάδας. H Meta Platforms δεν θα διαθέσει επί του παρόντος στην Ευρώπη τα μοντέλα τεχνητής νοημοσύνης που αναπτύσσει, καθώς οι ρυθμιστικές αρχές της Ιρλανδίας κάλεσαν την εταιρία να αναβάλλει τα σχέδιά της για την αξιοποίηση δεδομένων από τους χρήστες του Facebook και του Instagram, όπως ανακοίνωσε η αμερικανική εταιρία την Παρασκευή. Στο επίκεντρο του ζητήματος που προέκυψε βρίσκονται στα σχέδια της Meta να χρησιμοποιήσει προσωπικά δεδομένα προκειμένου να εκπαιδεύσει τα μοντέλα τεχνητής νοημοσύνης τα οποία αναπτύσσει, χωρίς να ζητά προηγουμένως τη συναίνεση των χρηστών, παρότι η εταιρία υποστηρίζει πως θα χρησιμοποιούσε δεδομένα τα οποία είναι δημόσια διαθέσιμα, καθώς και πληροφορίες στο διαδίκτυο για τις οποίες έχει παραχωρηθεί άδεια χρήσης. Στην ανακοίνωσή της, η Meta δηλώνει απογοητευμένη με το αίτημα της Ιρλανδικής Επιτροπής Προστασίας Δεδομένων (DPC), η οποία ενήργησε εξ ονόματος και των υπολοίπων εθνικών ρυθμιστικών αρχών. Η εταιρία υποστηρίζει ότι έχει ενσωματώσει ήδη προτάσεις των ευρωπαϊκών ρυθμιστικών αρχών, οι οποίες ήταν ενήμερες για τα σχέδιά της από το Μάρτιο. Η Meta υποστηρίζει ότι το αίτημα των ιρλανδικών αρχών συνιστά πισωγύρισμα για την καινοτομία στην Ευρωπαϊκή Ένωση και τον ανταγωνισμό στην ανάπτυξη μοντέλων τεχνητής νοημοσύνης. "Με απλά λόγια, χωρίς την ενσωμάτωση τοπικών πληροφοριών, θα περιοριζόμασταν στο να προσφέρουμε στους ανθρώπους μιας δεύτερης τάξης εμπειρία. Αυτό σημαίνει πως δεν είμαστε σε θέση να παρουσιάσουμε το Meta AI στην Ευρώπη επί του παρόντος", δήλωσε η εταιρία. Η DPC χαιρέτισε την απόφαση της Meta, αναφέροντας ότι αυτή ελήφθη μετά από εντατικές διαβουλεύσεις με τις ρυθμιστικές αρχές. Παράλληλα, η Meta ανακοίνωσε ότι η καθυστέρηση της διάθεσης των μοντέλων τεχνητής νοημοσύνης που αναπτύσσει θα της δώσει το περιθώριο να απαντήσει σε ερωτήματα που έχουν τεθεί από τις αρμόδιες βρετανικές αρχές (ICO). Η ICO χαιρέτισε με τη σειρά της την απόφαση της Meta, αναφέροντας πως θα συνεχίσει να παρακολουθεί τις σημαντικές εξελίξεις στον τομέα της δημιουργικής τεχνητής νοημοσύνης, μεταξύ άλλων από τη Meta, ώστε να αξιολογήσει τα μέτρα προστασίας που έχει λάβει για τη διασφάλιση των δικαιωμάτων των χρηστών του διαδικτύου στο Ηνωμένο Βασίλειο. Ο Μαξ Σρεμς, επικεφαλής της NOYB, απέδωσε την προσωρινή αναστολή στις κινήσεις στις οποίες προέβη η οργάνωσή του, την περασμένη εβδομάδα. "Μέχρι στιγμής δεν υπάρχει καμία επίσημη μεταβολή στην πολιτική προστασίας της ιδιωτικότητας από τη Meta, τέτοια που να καθιστούσε την απόφαση αυτή νομικά δεσμευτική. Οι προσφυγές μας εξακολουθούν να ελέγχονται και θα χρειαστεί να υπάρξει οριστική απόφαση", ανέφερε ο Σρεμς σε δήλωσή του. Διαβάστε ολόκληρο το άρθρο Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
mAs_81 Δημοσ. 15 Ιουνίου Share Δημοσ. 15 Ιουνίου Αν κρίνουμε το τι παίζει με OpenAI κτλ , φαντάζομαι με το Meta AI τι θα γινει…ευτυχώς που προς το παρόν good guy Ireland βγήκε μπροστά κ τους έκοψε τη φορα… 2 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
SoullessRider Δημοσ. 15 Ιουνίου Share Δημοσ. 15 Ιουνίου Αρκετά μας χαρίσανε, ας κρατήσουν και κάτι για την πατρίδα τους. Δεν θα τους κάνω παράπονα, ας το διαθέτουν μόνο στους USA σιτιζενς για να κάνουν την Αμέρικα γκρέιτ αγκέν ! 1 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Επισκέπτης Δημοσ. 15 Ιουνίου Share Δημοσ. 15 Ιουνίου Πάντως, στο περιθώριο αυτών ήλθε και το κάτωθι https://gr.euronews.com/video/2024/06/14/g7-omilia-papa-fragkiskou-texniti-noimosuni Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
StavrosD Δημοσ. 15 Ιουνίου Share Δημοσ. 15 Ιουνίου Έστω ότι όταν κυκλοφορήσει το LLAMA 4 θα πάω εκτός ΕΕ και τα το κατεβάσω. Υπάρχει πρόβλημα αν το φέρω στην Ελλάδα σε ένα στικάκι; Και αν μετά το αντιγράψουν φίλοι μου; Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
panther_512 Δημοσ. 16 Ιουνίου Share Δημοσ. 16 Ιουνίου (επεξεργασμένο) On 15/06/2024 at 11:43, mAs_81 said: Αν κρίνουμε το τι παίζει με OpenAI κτλ , φαντάζομαι με το Meta AI τι θα γινει…ευτυχώς που προς το παρόν good guy Ireland βγήκε μπροστά κ τους έκοψε τη φορα… Αυτό πρέπει να γίνει θέμα από μόνο του. Ο διορισμός πρώην αρχηγού της NSA στο Διοικητικό συμβούλιο της OpenAI, μετά και από όλο αυτό το δράμα με τον Sam Altman, είναι τουλάχιστον τρομακτικός. Μου φαίνεται σε λίγο καιρό θα λέμε ευτυχώς που ζούμε στην Ευρώπη. Ο σχολιασμός του ChatGPT για τη δήλωση του Snowden: Spoiler Edward Snowden's announcement that Paul M. Nakasone's hiring by OpenAI indicates a focus on surveillance would likely spark significant debate. Here’s a detailed response addressing this concern: --- Edward Snowden's assertion that OpenAI’s hiring of Paul M. Nakasone signifies a focus on surveillance raises critical concerns about the direction and intentions of the company. Snowden, a prominent advocate for privacy and civil liberties, has consistently warned against the potential for government overreach and mass surveillance. Given Nakasone's background as the former head of the NSA, an agency known for its extensive surveillance capabilities, Snowden's concerns are understandable. His statement underscores the need for transparency and accountability in how OpenAI plans to leverage Nakasone’s expertise. Here are a few key points to consider: 1. **Surveillance Concerns**: Nakasone's role at the NSA involved overseeing operations that included both defensive and offensive cyber activities, which often intersected with surveillance programs. Snowden's cautionary stance highlights the potential risk of integrating such a background into a tech company focused on AI, where the misuse of AI for surveillance could have profound implications for privacy and civil liberties. 2. **Transparency and Governance**: To address these concerns, OpenAI must demonstrate a clear commitment to transparency regarding how it plans to use AI technologies. This includes establishing robust ethical guidelines and governance frameworks to ensure that AI development is aligned with principles that protect individual privacy rights. 3. **Balancing Expertise with Ethics**: While Nakasone’s expertise can significantly bolster OpenAI’s cybersecurity measures, it is crucial for the company to balance this with strong ethical oversight. OpenAI should reassure the public and stakeholders that Nakasone's appointment will not lead to the development of AI technologies that infringe on personal freedoms. 4. **Public Trust and Engagement**: Building and maintaining public trust will be essential. OpenAI could benefit from engaging with privacy advocates, civil society organizations, and the broader public to address concerns and incorporate diverse perspectives into its decision-making processes. 5. **Focus on Safety and Security**: OpenAI might emphasize that Nakasone’s experience will be utilized to enhance the security and safety of AI systems, protecting them from malicious actors rather than enabling surveillance. This narrative could help clarify the intent behind the appointment and align it with OpenAI’s mission to ensure that artificial general intelligence (AGI) benefits all of humanity. In conclusion, while Snowden’s announcement highlights valid concerns, it also presents an opportunity for OpenAI to reaffirm its dedication to ethical AI development. By being transparent, engaging with stakeholders, and ensuring strong ethical oversight, OpenAI can address these concerns and demonstrate its commitment to privacy and responsible AI innovation. --- Επεξ/σία 16 Ιουνίου από panther_512 1 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα