Μια καταγγελία για παραβίαση προσωπικών δεδομένων υποβλήθηκε εναντίον της OpenAI από έναν Νορβηγό που ισχυρίζεται ότι το ChatGPT τον περιέγραψε ψευδώς ως καταδικασμένο δολοφόνο.

Μια καταγγελία για παραβίαση προσωπικών δεδομένων υποβλήθηκε εναντίον της OpenAI από έναν Νορβηγό που ισχυρίζεται ότι το ChatGPT τον περιέγραψε ψευδώς ως καταδικασμένο δολοφόνο των παιδιών του και ότι επιχείρησε να σκοτώσει κι ένα τρίτο.

Ο Arve Hjalmar Holmen αναφέρει ότι ήθελε να μάθει τι θα έλεγε το ChatGPT γι' αυτόν, αλλά το σύστημα τεχνητής νοημοσύνης του παρουσίασε τον ψευδή ισχυρισμό ότι είχε καταδικαστεί για φόνο και απόπειρα φόνου, και ότι εκτίει ποινή 21 ετών σε νορβηγική φυλακή. Ανησυχητικό είναι το γεγονός ότι η απάντηση του ChatGPT συνδύαζε φανταστικές λεπτομέρειες με πραγματικά στοιχεία, συμπεριλαμβανομένης της γενέτειράς του και του αριθμού και φύλου των παιδιών του.

CleanShot2025-03-23at10_36.12@2x.jpg.4f74808f45f924efbc1ccb3de8d8e3e6.jpg
Ένα screenshot του ερωτήματος και της απάντησης του chatgpt, το οποίο μοιράστηκε από τον Noyb και το οποίο δεν εμφανίζεται πλέον

Η αυστριακή ομάδα υπεράσπισης Noyb κατέθεσε καταγγελία στη νορβηγική αρχή προστασίας δεδομένων Datatilsynet εκ μέρους του Holmen, κατηγορώντας την OpenAI για παραβίαση των απαιτήσεων προστασίας δεδομένων του Γενικού Κανονισμού Προστασίας Δεδομένων (GDPR) της Ευρωπαϊκής Ένωσης. Ζητά από την εταιρεία να της επιβληθεί πρόστιμο και να διαταχθεί να αφαιρέσει το δυσφημιστικό περιεχόμενο και να βελτιώσει το μοντέλο της για την αποφυγή παρόμοιων σφαλμάτων.

«To GDPR είναι σαφές. Τα προσωπικά δεδομένα πρέπει να είναι ακριβή. Και αν δεν είναι, οι χρήστες έχουν το δικαίωμα να τα αλλάξουν ώστε να αντικατοπτρίζουν την αλήθεια», δηλώνει ο Joakim Söderberg, δικηγόρος προστασίας δεδομένων στη Noyb. «Το να δείχνεις στους χρήστες του ChatGPT μια μικροσκοπική αποποίηση ευθύνης ότι το chatbot μπορεί να κάνει λάθη σαφώς δεν είναι αρκετό. Δεν μπορείς απλά να διαδίδεις ψευδείς πληροφορίες και στο τέλος να προσθέτεις μια μικρή αποποίηση ευθύνης που λέει ότι όλα όσα είπες μπορεί απλά να μην είναι αληθινά».

Η Noyb και ο Holmen δεν έχουν αποκαλύψει δημόσια πότε έγινε το αρχικό ερώτημα στο ChatGPT - η σχετική λεπτομέρεια περιλαμβάνεται στην επίσημη καταγγελία, αλλά δεν είναι φανερή στη δημόσια έκδοσή της- αλλά αναφέρει ότι ήταν πριν το ChatGPT ενημερωθεί ώστε να περιλαμβάνει αναζητήσεις στο διαδίκτυο στα αποτελέσματά του. Αν εισαγάγει κανείς το ίδιο ερώτημα τώρα, τα αποτελέσματα σχετίζονται με την καταγγελία της Noyb.

Αυτή είναι η δεύτερη επίσημη καταγγελία της Noyb σχετικά με το ChatGPT, αν και η πρώτη είχε χαμηλότερο διακύβευμα: τον Απρίλιο του 2024 κατέθεσε καταγγελία εκ μέρους ενός δημόσιου προσώπου του οποίου η ημερομηνία γέννησης αναφερόταν ανακριβώς από το εργαλείο τεχνητής νοημοσύνης. Τότε διαφώνησε με τον ισχυρισμό της OpenAI ότι τα εσφαλμένα δεδομένα δεν μπορούσαν να διορθωθούν, αλλά μόνο να αποκλειστούν σε σχέση με συγκεκριμένα ερωτήματα, γεγονός που, σύμφωνα με τη Noyb, παραβιάζει την απαίτηση του GDPR για "διαγραφή ή διόρθωση ανακριβών δεδομένων χωρίς καθυστέρηση".

  • Haha 11