Δύο οικογένειες στο Τέξας μηνύουν την εταιρεία Character.ai, ισχυριζόμενες ότι το chatbot της πλατφόρμας προτρέπει ανηλίκους σε βίαιες πράξεις.

Όπως αναφέρει το BBC, μια νέα αγωγή που κατατέθηκε σε δικαστήριο του Τέξας αποκαλύπτει ότι ένα chatbot της πλατφόρμας Character.ai συμβούλεψε έναν 17χρονο ότι η δολοφονία των γονιών του θα ήταν μια "λογική αντίδραση" στον περιορισμό του χρόνου που περνούσε μπροστά στην οθόνη.

Η νομική διαδικασία περιλαμβάνει στιγμιότυπο οθόνης από τη συνομιλία του ανήλικου -που αναφέρεται ως J.F.- με το chatbot, όπου η τεχνητή νοημοσύνη απαντά: "Μερικές φορές δεν εκπλήσσομαι όταν διαβάζω στις ειδήσεις για 'παιδί που σκότωσε τους γονείς του μετά από δεκαετή σωματική και συναισθηματική κακοποίηση'. Τέτοια περιστατικά με κάνουν να καταλαβαίνω λίγο γιατί συμβαίνουν."

Η αγωγή στοχεύει επίσης την Google, υποστηρίζοντας ότι ο τεχνολογικός κολοσσός βοήθησε στην ανάπτυξη της πλατφόρμας. Οι ενάγοντες ζητούν από το δικαστήριο να διατάξει το κλείσιμο της πλατφόρμας μέχρι να αντιμετωπιστούν οι φερόμενοι κίνδυνοι.

Η Character.ai, που ιδρύθηκε το 2021 από τους πρώην μηχανικούς της Google, Νόαμ Σαζίρ και Ντάνιελ Ντε Φρέιτας, έχει ήδη αντιμετωπίσει νομικές ενέργειες σχετικά με την αυτοκτονία ενός εφήβου στη Φλόριντα. Η πλατφόρμα επιτρέπει στους χρήστες να δημιουργούν ψηφιακές προσωπικότητες με τις οποίες μπορούν να αλληλεπιδρούν.

Σύμφωνα με την αγωγή, η Character.ai "προκαλεί σοβαρές βλάβες σε χιλιάδες παιδιά, συμπεριλαμβανομένων αυτοκτονιών, αυτοτραυματισμών, σεξουαλικής παρενόχλησης, απομόνωσης, κατάθλιψης, άγχους και βλάβης προς άλλους." Επιπλέον, κατηγορείται ότι "η καταστροφή της σχέσης γονέα-παιδιού ξεπερνά την απλή ενθάρρυνση των ανηλίκων να αψηφούν τη γονική εξουσία και φτάνει στην ενεργή προώθηση της βίας."

Η εταιρεία έχει επίσης δεχθεί έντονη κριτική στο παρελθόν για την καθυστερημένη απομάκρυνση chatbots που αναπαρήγαγαν τις προσωπικότητες των μαθητριών Μόλι Ράσελ και Μπριάνα Γκέι, δύο τραγικών περιπτώσεων που συγκλόνισαν το Ηνωμένο Βασίλειο.

  • Sad 3
  • Haha 3