Αναζήτηση στην κοινότητα
Εμφάνιση αποτελεσμάτων για τις ετικέτες 'deepfake'.
14 αποτελέσματα
-
Η Meta, μία από τις μεγαλύτερες εταιρίες στο χώρο των μέσων κοινωνικής δικτύωσης, θα αρχίσει από το Μάιο να επισημαίνει με ειδική ένδειξη ("Made with AI") όσα βίντεο, εικόνες και ηχητικό υλικό αναρτώνται στις πλατφόρμες της και έχει δημιουργηθεί μέσω κάποιου μοντέλου τεχνητής νοημοσύνης, επεκτείνοντας έτσι μια πολιτική η οποία έως τώρα αντιμετώπιζε μια πολύ συγκεκριμένη κατηγορία αλλοιωμένων βίντεο, όπως ανακοίνωσε η Μόνικα Μπίκερτ, αντιπρόεδρος της εταιρίας, αρμόδια για την πολιτική περιεχομένου. Στην ανάρτησή της, η Μπίκερτ αναφέρει ότι η Meta θα χρησιμοποιεί διακριτές και περισσότερο αισθητές επισημάνσεις για ψηφιακά αλλοιωμένα μέσα, τα οποία ενέχουν "ιδιαίτερα υψηλό κίνδυνο ουσιαστικής εξαπάτησης του κοινού επί σημαντικών ζητημάτων", ανεξαρτήτως του κατά πόσο το επίμαχο υλικό δημιουργήθηκε με τη χρήση μοντέλου τεχνητής νοημοσύνης ή άλλων εργαλείων. Η νέα πολιτική συνιστά σημαντική αλλαγή στάσης εκ μέρους της Meta, έναντι του αλλοιωμένου υλικού. Ενώ προηγουμένως η εταιρία εστίαζε στην αφαίρεση μιας περιορισμένης σειράς αναρτήσεων, μεταβαίνει πλέον σε μια πολιτική στόχος της οποίας είναι η διατήρηση του περιεχομένου, με παράλληλη ενημέρωση των χρηστών σχετικά με το πώς δημιουργήθηκε αυτό. Νωρίτερα, η Meta είχε ανακοινώσει σχέδιο εντοπισμού εικόνων που δημιουργήθηκαν μέσω μοντέλων τεχνητής νοημοσύνης άλλων εταιριών, χρησιμοποιώντας αόρατους δείκτες που ενσωματώνονται στα αρχεία, όμως δεν προσδιόρισε το πότε θα αρχίσει να εφαρμόζεται αυτό το μέτρο. Εκπρόσωπος της εταιρίας σε δηλώσεις του στο Reuters ανέφερε πως η νέα προσέγγιση θα εφαρμοστεί στο περιεχόμενο που αναρτάται στο Facebook, το Instagram και το Threads, όλα ιδιοκτησίας Meta. Οι άλλες υπηρεσίες της, μεταξύ των οποίων το WhatsApp και οι συσκευές εικονικής πραγματικότητας Quest καλύπτονται από διαφορετικούς κανόνες. Ενόψει των νέων μέτρων, η Meta θα ξεκινήσει άμεσα να εφαρμόζει τις σημάνσεις στο περιεχόμενο "υψηλού κινδύνου", διευκρίνισε ο εκπρόσωπος της εταιρίας. Οι αλλαγές αυτές εφαρμόζονται ενόψει των αμερικανικών προεδρικών εκλογών το Νοέμβριο οι οποίες, σύμφωνα με αναλυτές, ενδέχεται να επηρεαστούν δραστικά από τις νέες τεχνολογίες δημιουργικής τεχνητής νοημοσύνης. Ήδη έχουν αρχίσει να χρησιμοποιούνται εργαλεία τεχνητής νοημοσύνης στο πλαίσιο προεκλογικών εκστρατειών σε χώρες όπως η Ινδονησία, εξέλιξη η οποία δοκιμάζει το πλαίσιο των κανονισμών που έχουν ορίσει πάροχοι όπως η Meta, καθώς και η OpenAI, εκ των κορυφαίων εταιριών στον τομέα της δημιουργικής τεχνητής νοημοσύνης. Το Φεβρουάριο, η εποπτική επιτροπή της Meta χαρακτήρισε τους υφιστάμενους κανόνες σχετικά με το χειραγωγημένο υλικό "ασυνάρτητους", μετά από έλεγχο βίντεο το οποίο είχε αναρτηθεί πέρυσι στο Facebook, όπου εμφανιζόταν ο Αμερικανός πρόεδρος Τζο Μπάιντεν και το οποίο είχε αλλοιωθεί κατά τρόπο που άφηνε να εννοηθεί ότι είχε φερθεί κατά τρόπο άπρεπο. Η εποπτική επιτροπή αποφάνθηκε επίσης ότι το νέο πλαίσιο πρέπει να εφαρμοστεί και σε υλικό το οποίο δεν έχει δημιουργηθεί ή αλλοιωθεί με τη χρήση μοντέλου τεχνητής νοημοσύνης, εφόσον "δεν είναι απαραίτητα λιγότερο παραπλανητικό", από ό,τι υλικό που έχει δημιουργηθεί από μοντέλα τεχνητής νοημοσύνης, καθώς και σε αποκλειστικά ηχητικό υλικό, αλλά και βίντεο τα οποία εμφανίζουν ανθρώπους να κάνουν πράγματα τα οποία δεν έχουν κάνει στην πραγματικότητα.
-
H εταιρία στην οποία ανήκει το Facebook προχωρά στις αλλαγές αυτές ενόψει των αμερικανικών προεδρικών εκλογών, καθώς ετοιμάζεται να δοκιμάσει την ικανότητά της να ελέγχει παραπλανητικό υλικό το οποίο δημιουργείται από τις νέες τεχνολογίες τεχνητής νοημοσύνης. Η Meta, μία από τις μεγαλύτερες εταιρίες στο χώρο των μέσων κοινωνικής δικτύωσης, θα αρχίσει από το Μάιο να επισημαίνει με ειδική ένδειξη ("Made with AI") όσα βίντεο, εικόνες και ηχητικό υλικό αναρτώνται στις πλατφόρμες της και έχει δημιουργηθεί μέσω κάποιου μοντέλου τεχνητής νοημοσύνης, επεκτείνοντας έτσι μια πολιτική η οποία έως τώρα αντιμετώπιζε μια πολύ συγκεκριμένη κατηγορία αλλοιωμένων βίντεο, όπως ανακοίνωσε η Μόνικα Μπίκερτ, αντιπρόεδρος της εταιρίας, αρμόδια για την πολιτική περιεχομένου. Στην ανάρτησή της, η Μπίκερτ αναφέρει ότι η Meta θα χρησιμοποιεί διακριτές και περισσότερο αισθητές επισημάνσεις για ψηφιακά αλλοιωμένα μέσα, τα οποία ενέχουν "ιδιαίτερα υψηλό κίνδυνο ουσιαστικής εξαπάτησης του κοινού επί σημαντικών ζητημάτων", ανεξαρτήτως του κατά πόσο το επίμαχο υλικό δημιουργήθηκε με τη χρήση μοντέλου τεχνητής νοημοσύνης ή άλλων εργαλείων. Η νέα πολιτική συνιστά σημαντική αλλαγή στάσης εκ μέρους της Meta, έναντι του αλλοιωμένου υλικού. Ενώ προηγουμένως η εταιρία εστίαζε στην αφαίρεση μιας περιορισμένης σειράς αναρτήσεων, μεταβαίνει πλέον σε μια πολιτική στόχος της οποίας είναι η διατήρηση του περιεχομένου, με παράλληλη ενημέρωση των χρηστών σχετικά με το πώς δημιουργήθηκε αυτό. Νωρίτερα, η Meta είχε ανακοινώσει σχέδιο εντοπισμού εικόνων που δημιουργήθηκαν μέσω μοντέλων τεχνητής νοημοσύνης άλλων εταιριών, χρησιμοποιώντας αόρατους δείκτες που ενσωματώνονται στα αρχεία, όμως δεν προσδιόρισε το πότε θα αρχίσει να εφαρμόζεται αυτό το μέτρο. Εκπρόσωπος της εταιρίας σε δηλώσεις του στο Reuters ανέφερε πως η νέα προσέγγιση θα εφαρμοστεί στο περιεχόμενο που αναρτάται στο Facebook, το Instagram και το Threads, όλα ιδιοκτησίας Meta. Οι άλλες υπηρεσίες της, μεταξύ των οποίων το WhatsApp και οι συσκευές εικονικής πραγματικότητας Quest καλύπτονται από διαφορετικούς κανόνες. Ενόψει των νέων μέτρων, η Meta θα ξεκινήσει άμεσα να εφαρμόζει τις σημάνσεις στο περιεχόμενο "υψηλού κινδύνου", διευκρίνισε ο εκπρόσωπος της εταιρίας. Οι αλλαγές αυτές εφαρμόζονται ενόψει των αμερικανικών προεδρικών εκλογών το Νοέμβριο οι οποίες, σύμφωνα με αναλυτές, ενδέχεται να επηρεαστούν δραστικά από τις νέες τεχνολογίες δημιουργικής τεχνητής νοημοσύνης. Ήδη έχουν αρχίσει να χρησιμοποιούνται εργαλεία τεχνητής νοημοσύνης στο πλαίσιο προεκλογικών εκστρατειών σε χώρες όπως η Ινδονησία, εξέλιξη η οποία δοκιμάζει το πλαίσιο των κανονισμών που έχουν ορίσει πάροχοι όπως η Meta, καθώς και η OpenAI, εκ των κορυφαίων εταιριών στον τομέα της δημιουργικής τεχνητής νοημοσύνης. Το Φεβρουάριο, η εποπτική επιτροπή της Meta χαρακτήρισε τους υφιστάμενους κανόνες σχετικά με το χειραγωγημένο υλικό "ασυνάρτητους", μετά από έλεγχο βίντεο το οποίο είχε αναρτηθεί πέρυσι στο Facebook, όπου εμφανιζόταν ο Αμερικανός πρόεδρος Τζο Μπάιντεν και το οποίο είχε αλλοιωθεί κατά τρόπο που άφηνε να εννοηθεί ότι είχε φερθεί κατά τρόπο άπρεπο. Η εποπτική επιτροπή αποφάνθηκε επίσης ότι το νέο πλαίσιο πρέπει να εφαρμοστεί και σε υλικό το οποίο δεν έχει δημιουργηθεί ή αλλοιωθεί με τη χρήση μοντέλου τεχνητής νοημοσύνης, εφόσον "δεν είναι απαραίτητα λιγότερο παραπλανητικό", από ό,τι υλικό που έχει δημιουργηθεί από μοντέλα τεχνητής νοημοσύνης, καθώς και σε αποκλειστικά ηχητικό υλικό, αλλά και βίντεο τα οποία εμφανίζουν ανθρώπους να κάνουν πράγματα τα οποία δεν έχουν κάνει στην πραγματικότητα. Διαβάστε ολόκληρο το άρθρο
-
Το DeepNude είναι ένα από τα τελευταία παραδείγματα παραποίησης φωτογραφιών και βίντεο με τη βοήθεια της τεχνητής νοημοσύνης, και αναμένεται να δημιουργήσει νέα ζητήματα ηθικής όπως και με την περίπτωση των Deepfake βίντεο. Η ίδια η εφαρμογή πάντως είναι διαθέσιμη σε δύο εκδόσεις, όπου και οι δύο προσθέτουν ένα υδατογράφημα πάνω στη φωτογραφία προκειμένου να μην υπάρχει αμφιβολία ότι αυτή αποτελεί προϊόν επεξεργασίας. Η δωρεάν έκδοση προσθέτει υδατογράφημα μεγάλου μέγεθος ενώ η επί πληρωμή έκδοση με κόστος $99 προσθέτει πάνω στη φωτογραφία ένα μικρότερο υδατογράφημα και δίνει τη δυνατότητα εξαγωγής της φωτογραφίας σε υψηλή ανάλυση. Το τελικό αποτέλεσμα αν και είναι αρκετά ρεαλιστικό, εντούτοις κάνει εξαιρετικά εύκολο τον εντοπισμό το ότι αποτελεί μια ψεύτικη φωτογραφία αφού διαθέτει αρκετά θολά σημεία με φαινόμενα «πιξελιάσματος». Η εφαρμογή είναι διαθέσιμη για Windows και Linux, και λίγο μετά την κυκλοφορία της, το τεράστιο ενδιαφέρον του κόσμου δημιούργησε σημαντικά προβλήματα στην επίσημη ιστοσελίδα, κάτι που οδήγησε τους δημιουργούς της να την αποσύρουν προσωρινά μέχρι να διορθωθούν κάποια bugs και να σταθεροποιηθεί όχι μόνο η εφαρμογή αλλά και η διαδικασία download. Σε μελλοντική έκδοση όπως ενημερωνόμαστε από την επίσημη ιστοσελίδα, θα πρέπει να περιμένουμε και την αφαίρεση των ρούχων από φωτογραφίες που απεικονίζουν άνδρες. Πάντως και ο ίδιος δημιουργός της εφαρμογής που εμφανίζεται με το όνομα Alberto, αναφέρει ότι τον απασχολεί η κακόβουλη χρήση του DeepNude αν και πιστεύει ότι από τη στιγμή που η τεχνολογία έχει φτάσει στο σημείο να κάνει κάτι τέτοιο πραγματικότητα, αυτός που θέλει να κάνει κακό, θα βρει τον τρόπο. Νομικά πάντως ίσως τίθενται θέματα ακόμα και αν ο ίδιος αναφέρει και εντός της εφαρμογής ότι «όποια φωτογραφία έχει επεξεργαστεί από το DeepNude αποτελεί προϊόν ψεύτικης παρωδίας. Ενημέρωση 23:34 - Σύντομη ήταν τελικά η ζωή της εφαρμογής, αφού με μήνυμά τους πριν λίγο στο Twitter, οι δημιουργοί του DeepNude ανακοινώνουν την πλήρη απόσυρση της και την απενεργοποίηση της ιστοσελίδας, χωρίς καμία πιθανότητα επιστροφής τους. Ο λόγος είναι η πολύ υψηλή πιθανότητα κακόβουλης χρήσης της εφαρμογής αφού αν και κυκλοφόρησε πριν λίγες ώρες, ήδη περισσότεροι από 500.000 άνθρωποι την έχουν χρησιμοποιήσει. Οι δημιουργοί του DeepNude αναφέρουν ότι «δεν θέλουν να βγάλουν λεφτά μ' αυτό τον τρόπο» και ότι σε καμία περίπτωση δεν περίμεναν τέτοια ανταπόκριση ειδικά για μια εφαρμογή «έχει και αρκετά θέματα». Όσοι έχουν προχωρήσει στην αγορά του θα αποζημιωθούν ενώ δεν πρόκειται να υπάρξει οποιαδήποτε νέα έκδοση στο μέλλον. Όσοι προμηθευτούν την εφαρμογή από τρίτες ιστοσελίδες θα πρέπει να γνωρίζουν ότι αυτό αποτελεί μια κίνηση ενάντια στους όρους καθώς και το ότι δεν θα υπάρχει οποιαδήποτε υποστήριξη. Το μήνυμα κλείνει με την διαπίστωση ότι «ο κόσμος δεν είναι ακόμη έτοιμος για το DeepNude.»
-
Για όσους δε γνωρίζουν, τα deepfakes αποτελούν μικρά κλιπ στα οποία έχει χρησιμοποιηθεί ο ομώνυμος αλγόριθμος, και με τη βοήθεια νευρωνικών δικτύων και της τεχνητής νοημοσύνης, ο αλγόριρθμος αναλαμβάνει να αντικαταστήσει το πρόσωπο ενός ανθρώπου με αυτό ενός άλλου, με άκρως εντυπωσιακά αποτελέσματα.Παράλληλα μάλιστα ωριμάζει και ο τρόπος δημιουργίας τέτοιων βίντεο αν και εξακολουθεί η δημιουργία τους να χρειάζεται αρκετό χρόνο και ειδικές γνώσεις. Το τελικό αποτέλεσμα πάντως σε πολλές περιπτώσεις αναμένεται να αποζημιώσει το δημιουργό τους. Αρκετά έως και «ανατριχιαστικά» πειστικά τέτοια βίντεο μπορούμε να δούμε στο YouTube κανάλι Ctrl Shift Face, με το δημιουργό του να φαίνεται να γνωρίζει αρκετά καλά τη χρήση του αλγορίθμου. Σε μερικά από αυτά, ο ηθοποιός Bill Hader μετατρέπεται σε Arnold Schwarzenegger αλλά και σε Al Pacino, ενώ μπορούμε να δούμε πως θα έμοιαζαν οι τελευταίες σκηνές του Fight Club αν οι ρόλοι των ηθοποιών Brand Pit και Edward Norton είχαν αντιστραφεί (προσοχή spoilers). Σε άλλα παραδείγματα, βλέπουμε τον αδικοχαμένο ηθοποιό Heath Ledger, να μεταφέρει σε παλαιότερες ταινίες, το πρόσωπό του από τον ρόλο του Joker από την ταινία "The Dark Knight". Για να είναι όσο δυνατόν πιο πειστικό το τελικό αποτέλεσμα, σημαντικό ρόλο παίζει ο χρόνος "εκπαίδευσης" του αλγορίθμου με αρκετό περιεχόμενο προκειμένου να μεταφερθούν με ακρίβεια και οι εκφράσεις του προσώπου ενώ ένας ακόμη σημαντικός παράγοντας είναι η ποιότητα των βίντεο που χρησιμοποιούνται. Τα βίντεο που έχει ανεβάσει ήδη το κανάλι Ctrl Shift Face σημειώνουν μεγάλη επιτυχία με εκατομμύρια εμφανίσεις ενώ ο δημιουργός τους υπόσχεται περισσότερα στο μέλλον The Register
-
Ο Bruce Willis θα εμφανιστεί σε μελλοντικά projects μέσω deepfake [Eνημέρωση]
alion δημοσίευσε ένα άρθρο στο Artificial Intelligence
Πέρυσι, ο "ψηφιακός δίδυμος" του ηθοποιού εμφανίστηκε σε διαφήμιση ρωσικού τηλεπικοινωνιακού παρόχου, και ο οποίος δημιουργήθηκε από μια εταιρεία με την ονομασία Deepcake. Σημερινά δημοσιεύματα αναφέρουν ότι ο Willis πούλησε τα δικαιώματά του για μελλοντικά κινηματογραφικά, διαφημιστικά και άλλα έργα στην Deepcake, σύμφωνα με την ιστοσελίδα της εταιρείας και την Telegraph. Οι μηχανικοί δημιούργησαν τον ψηφιακό σωσία του ηθοποιού αντλώντας από το περιεχόμενο των ταινιών Die Hard και Fifth Element, όταν ο Willis ήταν 32 και 42 ετών αντίστοιχα. Με το ομοίωμά του τώρα στην πλατφόρμα τεχνητής νοημοσύνης της εταιρείας, αυτή μπορεί να «τοποθετήσει» το ομοίωμά του στο πρόσωπο ενός άλλου ηθοποιού σε σχετικά σύντομο χρονικό διάστημα. Ωστόσο, την τελική έγκριση για την κυκλοφορία κάθε project έχει η οικογένεια του ηθοποιού. Στη διαφήμιση για τη Megafon, το πρόσωπο του Konstantin Solovyov αντικαταστάθηκε με το πρόσωπο του ηθοποιού Willis. «Μου άρεσε η ακρίβεια του χαρακτήρα μου. Είναι μια μεγάλη ευκαιρία για μένα να γυρίσω πίσω στο χρόνο», δήλωσε ο Γουίλις σε δήλωσή του στο Deepcake. «Με την έλευση της σύγχρονης τεχνολογίας, μπορούσα να επικοινωνώ, να εργάζομαι και να συμμετέχω στα γυρίσματα, ακόμη και αν βρισκόμουν σε άλλη ήπειρο. Είναι μια ολοκαίνουργια και ενδιαφέρουσα εμπειρία για μένα και είμαι ευγνώμων στην ομάδα μας». Τον Μάρτιο, η οικογένεια του Bruce Willis ανακοίνωσε ότι αποσύρεται από την υποκριτική επειδή διαγνώστηκε με αφασία, η οποία επηρεάζει την επικοινωνία και την κατανόηση. Τα τελευταία χρόνια, ο 67χρονος εμφανίστηκε σε μια σειρά από έργα εν μέσω ανησυχίας για τη γνωστική του κατάσταση. Άλλοι ηθοποιοί έχουν ήδη εμφανιστεί ως ψηφιακές εκδοχές του εαυτού τους, κυρίως στο The Book of Boba Fett με έναν νεαρό Mark Hamill. Ψηφιακές εκδοχές της Carrie Fisher και του Peter Cushing εμφανίστηκαν επίσης στο Star Wars: Rogue One, παρά το γεγονός ότι και οι δύο έχουν αποβιώσει. Ο James Earl Jones πούλησε πρόσφατα στη Disney το δικαίωμα να αναδημιουργήσει τη φωνή του Dart Vader με τη βοήθεια της τεχνητής νοημοσύνης, ώστε να μπορέσει επιτέλους να αποσυρθεί. Η πρακτική αυτή προκάλεσε αντιδράσεις. Οι απομιμήσεις ποικίλλουν σε μεγάλο βαθμό ως προς την ποιότητα, αλλά πολλές είναι τουλάχιστον περίεργες αφού δεν είναι λίγες οι φορές που οι χαρακτήρες δεν φαίνονται απόλυτα σωστοί λόγω άκαμπτων κινήσεων, μη ρεαλιστικών ματιών και άλλων προβλημάτων. Υπάρχει επίσης το ζήτημα των δικαιωμάτων, καθώς οι αποθανόντες ηθοποιοί δεν μπορούν να απορρίψουν μεταθανάτιους κινηματογραφικούς ρόλους, ακόμη και αν η οικογένεια ή άλλοι κληρονόμοι το εγκρίνουν. Ενημέρωση 2/10 08:12 - Σύμφωνα με το BBC, ο ατζέντης του Bruce Willis διέψευσε το δημοσίευμα της Telegraph και άλλων μέσων σύμφωνα με τα οποία ο κινηματογραφικός αστέρας πούλησε τα δικαιώματα του προσώπου του. Αυτή την εβδομάδα αναφέρθηκε ευρέως ότι ο Willis, στην πρώτη συμφωνία του είδους, είχε πουλήσει το πρόσωπό του σε μια εταιρεία deepfake με την ονομασία Deepcake. Ωστόσο, εκπρόσωπος του ηθοποιού δήλωσε στο BBC ότι δεν είχε "καμία συνεργασία ή συμφωνία" με την εταιρεία ενώ και ένας εκπρόσωπος της Deepcake δήλωσε ότι μόνο ο Willis είχε τα δικαιώματα του προσώπου του. Τα Deepfakes χρησιμοποιούν τεχνολογία τεχνητής νοημοσύνης (AI) και μηχανικής μάθησης για να δημιουργήσουν ρεαλιστικά βίντεο - συχνά διασημοτήτων ή πολιτικών. Για τους ηθοποιούς που δεν μπορούν πλέον να παίξουν, η τεχνολογία έχει τη δυνατότητα να αλλάξει το παιχνίδι. Σε δήλωση της η Deepcake, δήλωσε ότι οι αναφορές ότι είχε αγοράσει τα δικαιώματα του προσώπου του Bruce Willis ήταν ανακριβείς. «Η διατύπωση σχετικά με τα δικαιώματα είναι λανθασμένη... Ο Bruce δεν θα μπορούσε να πουλήσει σε κανέναν δικαιώματα, είναι δικά του εξ ορισμού», δήλωσε εκπρόσωπος της εταιρείας. Η σύγχυση αναδεικνύει πόσο νέα είναι αυτή η τεχνολογία - και την έλλειψη σαφών κανόνων γύρω από αυτήν. «Ο Bruce Willis έγινε ο πρώτος σταρ του Χόλιγουντ που πούλησε τα δικαιώματά του για να επιτρέψει τη δημιουργία ενός "ψηφιακού διδύμου" του εαυτού του για χρήση στην οθόνη», ανέφερε η Telegraph. -
Μια νέα εφαρμογή με την ονομασία DeepNude, η οποία έχει άμεση σχέση με την τεχνητή νοημοσύνη, προκαλεί αίσθηση τις τελευταίες ώρες αφού αναλαμβάνει να δημιουργήσει φωτογραφίες γυμνών γυναικών, εισάγοντας απλά φωτογραφίες τους στις οποίες φοράνε κανονικά τα ρούχα τους. Το DeepNude είναι ένα από τα τελευταία παραδείγματα παραποίησης φωτογραφιών και βίντεο με τη βοήθεια της τεχνητής νοημοσύνης, και αναμένεται να δημιουργήσει νέα ζητήματα ηθικής όπως και με την περίπτωση των Deepfake βίντεο. Η ίδια η εφαρμογή πάντως είναι διαθέσιμη σε δύο εκδόσεις, όπου και οι δύο προσθέτουν ένα υδατογράφημα πάνω στη φωτογραφία προκειμένου να μην υπάρχει αμφιβολία ότι αυτή αποτελεί προϊόν επεξεργασίας. Η δωρεάν έκδοση προσθέτει υδατογράφημα μεγάλου μέγεθος ενώ η επί πληρωμή έκδοση με κόστος $99 προσθέτει πάνω στη φωτογραφία ένα μικρότερο υδατογράφημα και δίνει τη δυνατότητα εξαγωγής της φωτογραφίας σε υψηλή ανάλυση. Το τελικό αποτέλεσμα αν και είναι αρκετά ρεαλιστικό, εντούτοις κάνει εξαιρετικά εύκολο τον εντοπισμό το ότι αποτελεί μια ψεύτικη φωτογραφία αφού διαθέτει αρκετά θολά σημεία με φαινόμενα «πιξελιάσματος». Η εφαρμογή είναι διαθέσιμη για Windows και Linux, και λίγο μετά την κυκλοφορία της, το τεράστιο ενδιαφέρον του κόσμου δημιούργησε σημαντικά προβλήματα στην επίσημη ιστοσελίδα, κάτι που οδήγησε τους δημιουργούς της να την αποσύρουν προσωρινά μέχρι να διορθωθούν κάποια bugs και να σταθεροποιηθεί όχι μόνο η εφαρμογή αλλά και η διαδικασία download. Σε μελλοντική έκδοση όπως ενημερωνόμαστε από την επίσημη ιστοσελίδα, θα πρέπει να περιμένουμε και την αφαίρεση των ρούχων από φωτογραφίες που απεικονίζουν άνδρες. Πάντως και ο ίδιος δημιουργός της εφαρμογής που εμφανίζεται με το όνομα Alberto, αναφέρει ότι τον απασχολεί η κακόβουλη χρήση του DeepNude αν και πιστεύει ότι από τη στιγμή που η τεχνολογία έχει φτάσει στο σημείο να κάνει κάτι τέτοιο πραγματικότητα, αυτός που θέλει να κάνει κακό, θα βρει τον τρόπο. Νομικά πάντως ίσως τίθενται θέματα ακόμα και αν ο ίδιος αναφέρει και εντός της εφαρμογής ότι «όποια φωτογραφία έχει επεξεργαστεί από το DeepNude αποτελεί προϊόν ψεύτικης παρωδίας. Ενημέρωση 23:34 - Σύντομη ήταν τελικά η ζωή της εφαρμογής, αφού με μήνυμά τους πριν λίγο στο Twitter, οι δημιουργοί του DeepNude ανακοινώνουν την πλήρη απόσυρση της και την απενεργοποίηση της ιστοσελίδας, χωρίς καμία πιθανότητα επιστροφής τους. Ο λόγος είναι η πολύ υψηλή πιθανότητα κακόβουλης χρήσης της εφαρμογής αφού αν και κυκλοφόρησε πριν λίγες ώρες, ήδη περισσότεροι από 500.000 άνθρωποι την έχουν χρησιμοποιήσει. Οι δημιουργοί του DeepNude αναφέρουν ότι «δεν θέλουν να βγάλουν λεφτά μ' αυτό τον τρόπο» και ότι σε καμία περίπτωση δεν περίμεναν τέτοια ανταπόκριση ειδικά για μια εφαρμογή «έχει και αρκετά θέματα». Όσοι έχουν προχωρήσει στην αγορά του θα αποζημιωθούν ενώ δεν πρόκειται να υπάρξει οποιαδήποτε νέα έκδοση στο μέλλον. Όσοι προμηθευτούν την εφαρμογή από τρίτες ιστοσελίδες θα πρέπει να γνωρίζουν ότι αυτό αποτελεί μια κίνηση ενάντια στους όρους καθώς και το ότι δεν θα υπάρχει οποιαδήποτε υποστήριξη. Το μήνυμα κλείνει με την διαπίστωση ότι «ο κόσμος δεν είναι ακόμη έτοιμος για το DeepNude.» Διαβάστε ολόκληρο το άρθρο
-
Τα deepfake video ωριμάζουν και ξεχωρίζουν για τον ρεαλισμό του τελικού αποτελέσματος που εκτείνεται και πέρα από τα ερωτικά κλιπ όπου και έγινε η πρώτη χρήση της τεχνολογίας. Για όσους δε γνωρίζουν, τα deepfakes αποτελούν μικρά κλιπ στα οποία έχει χρησιμοποιηθεί ο ομώνυμος αλγόριθμος, και με τη βοήθεια νευρωνικών δικτύων και της τεχνητής νοημοσύνης, ο αλγόριρθμος αναλαμβάνει να αντικαταστήσει το πρόσωπο ενός ανθρώπου με αυτό ενός άλλου, με άκρως εντυπωσιακά αποτελέσματα.Παράλληλα μάλιστα ωριμάζει και ο τρόπος δημιουργίας τέτοιων βίντεο αν και εξακολουθεί η δημιουργία τους να χρειάζεται αρκετό χρόνο και ειδικές γνώσεις. Το τελικό αποτέλεσμα πάντως σε πολλές περιπτώσεις αναμένεται να αποζημιώσει το δημιουργό τους. Αρκετά έως και «ανατριχιαστικά» πειστικά τέτοια βίντεο μπορούμε να δούμε στο YouTube κανάλι Ctrl Shift Face, με το δημιουργό του να φαίνεται να γνωρίζει αρκετά καλά τη χρήση του αλγορίθμου. Σε μερικά από αυτά, ο ηθοποιός Bill Hader μετατρέπεται σε Arnold Schwarzenegger αλλά και σε Al Pacino, ενώ μπορούμε να δούμε πως θα έμοιαζαν οι τελευταίες σκηνές του Fight Club αν οι ρόλοι των ηθοποιών Brand Pit και Edward Norton είχαν αντιστραφεί (προσοχή spoilers). Σε άλλα παραδείγματα, βλέπουμε τον αδικοχαμένο ηθοποιό Heath Ledger, να μεταφέρει σε παλαιότερες ταινίες, το πρόσωπό του από τον ρόλο του Joker από την ταινία "The Dark Knight". Για να είναι όσο δυνατόν πιο πειστικό το τελικό αποτέλεσμα, σημαντικό ρόλο παίζει ο χρόνος "εκπαίδευσης" του αλγορίθμου με αρκετό περιεχόμενο προκειμένου να μεταφερθούν με ακρίβεια και οι εκφράσεις του προσώπου ενώ ένας ακόμη σημαντικός παράγοντας είναι η ποιότητα των βίντεο που χρησιμοποιούνται. Τα βίντεο που έχει ανεβάσει ήδη το κανάλι Ctrl Shift Face σημειώνουν μεγάλη επιτυχία με εκατομμύρια εμφανίσεις ενώ ο δημιουργός τους υπόσχεται περισσότερα στο μέλλον The Register Διαβάστε ολόκληρο το άρθρο
-
Τα λεγόμενα deepfake θολώνουν την έννοια της πραγματικότητας ακόμη περισσότερο Διαρκώς καταγράφονται ανησυχητικά περιστατικά χρήσης παραπλανητιού υλικού που έχει δημιουργηθεί από προγράμματα τεχνητής νοημοσύνης και τα πρόχειρα μέτρα που λαμβάνονται για την αντιμετώπιση του προβλήματος θεωρείται εξαιρετικά αμφίβολο αν θα προσφέρουν την όποια ουσιαστική βοήθεια. Την Πέμπτη, οι ομοσπονδιακές αρχές των ΗΠΑ έθεσαν στο στόχαστρό τους ρομποτικές κλήσεις που μιμούνται τις φωνές επωνύμων, όπως για παράδειγμα εκείνες που μιμούνταν τη φωνή του Αμερικανού προέδρου Τζο Μπάιντεν στο πλαίσιο των προκριματικών εκλογών στο Νιού Χάμσαϊρ, με τις οποίες υποτίθεται πως καλούσε τους ψηφοφόρους να μην προσέλθουν στις κάλπες. Την ίδια ώρα, η OpenAI και η Google προχώρησαν στη χρήση υδατογραφημάτων, προκειμένου να επισημαίνεται ότι χρησιμοποιήθηκε πρόγραμμα τεχνητής νοημοσύνης στη δημιουργία μιας εικόνας. Το ζήτημα είναι πως τέτοιου είδους μέτρα δεν διαθέτουν την απαραίτητη ισχύ ώστε να σταματήσουν τα λεγόμενα deepfake. "Ήρθαν για να μείνουν", δηλώνει ο Βίτζεϊ Μπαλασουμπραμανιγιάν, διευθύνων σύμβουλος της Pindrop, εταιρία ασφαλείας που εξακρίβωσε ότι το ElevenLabs ήταν η υπηρεσία που χρησιμοποιήθηκε για τη δημιουργία της πλαστής κλήσης με τη φωνή του προέδρου Μπάιντεν. "Οι τεχνολογίες εντοπισμού πλαστού υλικού πρέπει να υιοθετηθούν στην πηγή, στο σημείο εκπομπής, καθώς και στον προορισμό. Πολύ απλά, πρέπει να εφαρμόζονται σε όλη τη διαδρομή". Η απόφαση της Ομοσπονδιακής Επιτροπής Επικοινωνιών (FCC) να καταστήσει παράνομες αυτούς του είδους τις παραπλανητικές κλήσεις συνιστά βήμα προς τη σωστή κατεύθυνση, σύμφωνα με το Μπαλασουμπραμανιγιάν, όμως ελάχιστες είναι οι διευκρινίσεις που έχουν δοθεί σχετικά με το πώς θα επιβληθεί η εφαρμογή της απόφασης. Για την ώρα, το πλαστό υλικό εντοπίζεται αφού έχει γίνει ήδη η ζημιά, ενώ σπάνια επιβάλλονται κυρώσεις στους υπεύθυνους. Η όλη διαδικασία είναι αργή και δεν αντιμετωπίζει ουσιαστικά το υφιστάμενο πρόβλημα. Η OpenAI εισήγαγε τη χρήση υδατογραφημάτων στις εικόνες που δημιουργούνται με το Dall-E την εβδομάδα που μας πέρασε, τα οποία, εκτός από οπτικά, ενσωματώνονται και ψηφιακά στα δεδομένα της εικόνας. Ταυτόχρονα, όμως, η εταιρία αναγνώρισε πως αυτό το μέτρο παρακάμπτεται εύκολα με τη λήψη ενός screenshot. Ουσιαστικά, δεν πρόκειται για λύση, αλλά για μια ευκαιρία να ισχυριστεί η εταιρία πως έκανε ό,τι μπορούσε. Αντίστοιχα αναιμική ήταν και η αντίδραση της Χ όταν προ ημερών η πλατόφρμα κατακλύστηκε από πλαστά ερωτικά βίντεο της Τέιλορ Σουίφτ. Εντωμεταξύ, ένα πλαστό βίντεο που έλαβε υπάλληλος πολυεθνικής στο Χονγκ-Κονγκ, στο οποίο υποτίθεται ότι εμφανιζόταν ο προϊστάμενός του καθώς και αρκετοί συνάδελφοί του, οδήγησε στην απώλεια 25 εκατομμυρίων δολαρίων, σύμφωνα με ρεπορτάζ του CNN. Όλοι οι συνάδελφοι έμοιαζαν και ακούγονταν όπως τους ήξερε, όμως στην πορεία αποδείχτηκε ότι όλα τα πρόσωπα ήταν αλλοιωμένα με τη χρήση προγράμματος τεχνητής νοημοσύνης. Ο υπάλληλος εξαπατήθηκε και μετέφερε τα χρήματα σε άγνωστους απατεώνες. Οι λύσεις που έχουν προταθεί μέχρι στιγμής πολύ απλά δεν αρκούν. Το πρόβλημα είναι πως η τεχνολογία εντοπισμού του πλαστού υλικού είναι καινούργια και δεν καταφέρνει να ακολουθήσει τους ρυθμούς εξέλιξης των προγραμμάτων τεχνητής νοημοσύνης. Πλατφόρμες όπως η Meta, η X, αλλά ακόμη και οι πάροχοι τηλεφωνικών υπηρεσιών πρέπει να υιοθετήσουν μέτρα εντοπισμού του πλαστού υλικού, οπτικού και ηχητικού. Οι εταιρίες αυτές διαρκώς διαφημίζουν τις νέες δυνατότητες των προγραμμάτων δημιουργίας υλικού με τη χρήση τεχνητής νοημοσύνης που αναπτύσσουν, τι γίνεται όμως με τη δυνατότητα αναγνώρισης του πλαστού υλικού; Επί του παρόντος, οι εταιρίες που δραστηριοποιούνται εντατικά στο χώρο αυτό υποτίθεται πως κάτι προσπαθούν να κάνουν για να αντιμετωπίσουν το πρόβλημα, όμως πληθαίνουν οι φωνές που κάνουν λόγο για καθυστερημένες, ανεπαρκείς ή και προσχηματικές αντιδράσεις. Η τεχνολογία εντοπισμού του πλαστού υλικού χρειάζεται επίσης σημαντικές βελτιώσεις και πρέπει να καταστεί ευρέως διαθέσιμη. Επί του παρόντος, ο εντοπισμός του πλαστού υλικού δεν είναι 100% ακριβής για οποιαδήποτε κατηγορία, σύμφωνα με το διευθύνοντα σύμβουλο της Copyleaks, Αλόν Γιαμίν. Η εταιρία του διαθέτει ένα από τα καλύτερα εργαλεία εντοπισμού κειμένων που έχουν παραχθεί από προγράμματα τεχνητής νοημοσύνης, όμως ο εντοπισμός αντίστοιχου ηχητικού και οπτικού υλικού αποτελεί πολύ συνθετότερη πρόκληση. Ο εντοπισμός του πλαστού περιεχομένου σε οποιαδήποτε μορφή υστερεί αισθητά έναντι των αλμάτων που καταγράφει η τεχνητή νοημοσύνη και πρέπει να ενισχυθεί, άμεσα. Διαβάστε ολόκληρο το άρθρο
-
Η διακίνηση deep fake πορνογραφικών εικόνων ανήλικων μαθητριών σε ένα σχολείο ανέδειξαν ένα σημαντικό κενό στη νομοθεσία που πρόκειται από ότι φαίνεται να κλείσει σύντομα. Οι νομοθέτες πλέον, μετά από την εμφάνιση και τη διακίνηση των ψεύτικων εικόνων, αναγκάζονται πλέον να θεσπίσουν νέους νόμους που θα τιμωρούν αυστηρά τους δημιουργούς των εικόνων (ή και των βίντεο). Η διακίνηση του ψεύτικου υλικού τεχνητής νοημοσύνης πραγματοποιήθηκες στο Γυμνάσιο Issaquah στα περίχωρα του Seatle στην πολιτεία της Washington, στις Ηνωμένες Πολιτείες. Ένας μαθητής, αφού πρώτα προχώρησε σε λήψη φωτογραφιών των συμμαθητριών του, χρησιμοποίησε τεχνολογία Τεχνητής Νοημοσύνης για να τις «ξεγυμνώσει». Η ιστοσελίδα 404Media απέκτησε πρόσβαση στην Αστυνομική αναφορά και επιβεβαίωσε ότι ο μαθητής χρησιμοποίησε διαδικτυακές εφαρμογές (web-based apps) που έχουν αναπτυχθεί για να «ξεντύνουν» και να «ξεγυμνώνουν» άτομα με τη βοήθεια τεχνητής νοημοσύνης. Το αξιοσημείωτο είναι ότι στην έκθεση της αστυνομίας αναφέρεται ότι οι συγκεκριμένες διαδικτυακές εφαρμογές δεν χρειάζονται παρά μόνο μία εικόνα για να δημιουργήσουν τη ρεαλιστική εικόνα ενός γυμνού ατόμου. Επιπλέον, στην έκθεση επισημαίνεται ότι το σχολείο δεν ενημέρωσε αμέσως τις αρχές για τις εικόνες που κυκλοφορούσαν και ότι ειδοποιήθηκαν από τρεις γονείς ξεχωριστά. Επιπλέον, ένας αξιωματικός δήλωσε μεγάλη έκπληξη που το σχολείο δεν επικοινώνησε με την αστυνομία σχετικά με τις εικόνες, καθώς χαρακτηρίζονται ως ξεκάθαρη περίπτωση «σεξουαλικής κακοποίησης» και οι διευθυντές του σχολείου θα έπρεπε υποχρεωτικά να είχαν καταγγείλει το περιστατικό. Η αστυνομία πήγε την υπόθεση στον τοπικό εισαγγελέα με σκοπό να απαγγείλει κατηγορίες στον μαθητή που παραδέχτηκε ότι δημιούργησε τις εικόνες για «παρενόχληση στον κυβερνοχώρο». Ο εισαγγελέας παραδόξως αποφάσισε να μην απαγγείλει κατηγορίες στον μαθητή, κάτι που βεβαίως σχολιάστηκε ποικιλοτρόπως. Τώρα, οι νομοθέτες της πολιτείας της Washington συζητούν αν θα καταστήσουν ή όχι παράνομη την κοινοποίηση deep fake πορνογραφικών εικόνων. Το νομοσχέδιο προωθείται αυτές τις ημέρες στο νομοθετικό σώμα της Washington με διακομματική υποστήριξη και θα συστήσει ένα νέο ποινικό αδίκημα με την ονομασία «διακίνηση κατασκευασμένων προσωπικών εικόνων», το οποίο θα επιτρέψει στα θύματα των deep fake πορνογραφικών εικόνων να υποβάλλουν αγωγές κατά των δημιουργών τους. Διαβάστε ολόκληρο το άρθρο
-
Μια τέτοια περίπτωση είναι αυτή που αναφέρει η ιστοσελίδα Motherboard, όπου μια μικρή ομάδα στο Reddit με επικεφαλής τον χρήστη "deepfakes" έχουν κάνει χόμπι τη δημιουργία πορνό βίντεο στο οποίο εμφανίζονται διάφοροι διάσημοι καλλιτέχνες όπως η Gal Gadot, Tayler Swift, Maisie Williams και η Daisy Ridley. Η πρακτική που ακολούθησε ο συγκεκριμένος χρήστης είναι η δημιουργία ενός προγράμματος στο οποίο γίνεται προσθήκη διαφόρων φωτογραφιών του καλλιτέχνη καθώς και μικρών βίντεο πορνό. Με τη μέθοδο της μηχανικής εκμάθησης και του αλγόριθμου, η εφαρμογή αντικαθιστά το πρόσωπο που εμφανίζεται στο βίντεο με αυτό των φωτογραφιών, με το τελικό αποτέλεσμα να εξαρτάται από πολλούς παράγοντες όπως την ποιότητα του βίντεο και των φωτογραφιών προκειμένου να δημιουργούνται ακόμα και διάφορες εκφράσεις. Ενδεικτικό της αποτελεσματικότητας του αλγόριθμου ανταλλαγής προσώπων που έχει αναπτύξει ο deepfake για κάποιον που γνωρίζει, είναι το παρακάτω βίντεο από την ταινία Star Wars: Rogue One στο οποίο εμφανίζεται στο πάνω μέρος η ηθοποιός Carrie Fisher σε CGI, και στο κάτω μέρος το αποτέλεσμα από τον αλγόριθμο. Αν και αρχικά τα αποτελέσματα δεν ήταν "ενθαρρυντικά" για τους περισσότερους, εντούτοις το τελευταίο διάστημα μερικές δημιουργίες μπορούν να θεωρηθούν αρκετά πειστικές κάτι που έχει εκτοξέυσει τη δημοτικότητα του καναλιού στο Reddit που έχει δημιουργήσει ο deepfake και το οποίο απαριθμεί πλέον περισσότερους από 30.000 συνδρομητές. Ένας άλλος χρήστης με το όνομα "deepfakeapp", δημιούργησε την εφαρμογή FakeApp, μια εύκολη στη χρήση εφαρμογή η οποία βασίζεται στον αλγόριθμο που έχει αναπτύξει ο deepfake, και που επιτρέπει σε οποιονδήποτε να δημιουργήσει τα δικά του βίντεο χωρίς να χρειάζεται να έχει γνώσεις προγραμματισμού. Αν και η πρώτη έκδοση στερείται δυνατοτήτων, ο δημιουργός της αναφέρει ότι στόχος του είναι μελλοντικά ο χρήστης να μπορεί να επιλέξει ένα βίντεο από τον υπολογιστή του, να συνδεθεί σε ένα νευρωνικό δίκτυο που σχετίζεται με ένα συγκεκριμένο πρόσωπο από μια δημόσια διαθέσιμη βιβλιοθήκη, και με το πάτημα ενός κουμπιού να πραγματοποιηθεί η αλλαγή προσώπων. Με τα περισσότερα μηνύματα στο r/deepfakes να έχουν σχέση με πορνό, κάποιοι άλλοι χρήστες χρησιμοποιούν την ίδια τεχνολογία προκειμένου να αλλάξουν το πρόσωπο σε ομιλίες πολιτικών όπως η παρακάτω δημιουργία του χρήστη Z3ROCOOL22 που συνδύασε βίντεο του Χίτλερ και του Αργεντινού Προέρδρου Mauricio Macri. Σύμφωνα με τον χρήστη, οποιοσδήποτε κατεβάσει και τρέξει την εφαρμογή FakeApp, μπορούν να δημιουργήσουν παρόμοια βίντεο με δύο υψηλής ποιότητας βίντεο στα οποία εμφανίζονται καθαρά τα πρόσωπα. Περισσότερες πληροφορίες για την τεχνολογία, είναι διαθέσιμες στο αναλυτικό άρθρο του Motherboard στον παρακάτω σύνδεσμο. Motherboard
-
Οι νομοθέτες πλέον, μετά από την εμφάνιση και τη διακίνηση των ψεύτικων εικόνων, αναγκάζονται πλέον να θεσπίσουν νέους νόμους που θα τιμωρούν αυστηρά τους δημιουργούς των εικόνων (ή και των βίντεο). Η διακίνηση του ψεύτικου υλικού τεχνητής νοημοσύνης πραγματοποιήθηκες στο Γυμνάσιο Issaquah στα περίχωρα του Seatle στην πολιτεία της Washington, στις Ηνωμένες Πολιτείες. Ένας μαθητής, αφού πρώτα προχώρησε σε λήψη φωτογραφιών των συμμαθητριών του, χρησιμοποίησε τεχνολογία Τεχνητής Νοημοσύνης για να τις «ξεγυμνώσει». Η ιστοσελίδα 404Media απέκτησε πρόσβαση στην Αστυνομική αναφορά και επιβεβαίωσε ότι ο μαθητής χρησιμοποίησε διαδικτυακές εφαρμογές (web-based apps) που έχουν αναπτυχθεί για να «ξεντύνουν» και να «ξεγυμνώνουν» άτομα με τη βοήθεια τεχνητής νοημοσύνης. Το αξιοσημείωτο είναι ότι στην έκθεση της αστυνομίας αναφέρεται ότι οι συγκεκριμένες διαδικτυακές εφαρμογές δεν χρειάζονται παρά μόνο μία εικόνα για να δημιουργήσουν τη ρεαλιστική εικόνα ενός γυμνού ατόμου. Επιπλέον, στην έκθεση επισημαίνεται ότι το σχολείο δεν ενημέρωσε αμέσως τις αρχές για τις εικόνες που κυκλοφορούσαν και ότι ειδοποιήθηκαν από τρεις γονείς ξεχωριστά. Επιπλέον, ένας αξιωματικός δήλωσε μεγάλη έκπληξη που το σχολείο δεν επικοινώνησε με την αστυνομία σχετικά με τις εικόνες, καθώς χαρακτηρίζονται ως ξεκάθαρη περίπτωση «σεξουαλικής κακοποίησης» και οι διευθυντές του σχολείου θα έπρεπε υποχρεωτικά να είχαν καταγγείλει το περιστατικό. Η αστυνομία πήγε την υπόθεση στον τοπικό εισαγγελέα με σκοπό να απαγγείλει κατηγορίες στον μαθητή που παραδέχτηκε ότι δημιούργησε τις εικόνες για «παρενόχληση στον κυβερνοχώρο». Ο εισαγγελέας παραδόξως αποφάσισε να μην απαγγείλει κατηγορίες στον μαθητή, κάτι που βεβαίως σχολιάστηκε ποικιλοτρόπως. Τώρα, οι νομοθέτες της πολιτείας της Washington συζητούν αν θα καταστήσουν ή όχι παράνομη την κοινοποίηση deep fake πορνογραφικών εικόνων. Το νομοσχέδιο προωθείται αυτές τις ημέρες στο νομοθετικό σώμα της Washington με διακομματική υποστήριξη και θα συστήσει ένα νέο ποινικό αδίκημα με την ονομασία «διακίνηση κατασκευασμένων προσωπικών εικόνων», το οποίο θα επιτρέψει στα θύματα των deep fake πορνογραφικών εικόνων να υποβάλλουν αγωγές κατά των δημιουργών τους.
-
Διαρκώς καταγράφονται ανησυχητικά περιστατικά χρήσης παραπλανητιού υλικού που έχει δημιουργηθεί από προγράμματα τεχνητής νοημοσύνης και τα πρόχειρα μέτρα που λαμβάνονται για την αντιμετώπιση του προβλήματος θεωρείται εξαιρετικά αμφίβολο αν θα προσφέρουν την όποια ουσιαστική βοήθεια. Την Πέμπτη, οι ομοσπονδιακές αρχές των ΗΠΑ έθεσαν στο στόχαστρό τους ρομποτικές κλήσεις που μιμούνται τις φωνές επωνύμων, όπως για παράδειγμα εκείνες που μιμούνταν τη φωνή του Αμερικανού προέδρου Τζο Μπάιντεν στο πλαίσιο των προκριματικών εκλογών στο Νιού Χάμσαϊρ, με τις οποίες υποτίθεται πως καλούσε τους ψηφοφόρους να μην προσέλθουν στις κάλπες. Την ίδια ώρα, η OpenAI και η Google προχώρησαν στη χρήση υδατογραφημάτων, προκειμένου να επισημαίνεται ότι χρησιμοποιήθηκε πρόγραμμα τεχνητής νοημοσύνης στη δημιουργία μιας εικόνας. Το ζήτημα είναι πως τέτοιου είδους μέτρα δεν διαθέτουν την απαραίτητη ισχύ ώστε να σταματήσουν τα λεγόμενα deepfake. "Ήρθαν για να μείνουν", δηλώνει ο Βίτζεϊ Μπαλασουμπραμανιγιάν, διευθύνων σύμβουλος της Pindrop, εταιρία ασφαλείας που εξακρίβωσε ότι το ElevenLabs ήταν η υπηρεσία που χρησιμοποιήθηκε για τη δημιουργία της πλαστής κλήσης με τη φωνή του προέδρου Μπάιντεν. "Οι τεχνολογίες εντοπισμού πλαστού υλικού πρέπει να υιοθετηθούν στην πηγή, στο σημείο εκπομπής, καθώς και στον προορισμό. Πολύ απλά, πρέπει να εφαρμόζονται σε όλη τη διαδρομή". Η απόφαση της Ομοσπονδιακής Επιτροπής Επικοινωνιών (FCC) να καταστήσει παράνομες αυτούς του είδους τις παραπλανητικές κλήσεις συνιστά βήμα προς τη σωστή κατεύθυνση, σύμφωνα με το Μπαλασουμπραμανιγιάν, όμως ελάχιστες είναι οι διευκρινίσεις που έχουν δοθεί σχετικά με το πώς θα επιβληθεί η εφαρμογή της απόφασης. Για την ώρα, το πλαστό υλικό εντοπίζεται αφού έχει γίνει ήδη η ζημιά, ενώ σπάνια επιβάλλονται κυρώσεις στους υπεύθυνους. Η όλη διαδικασία είναι αργή και δεν αντιμετωπίζει ουσιαστικά το υφιστάμενο πρόβλημα. Η OpenAI εισήγαγε τη χρήση υδατογραφημάτων στις εικόνες που δημιουργούνται με το Dall-E την εβδομάδα που μας πέρασε, τα οποία, εκτός από οπτικά, ενσωματώνονται και ψηφιακά στα δεδομένα της εικόνας. Ταυτόχρονα, όμως, η εταιρία αναγνώρισε πως αυτό το μέτρο παρακάμπτεται εύκολα με τη λήψη ενός screenshot. Ουσιαστικά, δεν πρόκειται για λύση, αλλά για μια ευκαιρία να ισχυριστεί η εταιρία πως έκανε ό,τι μπορούσε. Αντίστοιχα αναιμική ήταν και η αντίδραση της Χ όταν προ ημερών η πλατόφρμα κατακλύστηκε από πλαστά ερωτικά βίντεο της Τέιλορ Σουίφτ. Εντωμεταξύ, ένα πλαστό βίντεο που έλαβε υπάλληλος πολυεθνικής στο Χονγκ-Κονγκ, στο οποίο υποτίθεται ότι εμφανιζόταν ο προϊστάμενός του καθώς και αρκετοί συνάδελφοί του, οδήγησε στην απώλεια 25 εκατομμυρίων δολαρίων, σύμφωνα με ρεπορτάζ του CNN. Όλοι οι συνάδελφοι έμοιαζαν και ακούγονταν όπως τους ήξερε, όμως στην πορεία αποδείχτηκε ότι όλα τα πρόσωπα ήταν αλλοιωμένα με τη χρήση προγράμματος τεχνητής νοημοσύνης. Ο υπάλληλος εξαπατήθηκε και μετέφερε τα χρήματα σε άγνωστους απατεώνες. Οι λύσεις που έχουν προταθεί μέχρι στιγμής πολύ απλά δεν αρκούν. Το πρόβλημα είναι πως η τεχνολογία εντοπισμού του πλαστού υλικού είναι καινούργια και δεν καταφέρνει να ακολουθήσει τους ρυθμούς εξέλιξης των προγραμμάτων τεχνητής νοημοσύνης. Πλατφόρμες όπως η Meta, η X, αλλά ακόμη και οι πάροχοι τηλεφωνικών υπηρεσιών πρέπει να υιοθετήσουν μέτρα εντοπισμού του πλαστού υλικού, οπτικού και ηχητικού. Οι εταιρίες αυτές διαρκώς διαφημίζουν τις νέες δυνατότητες των προγραμμάτων δημιουργίας υλικού με τη χρήση τεχνητής νοημοσύνης που αναπτύσσουν, τι γίνεται όμως με τη δυνατότητα αναγνώρισης του πλαστού υλικού; Επί του παρόντος, οι εταιρίες που δραστηριοποιούνται εντατικά στο χώρο αυτό υποτίθεται πως κάτι προσπαθούν να κάνουν για να αντιμετωπίσουν το πρόβλημα, όμως πληθαίνουν οι φωνές που κάνουν λόγο για καθυστερημένες, ανεπαρκείς ή και προσχηματικές αντιδράσεις. Η τεχνολογία εντοπισμού του πλαστού υλικού χρειάζεται επίσης σημαντικές βελτιώσεις και πρέπει να καταστεί ευρέως διαθέσιμη. Επί του παρόντος, ο εντοπισμός του πλαστού υλικού δεν είναι 100% ακριβής για οποιαδήποτε κατηγορία, σύμφωνα με το διευθύνοντα σύμβουλο της Copyleaks, Αλόν Γιαμίν. Η εταιρία του διαθέτει ένα από τα καλύτερα εργαλεία εντοπισμού κειμένων που έχουν παραχθεί από προγράμματα τεχνητής νοημοσύνης, όμως ο εντοπισμός αντίστοιχου ηχητικού και οπτικού υλικού αποτελεί πολύ συνθετότερη πρόκληση. Ο εντοπισμός του πλαστού περιεχομένου σε οποιαδήποτε μορφή υστερεί αισθητά έναντι των αλμάτων που καταγράφει η τεχνητή νοημοσύνη και πρέπει να ενισχυθεί, άμεσα.
-
Η τεχνητή νοημοσύνη είναι το επόμενο μεγάλο στοίχημα στο χώρο της τεχνολογίας, με τα όρια να αναμένεται πολλές φορές να ξεπεραστούν. Μια τέτοια περίπτωση είναι αυτή που αναφέρει η ιστοσελίδα Motherboard, όπου μια μικρή ομάδα στο Reddit με επικεφαλής τον χρήστη "deepfakes" έχουν κάνει χόμπι τη δημιουργία πορνό βίντεο στο οποίο εμφανίζονται διάφοροι διάσημοι καλλιτέχνες όπως η Gal Gadot, Tayler Swift, Maisie Williams και η Daisy Ridley. Η πρακτική που ακολούθησε ο συγκεκριμένος χρήστης είναι η δημιουργία ενός προγράμματος στο οποίο γίνεται προσθήκη διαφόρων φωτογραφιών του καλλιτέχνη καθώς και μικρών βίντεο πορνό. Με τη μέθοδο της μηχανικής εκμάθησης και του αλγόριθμου, η εφαρμογή αντικαθιστά το πρόσωπο που εμφανίζεται στο βίντεο με αυτό των φωτογραφιών, με το τελικό αποτέλεσμα να εξαρτάται από πολλούς παράγοντες όπως την ποιότητα του βίντεο και των φωτογραφιών προκειμένου να δημιουργούνται ακόμα και διάφορες εκφράσεις. Ενδεικτικό της αποτελεσματικότητας του αλγόριθμου ανταλλαγής προσώπων που έχει αναπτύξει ο deepfake για κάποιον που γνωρίζει, είναι το παρακάτω βίντεο από την ταινία Star Wars: Rogue One στο οποίο εμφανίζεται στο πάνω μέρος η ηθοποιός Carrie Fisher σε CGI, και στο κάτω μέρος το αποτέλεσμα από τον αλγόριθμο. Αν και αρχικά τα αποτελέσματα δεν ήταν "ενθαρρυντικά" για τους περισσότερους, εντούτοις το τελευταίο διάστημα μερικές δημιουργίες μπορούν να θεωρηθούν αρκετά πειστικές κάτι που έχει εκτοξέυσει τη δημοτικότητα του καναλιού στο Reddit που έχει δημιουργήσει ο deepfake και το οποίο απαριθμεί πλέον περισσότερους από 30.000 συνδρομητές. Ένας άλλος χρήστης με το όνομα "deepfakeapp", δημιούργησε την εφαρμογή FakeApp, μια εύκολη στη χρήση εφαρμογή η οποία βασίζεται στον αλγόριθμο που έχει αναπτύξει ο deepfake, και που επιτρέπει σε οποιονδήποτε να δημιουργήσει τα δικά του βίντεο χωρίς να χρειάζεται να έχει γνώσεις προγραμματισμού. Αν και η πρώτη έκδοση στερείται δυνατοτήτων, ο δημιουργός της αναφέρει ότι στόχος του είναι μελλοντικά ο χρήστης να μπορεί να επιλέξει ένα βίντεο από τον υπολογιστή του, να συνδεθεί σε ένα νευρωνικό δίκτυο που σχετίζεται με ένα συγκεκριμένο πρόσωπο από μια δημόσια διαθέσιμη βιβλιοθήκη, και με το πάτημα ενός κουμπιού να πραγματοποιηθεί η αλλαγή προσώπων. Με τα περισσότερα μηνύματα στο r/deepfakes να έχουν σχέση με πορνό, κάποιοι άλλοι χρήστες χρησιμοποιούν την ίδια τεχνολογία προκειμένου να αλλάξουν το πρόσωπο σε ομιλίες πολιτικών όπως η παρακάτω δημιουργία του χρήστη Z3ROCOOL22 που συνδύασε βίντεο του Χίτλερ και του Αργεντινού Προέρδρου Mauricio Macri. Σύμφωνα με τον χρήστη, οποιοσδήποτε κατεβάσει και τρέξει την εφαρμογή FakeApp, μπορούν να δημιουργήσουν παρόμοια βίντεο με δύο υψηλής ποιότητας βίντεο στα οποία εμφανίζονται καθαρά τα πρόσωπα. Περισσότερες πληροφορίες για την τεχνολογία, είναι διαθέσιμες στο αναλυτικό άρθρο του Motherboard στον παρακάτω σύνδεσμο. Motherboard Δείτε ολόκληρο το άρθρο
-
Μπορεί ο Bruce Willis να έχει αποσυρθεί από την υποκριτική αφού διαγνώστηκε με αφασία, αλλά μια εκδοχή του θα συνεχίσει να υπάρχει σε μελλοντικά έργα. Πέρυσι, ο "ψηφιακός δίδυμος" του ηθοποιού εμφανίστηκε σε διαφήμιση ρωσικού τηλεπικοινωνιακού παρόχου, και ο οποίος δημιουργήθηκε από μια εταιρεία με την ονομασία Deepcake. Σημερινά δημοσιεύματα αναφέρουν ότι ο Willis πούλησε τα δικαιώματά του για μελλοντικά κινηματογραφικά, διαφημιστικά και άλλα έργα στην Deepcake, σύμφωνα με την ιστοσελίδα της εταιρείας και την Telegraph. Οι μηχανικοί δημιούργησαν τον ψηφιακό σωσία του ηθοποιού αντλώντας από το περιεχόμενο των ταινιών Die Hard και Fifth Element, όταν ο Willis ήταν 32 και 42 ετών αντίστοιχα. Με το ομοίωμά του τώρα στην πλατφόρμα τεχνητής νοημοσύνης της εταιρείας, αυτή μπορεί να «τοποθετήσει» το ομοίωμά του στο πρόσωπο ενός άλλου ηθοποιού σε σχετικά σύντομο χρονικό διάστημα. Ωστόσο, την τελική έγκριση για την κυκλοφορία κάθε project έχει η οικογένεια του ηθοποιού. Στη διαφήμιση για τη Megafon, το πρόσωπο του Konstantin Solovyov αντικαταστάθηκε με το πρόσωπο του ηθοποιού Willis. «Μου άρεσε η ακρίβεια του χαρακτήρα μου. Είναι μια μεγάλη ευκαιρία για μένα να γυρίσω πίσω στο χρόνο», δήλωσε ο Γουίλις σε δήλωσή του στο Deepcake. «Με την έλευση της σύγχρονης τεχνολογίας, μπορούσα να επικοινωνώ, να εργάζομαι και να συμμετέχω στα γυρίσματα, ακόμη και αν βρισκόμουν σε άλλη ήπειρο. Είναι μια ολοκαίνουργια και ενδιαφέρουσα εμπειρία για μένα και είμαι ευγνώμων στην ομάδα μας». Τον Μάρτιο, η οικογένεια του Bruce Willis ανακοίνωσε ότι αποσύρεται από την υποκριτική επειδή διαγνώστηκε με αφασία, η οποία επηρεάζει την επικοινωνία και την κατανόηση. Τα τελευταία χρόνια, ο 67χρονος εμφανίστηκε σε μια σειρά από έργα εν μέσω ανησυχίας για τη γνωστική του κατάσταση. Άλλοι ηθοποιοί έχουν ήδη εμφανιστεί ως ψηφιακές εκδοχές του εαυτού τους, κυρίως στο The Book of Boba Fett με έναν νεαρό Mark Hamill. Ψηφιακές εκδοχές της Carrie Fisher και του Peter Cushing εμφανίστηκαν επίσης στο Star Wars: Rogue One, παρά το γεγονός ότι και οι δύο έχουν αποβιώσει. Ο James Earl Jones πούλησε πρόσφατα στη Disney το δικαίωμα να αναδημιουργήσει τη φωνή του Dart Vader με τη βοήθεια της τεχνητής νοημοσύνης, ώστε να μπορέσει επιτέλους να αποσυρθεί. Η πρακτική αυτή προκάλεσε αντιδράσεις. Οι απομιμήσεις ποικίλλουν σε μεγάλο βαθμό ως προς την ποιότητα, αλλά πολλές είναι τουλάχιστον περίεργες αφού δεν είναι λίγες οι φορές που οι χαρακτήρες δεν φαίνονται απόλυτα σωστοί λόγω άκαμπτων κινήσεων, μη ρεαλιστικών ματιών και άλλων προβλημάτων. Υπάρχει επίσης το ζήτημα των δικαιωμάτων, καθώς οι αποθανόντες ηθοποιοί δεν μπορούν να απορρίψουν μεταθανάτιους κινηματογραφικούς ρόλους, ακόμη και αν η οικογένεια ή άλλοι κληρονόμοι το εγκρίνουν. Ενημέρωση 2/10 08:12 - Σύμφωνα με το BBC, ο ατζέντης του Bruce Willis διέψευσε το δημοσίευμα της Telegraph και άλλων μέσων σύμφωνα με τα οποία ο κινηματογραφικός αστέρας πούλησε τα δικαιώματα του προσώπου του. Αυτή την εβδομάδα αναφέρθηκε ευρέως ότι ο Willis, στην πρώτη συμφωνία του είδους, είχε πουλήσει το πρόσωπό του σε μια εταιρεία deepfake με την ονομασία Deepcake. Ωστόσο, εκπρόσωπος του ηθοποιού δήλωσε στο BBC ότι δεν είχε "καμία συνεργασία ή συμφωνία" με την εταιρεία ενώ και ένας εκπρόσωπος της Deepcake δήλωσε ότι μόνο ο Willis είχε τα δικαιώματα του προσώπου του. Τα Deepfakes χρησιμοποιούν τεχνολογία τεχνητής νοημοσύνης (AI) και μηχανικής μάθησης για να δημιουργήσουν ρεαλιστικά βίντεο - συχνά διασημοτήτων ή πολιτικών. Για τους ηθοποιούς που δεν μπορούν πλέον να παίξουν, η τεχνολογία έχει τη δυνατότητα να αλλάξει το παιχνίδι. Σε δήλωση της η Deepcake, δήλωσε ότι οι αναφορές ότι είχε αγοράσει τα δικαιώματα του προσώπου του Bruce Willis ήταν ανακριβείς. «Η διατύπωση σχετικά με τα δικαιώματα είναι λανθασμένη... Ο Bruce δεν θα μπορούσε να πουλήσει σε κανέναν δικαιώματα, είναι δικά του εξ ορισμού», δήλωσε εκπρόσωπος της εταιρείας. Η σύγχυση αναδεικνύει πόσο νέα είναι αυτή η τεχνολογία - και την έλλειψη σαφών κανόνων γύρω από αυτήν. «Ο Bruce Willis έγινε ο πρώτος σταρ του Χόλιγουντ που πούλησε τα δικαιώματά του για να επιτρέψει τη δημιουργία ενός "ψηφιακού διδύμου" του εαυτού του για χρήση στην οθόνη», ανέφερε η Telegraph. Διαβάστε ολόκληρο το άρθρο