alion Δημοσ. 29 Ιουνίου 2023 Δημοσ. 29 Ιουνίου 2023 Μια νέα μελέτη διαπίστωσε ότι οι άνθρωποι είναι πιο πιθανό να εμπιστευτούν τα tweets που έχουν γραφτεί από γλωσσικά μοντέλα AI παρά από ανθρώπους, ανεξάρτητα από το πόσο ακριβή είναι. Η μελέτη, που δημοσιεύθηκε στο Science Advances, συνέκρινε tweets που γράφτηκαν από πραγματικούς χρήστες του Twitter και από το μοντέλο GPT-3 της OpenAI για διάφορα επιστημονικά θέματα, όπως τα εμβόλια και η κλιματική αλλαγή. Οι ερευνητές έκαναν έρευνα σε 697 άτομα στο διαδίκτυο και τους ζήτησαν να κρίνουν αν κάθε tweet είχε γραφτεί από άνθρωπο ή από το GPT-3 και αν περιείχε αληθινές ή ψευδείς πληροφορίες. Τα αποτελέσματα έδειξαν ότι οι άνθρωποι δυσκολεύονταν να διακρίνουν τη διαφορά μεταξύ των tweets που δημιουργούσε ο άνθρωπος και της τεχνητής νοημοσύνης και ότι εξαπατούνταν πιο εύκολα από ψευδείς πληροφορίες αν αυτές είχαν γραφτεί από το GPT-3. Αντίθετα, ήταν επίσης πιο πιθανό να αναγνωρίσουν αληθινές πληροφορίες εάν είχαν γραφτεί από το GPT-3. Η μελέτη υποδηλώνει ότι τα γλωσσικά μοντέλα ΤΝ μπορούν να αποτελέσουν πολύ ισχυρά εργαλεία είτε για την ενημέρωση είτε για την παραπλάνηση του κοινού, ανάλογα με τον τρόπο χρήσης τους. Οι συγγραφείς προειδοποιούν ότι αυτές οι τεχνολογίες θα μπορούσαν να αποτελέσουν όπλο για τη διάδοση της παραπληροφόρησης σε οποιοδήποτε θέμα της επιλογής τους, ειδικά από τη στιγμή που γίνονται όλο και πιο προηγμένες και προσιτές. Για παράδειγμα, το ChatGPT είναι μια εφαρμογή που επιτρέπει στους χρήστες να γράφουν tweets με τη βοήθεια των μοντέλων GPT-3.5 ή GPT-4. Ωστόσο, η μελέτη προσφέρει επίσης ορισμένους τρόπους για την πρόληψη ή την αντιμετώπιση αυτής της απειλής. Ένας από αυτούς είναι η βελτίωση των συνόλων δεδομένων εκπαίδευσης που χρησιμοποιούνται για την ανάπτυξη γλωσσικών μοντέλων, ώστε να περιέχουν πιο ακριβείς και αξιόπιστες πληροφορίες. Ένας άλλος είναι η ενθάρρυνση των δεξιοτήτων κριτικής σκέψης μεταξύ των ανθρώπων, ώστε να μπορούν να διακρίνουν καλύτερα μεταξύ γεγονότων και μυθοπλασίας. Μια τρίτη είναι η χρήση γλωσσικών μοντέλων σε συνδυασμό με ανθρώπινους “ελεγκτές γεγονότων” για τη βελτίωση των νόμιμων εκστρατειών ενημέρωσης του κοινού. Ο επικεφαλής συγγραφέας της μελέτης, Giovanni Spitale, δηλώνει ότι είναι μεγάλος οπαδός των γλωσσικών μοντέλων τεχνητής νοημοσύνης και ότι έχουν τη δυνατότητα να αλλάξουν τον κόσμο προς το καλύτερο. Λέει ότι εναπόκειται σε εμάς να αποφασίσουμε πώς θα τα χρησιμοποιήσουμε και τι είδους σκοπιμότητα θα ενισχύσουμε με αυτά. Διαβάστε ολόκληρο το άρθρο
TheGrisGrisMan Δημοσ. 1 Ιουλίου 2023 Δημοσ. 1 Ιουλίου 2023 (επεξεργασμένο) …λέτε τώρα με το Artificial, να δούμε και τιποτα Intelligent σχόλια στο Insomnia?!? Spoiler ok, τρολάρω, δεν μπόρεσα να αντισταθω, μια χαρά ειναι τα σχόλια, ποπκορνάτα Επεξ/σία 1 Ιουλίου 2023 από TheGrisGrisMan
john_dr Δημοσ. 1 Ιουλίου 2023 Δημοσ. 1 Ιουλίου 2023 Μερικά σχόλια που γίνονται online στερούνται λογικής, οπότε λογικό να καταλάβεις ότι είναι κάποιος ανεγκέφαλος χιμπατζής. Από την άλλη η AI μάλλον είναι προγραμματισμένη ώστε να μην κάνει το λάθος να σχολιάζει ως ανεγκέφαλος χιμπατζής, αλλά να δημιουργεί αληθοφανή επιχειρήματα. Οπότε λογικό να πείθει πιο εύκολα. 1
DrFreeman Δημοσ. 1 Ιουλίου 2023 Δημοσ. 1 Ιουλίου 2023 Δεν καταλαβαίνω γιατί είναι τόσο περίεργο αυτό το συμπέρασμα, ώστε να χρήζει αυτοτελούς άρθρου που να το καλύπτει. Η πλειονότητα των ανθρώπινων σχολίων είναι ούτως ή άλλως χαμηλού επιπέδου, είτε λόγω άγνοιας (σύνηθες), είτε για λόγους κακής προαίρεσης (λιγότερο σύνηθες). 2
alexpap Δημοσ. 1 Ιουλίου 2023 Δημοσ. 1 Ιουλίου 2023 (επεξεργασμένο) 38 λεπτά πριν, TheGrisGrisMan είπε …λέτε τώρα με το Artificial, να δούμε και τιποτα Intelligent σχόλια στο Insomnia?!? Απόκρυψη περιεχομένων ok, τρολάρω, δεν μπόρεσα να αντισταθω, μια χαρά ειναι τα σχόλια, ποπκορνάτα Η φυσική μου νοημοσύνη θέλει εμπλουτισμό για κάτι τέτοιο. ArtiOfficial Intelligence, ArtiFactial Intelligence, ArtiFishial Intelligence είναι κάτι που περιμένω να δω. Σημείωση: Απορώ με αυτά που γράφω αν με καταλαβαίνει άνθρωπος. Επεξ/σία 1 Ιουλίου 2023 από alexpap
klaftop Δημοσ. 1 Ιουλίου 2023 Δημοσ. 1 Ιουλίου 2023 χμμ δε το ειχα σκεφτει. βασικα το κακο ειναι οτι γραφοντας γρηγορα απο το κινητο ή στη φαση που χαλαρωνεις σερφαροντας δε μπορεις να συγκεντρωνεσαι στο 100% , οποτε θα κανεις λαθη, θα πεις καμια βλακεια, θα γραψεις κατι που ηταν βιαστικο και επιπολαιο, Δεν ειναι κακο να το φιλτραρει λιγο ΑΙ
nepomuk Δημοσ. 1 Ιουλίου 2023 Δημοσ. 1 Ιουλίου 2023 Και που'σαι ακομα .. πριν το τελος της δεκαετιας ειδηση θα αποτελει οταν ανθρωπος γραφει , συνθετει , σχεδιαζει , αναλυει , λογαριαζει , προβλεπει κτλπ καλυτερα απο την Α.Ι . 1
Evangelos Anagnostou Δημοσ. 2 Ιουλίου 2023 Δημοσ. 2 Ιουλίου 2023 - Απόδειξε ότι δεν είσαι ρομπότ. - Ουγκ, ουγκ μωνω σπαρτιαταις - Ευχαριστώ, μπορείτε να μπείτε στο σάιτ. 1
Diavolos666 Δημοσ. 2 Ιουλίου 2023 Δημοσ. 2 Ιουλίου 2023 (επεξεργασμένο) Quote σε συνδυασμό με ανθρώπινους “ελεγκτές γεγονότων” υπουργούς αλήθειας Το διόρθωσα. Πάντως πέρα από την πλάκα αν κάποιος διαβάζει κάτι στο twitter και απλά το πιστεύει τότε δεν μας φταίει το chatgpt. Και επίσης είναι λογικό το ΑΙ να γράφει καλύτερα από ανθρώπους αφού εκπαιδεύεται σε μοντέλα που εμείς επιλέγουμε. Είναι σαν να λέμε ότι βάλαμε ένα online λεξικό και 1000 ανθρώπους να γράψουν λέξεις και το λεξικό δεν έκανε ούτε ένα λάθος ενώ οι άνθρωποι έκαναν! Στο επόμενο άρθρο: ο υπολογιστής μπορεί να κάνει εκατομμύριες πράξεις με τεράστια ακρίβεια που ένας άνθρωπος θα ήθελε μία ζωή για να τις κάνει με το μυαλό στο χαρτί. Επεξ/σία 2 Ιουλίου 2023 από Diavolos666
vs_skg Δημοσ. 2 Ιουλίου 2023 Δημοσ. 2 Ιουλίου 2023 Διάβασα το paper και έχω να πω ότι κλασικά ήταν ένα μάτσο π@@@ες με clickbait τίτλο. Skip, thank you next.
freegr Δημοσ. 2 Ιουλίου 2023 Δημοσ. 2 Ιουλίου 2023 Μάλλον θα το χρησιμοποιήσουν όσοι σκέφτονται το κέρδος αλλά μην ξεχνάμε ότι άλλο το πειστικό κείμενο κι άλλο αυτό που είναι πραγματικό.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα