Ο βιβλιοθηκονόμος Άντριου Γκρέι πραγματοποίησε μια "πολύ απρόσμενη" όπως τη χαρακτηρίζει ο ίδιος, ανακάλυψη. Ανέλυσε πέντε εκατομμύρια επιστημονικές μελέτες οι οποίες δημοσιεύτηκαν μέσα στο 2023 και διαπίστωσε μια ξαφνική αύξηση στη χρήση συγκεκριμένων λέξεων, όπως "σχολαστικά" (άνοδος 137%), "πολυσύνθετα" (117%), "αξιέπαινος" (83%) και "σχολιαστικός" (59%). Ο ίδιος, θεωρεί πως μόνο μία ερμηνεία υπάρχει για αυτή την άνοδο: δεκάδες χιλιάδες ερευνητές χρησιμοποιούν το ChatGPT -ή άλλα αντίστοιχα Μεγάλα Γλωσσικά Μοντέλα τεχνητής νοημοσύνης- προκειμένου να γράψουν τα κείμενά τους ή τουλάχιστον να τα "χτενίσουν".
Yπάρχουν, μεταξύ άλλων, και περιπτώσεις που είναι καταφανές το τι έχει συμβεί. Ομάδα Κινέζων επιστημόνων δημοσίευσε στις 17 Φεβρουαρίου μελέτη σχετικά με τις μπαταρίες λιθίου. Η μελέτη -η οποία δημοσιεύτηκε σε εξειδικευμένο περιοδικό- ξεκινά ως εξής: "Βεβαίως, ορίστε μια πιθανή εισαγωγή για το θέμα σας: Οι μπαταρίες λιθίου συνιστούν πολλά υποσχόμενους υποψηφίους για..." Οι συγγραφείς προφανώς ζήτησαν από το ChatGPT μια εισαγωγή και κατά λάθος την αντέγραψαν κατά λέξη, μαζί με την εισαγωγική φράση που χρησιμοποιεί το μοντέλο τεχνητής νοημοσύνης για να παρουσιάσει τα αποτελέσματά του. Σε άλλο άρθρο, δημοσιευμένο από Ισραηλινούς ερευνητές στις 8 Μαρτίου, διαβάζει κανείς τα εξής: "Συμπερασματικά, η διαχείριση διμερών ιατρογενών Λυπάμαι πολύ, όμως δεν έχω πρόσβαση σε πληροφορίες πραγματικού χρόνου ή συγκεκριμένα δεδομένα ασθενών, καθώς είμαι ένα γλωσσικό μοντέλο τεχνητής νοημοσύνης". Λίγους μήνες νωρίτερα, τρεις Κινέζοι επιστήμονες δημοσίευσαν ένα απίθανο σκίτσο ποντικού με κάτι που παραπέμπει σε γιγάντιο πέος, εικόνα την οποία δημιούργησε κάποιο μοντέλο τεχνητής νοημοσύνης, για μελέτη με θέμα τα πρόδρομα σπερματικά κύτταρα.
Ο Άντριου Γκρέι εκτιμά ότι τουλάχιστον 60.000 επιστημονικές έρευνες (ποσοστό άνω του 1% εκείνων που αναλύθηκαν το 2023) συντάχθηκαν με τη βοήθεια του ChatGPT -εργαλείου που κυκλοφόρησε στα τέλη του 2022- ή κάτι αντίστοιχου. Ο ίδιος θεωρεί πως οι περιπτώσεις όπου η τεχνητή νοημοσύνη αναλαμβάνει τη σύνταξη ολόκληρου του κειμένου είναι σπάνιες, και στις περισσότερες περιπτώσεις χρησιμοποιείται θεμιτά, προκειμένου να "χτενίσει" το κείμενο, να αναζητήσουν τυπογραφικά λάθη και να διευκολύνουν τη μετάφραση στα Αγγλικά, όμως υπάρχει και μια μεγάλη γκρίζα ζώνη, όπου ορισμένοι επιστήμονες επαφίενται στο ChatGPT, χωρίς να διασταυρώνουν τα αποτελέσματα. Το πρόβλημα είναι πως, επί του παρόντος, τα επιστημονικά περιοδικά δεν υποχρεώνουν τους συγγραφείς μιας δημοσίευσης να δηλώσουν κατά πόσο χρησιμοποίησαν το ChatGPT, επομένως η διαφάνεια του όλου συστήματος πάσχει.
Τα μοντέλα τεχνητής νοημοσύνης καταφεύγουν σε ορισμένες λέξεις υπερβολικά, όπως κατέδειξε ομάδα με επικεφαλής τον Τζέιμς Ζου, στο Πανεπιστήμιο του Στάνφορντ. Οι λέξεις αυτές τείνουν να είναι όροι με θετικούς συνειρμούς, όπως αξιέπαινος, διεξοδικός, πολυσύνθετος, καινοτόμος και ευέλικτος. Ο Ζου και οι συνάδελφοί του ήδη από το Μάρτιο προειδοποιούσαν ότι ακόμη και αξιολογητές επιστημονικών μελετών κατέφευγαν σε αυτά τα προγράμματα προκειμένου να συντάξουν τις αξιολογήσεις τους, πριν τη δημοσίευση των ερευνών. Η ομάδα του Πανεπιστημίου του Στάνφορντ ανέλυσε τις αξιολογήσεις μελετών που παρουσιάστηκαν σε δύο διεθνή συνέδρια τεχνητής νοημοσύνης και διαπίστωσαν ότι η πιθανότητα εμφάνισης της λέξης διεξοδικός είχε αυξηθεί 35 φορές.
Η ομάδα του Ζου, αντίθετα, δεν εντόπισε σημαντικά ίχνη του ChatGPT στις διορθώσεις που πραγματοποιήθηκαν από έγκυρες περιοδικές εκδόσεις του ομίλου Nature. Η χρήση του ChatGPT συνδεόταν με αξιολογήσεις χαμηλότερου επιπέδου. "Το θεωρώ πραγματικά ανησυχητικό", εξηγεί ο Γκρέι. "Εφόσον ξέρουμε ότι η χρήση αυτών των εργαλείων για τη σύνταξη αξιολογήσεων παράγει αποτελέσματα χαμηλότερης ποιότητας, οφείλουμε να αναλογιστούμε τι σημαίνει η χρήση τους για τι σύνταξη ερευνών". Ένα χρόνο μετά την κυκλοφορία του ChatGPT, ένας στους τρεις επιστήμονες αναγνώριζε ότι είχαν χρησιμοποιήσει το εργαλείο αυτό προκειμένου να γράψουν τις έρευνές τους, σύμφωνα με έρευνα του περιοδικού Nature.
Ελάχιστες έρευνες δηλώνουν ρητά αν έχουν προσφύγει σε μοντέλο τεχνητής νοημοσύνης. Ο Γκρέι προειδοποιεί για τον κίνδυνο ενός "φαύλου κύκλου", όπου οι επόμενες εκδόσεις του ChatGPT εκπαιδεύονται με τη χρήση επιστημονικών άρθρων γραμμένων από προηγούμενες εκδόσεις, με αποτέλεσμα τον πολλαπλασιασμό των αξιέπαινων, διεξοδικών, ενδελεχών και, πάνω από όλα, επιστημονικά αβάσιμων ερευνών.
Μια άλλη αγαπημένη λέξη της τεχνητής νοημοσύνης είναι "εμβαθύνω". Ο ερευνητής Τζέρεμι Ενγκουγιέν, του Πολυτεχνείου του Σουίνμπερν στην Αυστραλία υπολόγισε ότι η "εμβάθυνση" εμφανίζεται σε ποσοστό άνω του 0,5% των ιατρικών ερευνών, ενώ πριν το ChatGPT περιοριζόταν σε ποσοστό κάτω του 0,04%. Ξαφνικά, χιλιάδες ερευνητές εμβαθύνουν.
Ο Άντριου Γκρέι προειδοποιεί για τον κίνδυνο να "μολυνθεί" η ευρύτερη κοινωνία από αυτή τη διεξοδική τεχνητή νέα γλώσσα. Ο ίδιος ο Ενγκουγιέν παραδέχεται ότι συμβαίνει και στον ίδιο: "Συλλαμβάνω τον εαυτό μου το τελευταίο διάστημα να χρησιμοποιώ το 'εμβαθύνω' όταν μιλάω...μάλλον επειδή περνάω τόσο πολύ χρόνο με το GhatGPT". Στις 8 Απριλίου, ο επίσημος λογαριασμός του ChatGPT στο Χ σχολίασε σχετικά: "Απλά, λατρεύω να εμβαθύνω, τι να κάνουμε;"
- 7
- 1
- 1
ΣΧΟΛΙΑ (38)
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώραΔημοσίευση ως Επισκέπτης
· Αποσύνδεση