nchatz Δημοσ. 6 Δεκεμβρίου 2024 Δημοσ. 6 Δεκεμβρίου 2024 Το ChatGPT της OpenAI αντιμετωπίζει σοβαρά προβλήματα ακρίβειας στην αναζήτηση ειδήσεων, σύμφωνα με νέα έρευνα του Πανεπιστημίου Columbia. Σύμφωνα με πρόσφατη έρευνα του Κέντρου Ψηφιακής Δημοσιογραφίας Tow του Πανεπιστημίου Columbia, η νέα λειτουργία αναζήτησης του ChatGPT, που παρουσιάστηκε τον Οκτώβριο από την OpenAI, εμφανίζει σημαντικές αδυναμίες στην ακρίβεια και την αξιοπιστία των πηγών ειδησεογραφικού περιεχομένου. Η έρευνα, που εξέτασε 200 αποσπάσματα από 20 διαφορετικά μέσα ενημέρωσης, αποκάλυψε ότι το ChatGPT συχνά αποδίδει λανθασμένα πηγές ή δημιουργεί ανύπαρκτες. Το πρόβλημα εμφανίζεται ανεξάρτητα από το αν τα μέσα ενημέρωσης έχουν συνάψει επίσημες συμφωνίες αδειοδότησης με την OpenAI ή αν μπλοκάρουν την πρόσβαση των web crawlers της εταιρείας. Ακόμη και συνεργάτες της OpenAI, όπως η Wall Street Journal, το The Atlantic και οι εκδόσεις Axel Springer και Meredith, δεν εμφανίζουν σταθερή απόδοση στην ακρίβεια των αναφορών. Χαρακτηριστικό παράδειγμα αποτελεί το Politico, που ανήκει στον όμιλο Axel Springer, όπου το ChatGPT συχνά απέδιδε λανθασμένα τις πηγές των δηλώσεων. Το πρόβλημα, σύμφωνα με την έρευνα, έγκειται στον τρόπο με τον οποίο το ChatGPT επεξεργάζεται τις πληροφορίες. Παρόλο που οι web crawlers μπορεί να λειτουργούν σωστά, το υποκείμενο μοντέλο τεχνητής νοημοσύνης εξακολουθεί να κάνει λάθη και να "ψευδαισθάνεται", ακόμη και με αδειοδοτημένο περιεχόμενο. Ιδιαίτερα ανησυχητικό είναι το γεγονός ότι όταν ένα μέσο ενημέρωσης μπλοκάρει την πρόσβαση μέσω αρχείων robots.txt, όπως οι New York Times, το ChatGPT αντί να παραδεχτεί την έλλειψη πρόσβασης, καταφεύγει στη δημιουργία φανταστικών πηγών. Η έρευνα διαπίστωσε ότι πάνω από το ένα τρίτο των απαντήσεων εμπίπτουν σε αυτή την κατηγορία. Οι επιπτώσεις αυτής της κατάστασης είναι σημαντικές τόσο για τη δημοσιογραφία όσο και για την αξιοπιστία των εργαλείων τεχνητής νοημοσύνης. Η OpenAI στοχεύει να καταστήσει το ChatGPT την προτιμώμενη πηγή για γρήγορες και αξιόπιστες απαντήσεις, αλλά η αδυναμία ακριβούς παράθεσης πηγών υπονομεύει την εμπιστοσύνη τόσο στην τεχνητή νοημοσύνη όσο και στη δημοσιογραφία που επιχειρεί να συνοψίσει. Διαβάστε ολόκληρο το άρθρο
lbit Δημοσ. 7 Δεκεμβρίου 2024 Δημοσ. 7 Δεκεμβρίου 2024 (επεξεργασμένο) Δεν ειναι συνταρακτικό το νέο. Θεωρώ, οτι όσοι εχουν ασχοληθει με το αντικειμενο το εχουν παρατηρήσει αρκετες φορές οτι δίνει λανθασμένες πληροφορίες. Ειδικότερα, όσοι ασχολούνται με την εκπαίδευση το ξερουν. Προσωπικά το χρησιμοποιώ καθημερινά και ομολογώ οτι διπλο-τριπλο τσεκάρω τις πηγές μου. Αλλά, πάντοτε κερδίζω χρόνο στο τέλος. Συμπέρασμα, το ChatGPT χειροτερεύει τους άσχετους και καλυτερεύει τους σχετικούς. Επεξ/σία 7 Δεκεμβρίου 2024 από lbit 7
Marcos_Aurilius Δημοσ. 7 Δεκεμβρίου 2024 Δημοσ. 7 Δεκεμβρίου 2024 Για πολλοστή φορά. Αυτά τα μοντέλα "τεχνητής νοημοσύνης" δεν έχουν καμία νοημοσύνη. Δεν καταλαβαίνουν τι διαβάζουν. Απλά το μετατρέπουν σε αριθμούς και δημιουργούν τεράστιους πίνακες πιθανοτήτων συσχέτισης μεταξύ λέξεων και φράσεων, βάσει των κειμένων στα οποία εκπαιδεύτηκαν. Αν υπάρχουν και λάθη, θα εκπαιδευτούν και σ'αυτά. Αν υπάρχουν ανακρίβειες, θα εκπαιδευτούν και σ'αυτές. Αν υπάρχει μίσος/φασισμός/ρατσισμός στα κείμενα, θα εκπαιδευτούν και σ'αυτά. Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις - γι'αυτό και δεν δίνουν δυο φορές την ίδια απάντηση. Δεν είναι γνώση - είναι συρραφή κειμένων με σκοπό να παράξουν ένα αληθοφανές και στατιστικά πιθανότατο αποτέλεσμα. 10 4 1
Evangelos Anagnostou Δημοσ. 7 Δεκεμβρίου 2024 Δημοσ. 7 Δεκεμβρίου 2024 Δεν είναι πανάκεια τα llms. Βελτιώνονται συνεχώς όμως. Αυτη την στιγμή είναι ένα εργαλείο συμπληρωματικό των παραδοσιακών εργαλείων αναζήτησης. Εχει χρησιμότητα, παίρνει μερίδιο, αλλά δεν μπορεί να τις αντικαταστήσει. Ακομα και αν δουλέψει 100% πάντως πάλι δεν πρέπει να το εμπιστεύεται κανείς απόλυτα. Τα μοντέλα αυτά ανήκουν σε εταιρίες που έχουν πρωταρχικό σκοπό το δικό τους κέρδος και όχι το καλό του χρήστη.
lbit Δημοσ. 7 Δεκεμβρίου 2024 Δημοσ. 7 Δεκεμβρίου 2024 25 λεπτά πριν, Marcos_Aurilius είπε Για πολλοστή φορά. Αυτά τα μοντέλα "τεχνητής νοημοσύνης" δεν έχουν καμία νοημοσύνη. Δεν καταλαβαίνουν τι διαβάζουν. Απλά το μετατρέπουν σε αριθμούς και δημιουργούν τεράστιους πίνακες πιθανοτήτων συσχέτισης μεταξύ λέξεων και φράσεων, βάσει των κειμένων στα οποία εκπαιδεύτηκαν. Αν υπάρχουν και λάθη, θα εκπαιδευτούν και σ'αυτά. Αν υπάρχουν ανακρίβειες, θα εκπαιδευτούν και σ'αυτές. Αν υπάρχει μίσος/φασισμός/ρατσισμός στα κείμενα, θα εκπαιδευτούν και σ'αυτά. Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις - γι'αυτό και δεν δίνουν δυο φορές την ίδια απάντηση. Δεν είναι γνώση - είναι συρραφή κειμένων με σκοπό να παράξουν ένα αληθοφανές και στατιστικά πιθανότατο αποτέλεσμα. Φίλτατε, αυτα που ανέφερες δεν απέχουν και πολύ απο τις ενέργειες απο εναν μέσο άνθρωπο. Σου προτείνω να διαβάσεις "Κβαντική υπεροχή" του Κακου Μιτσιο. (δεν ειναι επιστημονικό βιβλίο, απλά μια επιφανειακή αναδρομή στην Τ.Ν. και κβαντική μηχανική). 1
Marcos_Aurilius Δημοσ. 7 Δεκεμβρίου 2024 Δημοσ. 7 Δεκεμβρίου 2024 46 minutes ago, lbit said: Φίλτατε, αυτα που ανέφερες δεν απέχουν και πολύ απο τις ενέργειες απο εναν μέσο άνθρωπο. Λάθος. Ο ανθρωπος καταλαβαίνει τι διαβάζει, έχει συνείδηση του περιεχομένου ενός κειμένου και του αν πρέπει να το λάβει υπόψην του κατά την κατανόηση ή την απάντηση. Εκτός κι αν το εννοείς μακροσκοπικά, στην διάρκεια της ζωής του - που από μικρός εκπαιδεύεται σε κείμενα. Χώρια που ο άνθρωπος καταλαβαίνει πολύ περισσότερα, τα οποία για ένα γλωσσικό μοντέλο είναι (ακόμα?) σχεδόν απλησίαστα - όπως ειρωνεία, υπονοούμενα, συμβολισμούς και πολλά άλλα. Θα το κοιτάξω το βιβλίο. Πάντως δεν μιλάω ως άσχετος - πέρσι παρουσίασα το master μου πάνω ακριβώς στα γλωσσικά μοντέλα (και πιο συγκεκριμένα στα NLI και την χρήση τους για sentiment analysis). 3 1
Evangelos Anagnostou Δημοσ. 7 Δεκεμβρίου 2024 Δημοσ. 7 Δεκεμβρίου 2024 (επεξεργασμένο) Η λειτουργία του ανθρωπινου εγκεφάλου ειναι συμφωνα με τις ως τωρα ενδειξεις υπολογιστικη. Το αν ενα llm είναι κοντύτερα σε μια αριθμομηχανη ή στον ανθρωπινο εγκέφαλο μένει να αποδειχθει. Σε καμια περιπτωση πάντως τα τωρινα μοντέλα δεν έχουν συνείδηση, αίσθηση του εγω κτλ. αυτά απαιτούν άλλες αρχιτεκτονικές που δεν γνωρίζουμε πόσο μακρια είμαστε ακόμα. Οταν δίνετε ένα ινπουτ σε ενα llm, δείτε το αποτέλεσμα ως μια στιγμιαία σπίθα νοητικών λειτουργιών, ο ανθρωπινος εγκέφαλος από την γεννηση του μεχρι τον θένατο είναι μια αυτοτροφοδοτούμενη φωτιά νοητικών λειτουργιών. Υπάρχει απόσταση. Επεξ/σία 7 Δεκεμβρίου 2024 από Evangelos Anagnostou
dieksodo Δημοσ. 8 Δεκεμβρίου 2024 Δημοσ. 8 Δεκεμβρίου 2024 εδω τις προαλλες εβγαζε οτι οι founding fathers ηταν γυναικες μαυροι και ινδιανοι....! εβγαζε οτι υπηρχαν και μαυροι μεσα στα SS μεχρι που τους εκανε ρεζιλι ο ελονας 2
Mhlogiatros Δημοσ. 8 Δεκεμβρίου 2024 Δημοσ. 8 Δεκεμβρίου 2024 (επεξεργασμένο) Τρομαχτικο το "στατιστικά πιθανότατο αποτέλεσμα " Και το AI drone μπορει να σου τη παιξει ανετα αφου δε καταλαβαινει βασικες αρχες στατιστικα πρεπει να χτυπησει καποιους στοχους και ο αλγοριθμος μπορει να μη σε γουσταρει .... Επεξ/σία 8 Δεκεμβρίου 2024 από Mhlogiatros
thanosAIAS Δημοσ. 8 Δεκεμβρίου 2024 Δημοσ. 8 Δεκεμβρίου 2024 Δεν παύει όμως να είναι ένα τρομακτικά ισχυρό εργαλείο σε κάποιες εργασίες όπου είναι ο μόνος τρόπος να προχωρήσει κανείς μπροστά, πχ στην πρόβλεψη μοριακών μοντέλων για φάρμακα. Γι'αυτό και αν και είναι φούσκα για πολλά, σε άλλα θέματα απλά θα σαρώσει την αγορά και όποιος μείνει πίσω θα οπισθοδρόμησει. Μένει να ξεκαθαρίσει αυτό το τοπίο, που θα κάνει τη διαφορά και να βρει τη θέση στην αγορά, ήρθε πάντως για να μείνει.
EuphangeL Δημοσ. 8 Δεκεμβρίου 2024 Δημοσ. 8 Δεκεμβρίου 2024 (επεξεργασμένο) Στις 7/12/2024 στις 2:57 ΜΜ, Marcos_Aurilius είπε Για πολλοστή φορά. Αυτά τα μοντέλα "τεχνητής νοημοσύνης" δεν έχουν καμία νοημοσύνη. Δεν καταλαβαίνουν τι διαβάζουν. Απλά το μετατρέπουν σε αριθμούς και δημιουργούν τεράστιους πίνακες πιθανοτήτων συσχέτισης μεταξύ λέξεων και φράσεων, βάσει των κειμένων στα οποία εκπαιδεύτηκαν. Αν υπάρχουν και λάθη, θα εκπαιδευτούν και σ'αυτά. Αν υπάρχουν ανακρίβειες, θα εκπαιδευτούν και σ'αυτές. Αν υπάρχει μίσος/φασισμός/ρατσισμός στα κείμενα, θα εκπαιδευτούν και σ'αυτά. Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις - γι'αυτό και δεν δίνουν δυο φορές την ίδια απάντηση. Δεν είναι γνώση - είναι συρραφή κειμένων με σκοπό να παράξουν ένα αληθοφανές και στατιστικά πιθανότατο αποτέλεσμα. Κάθε φορά, μου κάνει την ίδια εντύπωση η δυσκολία κατανόησης που έχετε όσοι τα πιστεύετε αυτά που γράφετε. Αν θεωρείς οτι η "νοημοσύνη" που έχεις εσύ, εγώ, εμείς, διαφέρει πολύ από αυτό που μόλις περιέγραψες, σου λείπει βασική γνώση πάνω στο θέμα. 22 ώρες πριν, Marcos_Aurilius είπε Πάντως δεν μιλάω ως άσχετος - πέρσι παρουσίασα το master μου πάνω ακριβώς στα γλωσσικά μοντέλα (και πιο συγκεκριμένα στα NLI και την χρήση τους για sentiment analysis). Παρουσίασες (lol) master πάνω ακριβώς στα γλωσσικά μοντέλα, και γράφεις: Στις 7/12/2024 στις 2:57 ΜΜ, Marcos_Aurilius είπε Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις ...μμάλιστα How might LLMs store facts | DL7 Έμφαση στο might Επεξ/σία 8 Δεκεμβρίου 2024 από EuphangeL
Bourdoulas Δημοσ. 8 Δεκεμβρίου 2024 Δημοσ. 8 Δεκεμβρίου 2024 Στις 7/12/2024 στις 4:17 ΜΜ, Marcos_Aurilius είπε Λάθος. Ο ανθρωπος καταλαβαίνει τι διαβάζει, έχει συνείδηση του περιεχομένου ενός κειμένου και του αν πρέπει να το λάβει υπόψην του κατά την κατανόηση ή την απάντηση. . Μέσος Έλληνας: Hold my beer 🍺 1
Marcos_Aurilius Δημοσ. 8 Δεκεμβρίου 2024 Δημοσ. 8 Δεκεμβρίου 2024 3 hours ago, EuphangeL said: Παρουσίασες (lol) master πάνω ακριβώς στα γλωσσικά μοντέλα, και γράφεις: ...μμάλιστα Έγραψες ένα lol κι ότι χρειάζομαι διάβασμα, πεταξες κι ενα βιντεάκι απ'το Youtube - ΕΝΝΟΕΙΤΑΙ θα ασχοληθώ μαζί σου. #not 1
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα