Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.

Το ChatGPT της OpenAI αντιμετωπίζει σοβαρά προβλήματα ακρίβειας στην αναζήτηση ειδήσεων, σύμφωνα με νέα έρευνα του Πανεπιστημίου Columbia.

Σύμφωνα με πρόσφατη έρευνα του Κέντρου Ψηφιακής Δημοσιογραφίας Tow του Πανεπιστημίου Columbia, η νέα λειτουργία αναζήτησης του ChatGPT, που παρουσιάστηκε τον Οκτώβριο από την OpenAI, εμφανίζει σημαντικές αδυναμίες στην ακρίβεια και την αξιοπιστία των πηγών ειδησεογραφικού περιεχομένου.

Η έρευνα, που εξέτασε 200 αποσπάσματα από 20 διαφορετικά μέσα ενημέρωσης, αποκάλυψε ότι το ChatGPT συχνά αποδίδει λανθασμένα πηγές ή δημιουργεί ανύπαρκτες. Το πρόβλημα εμφανίζεται ανεξάρτητα από το αν τα μέσα ενημέρωσης έχουν συνάψει επίσημες συμφωνίες αδειοδότησης με την OpenAI ή αν μπλοκάρουν την πρόσβαση των web crawlers της εταιρείας.

Ακόμη και συνεργάτες της OpenAI, όπως η Wall Street Journal, το The Atlantic και οι εκδόσεις Axel Springer και Meredith, δεν εμφανίζουν σταθερή απόδοση στην ακρίβεια των αναφορών. Χαρακτηριστικό παράδειγμα αποτελεί το Politico, που ανήκει στον όμιλο Axel Springer, όπου το ChatGPT συχνά απέδιδε λανθασμένα τις πηγές των δηλώσεων.

Το πρόβλημα, σύμφωνα με την έρευνα, έγκειται στον τρόπο με τον οποίο το ChatGPT επεξεργάζεται τις πληροφορίες. Παρόλο που οι web crawlers μπορεί να λειτουργούν σωστά, το υποκείμενο μοντέλο τεχνητής νοημοσύνης εξακολουθεί να κάνει λάθη και να "ψευδαισθάνεται", ακόμη και με αδειοδοτημένο περιεχόμενο.

Ιδιαίτερα ανησυχητικό είναι το γεγονός ότι όταν ένα μέσο ενημέρωσης μπλοκάρει την πρόσβαση μέσω αρχείων robots.txt, όπως οι New York Times, το ChatGPT αντί να παραδεχτεί την έλλειψη πρόσβασης, καταφεύγει στη δημιουργία φανταστικών πηγών. Η έρευνα διαπίστωσε ότι πάνω από το ένα τρίτο των απαντήσεων εμπίπτουν σε αυτή την κατηγορία.

Οι επιπτώσεις αυτής της κατάστασης είναι σημαντικές τόσο για τη δημοσιογραφία όσο και για την αξιοπιστία των εργαλείων τεχνητής νοημοσύνης. Η OpenAI στοχεύει να καταστήσει το ChatGPT την προτιμώμενη πηγή για γρήγορες και αξιόπιστες απαντήσεις, αλλά η αδυναμία ακριβούς παράθεσης πηγών υπονομεύει την εμπιστοσύνη τόσο στην τεχνητή νοημοσύνη όσο και στη δημοσιογραφία που επιχειρεί να συνοψίσει.


Διαβάστε ολόκληρο το άρθρο

Δημοσ. (επεξεργασμένο)

Δεν ειναι συνταρακτικό το νέο.


Θεωρώ, οτι όσοι εχουν ασχοληθει με το αντικειμενο το εχουν παρατηρήσει αρκετες φορές οτι δίνει λανθασμένες πληροφορίες.
Ειδικότερα, όσοι ασχολούνται με την εκπαίδευση το ξερουν.

Προσωπικά το χρησιμοποιώ καθημερινά και ομολογώ οτι διπλο-τριπλο τσεκάρω τις πηγές μου.

Αλλά, πάντοτε κερδίζω χρόνο στο τέλος.

 

Συμπέρασμα, το ChatGPT χειροτερεύει τους άσχετους και καλυτερεύει τους σχετικούς.

Επεξ/σία από lbit
  • Like 7
Δημοσ.

Για πολλοστή φορά. Αυτά τα μοντέλα "τεχνητής νοημοσύνης" δεν έχουν καμία νοημοσύνη. Δεν καταλαβαίνουν τι διαβάζουν. Απλά το μετατρέπουν σε αριθμούς και δημιουργούν τεράστιους πίνακες πιθανοτήτων συσχέτισης μεταξύ λέξεων και φράσεων, βάσει των κειμένων στα οποία εκπαιδεύτηκαν.
Αν υπάρχουν και λάθη, θα εκπαιδευτούν και σ'αυτά.
Αν υπάρχουν ανακρίβειες, θα εκπαιδευτούν και σ'αυτές.
Αν υπάρχει μίσος/φασισμός/ρατσισμός στα κείμενα, θα εκπαιδευτούν και σ'αυτά.
Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις - γι'αυτό και δεν δίνουν δυο φορές την ίδια απάντηση.
Δεν είναι γνώση - είναι συρραφή κειμένων με σκοπό να παράξουν ένα αληθοφανές και στατιστικά πιθανότατο αποτέλεσμα.
 

  • Like 10
  • Thanks 4
  • Haha 1
Δημοσ.

Δεν είναι πανάκεια τα llms. Βελτιώνονται συνεχώς όμως.

Αυτη την στιγμή είναι ένα εργαλείο συμπληρωματικό των παραδοσιακών εργαλείων αναζήτησης. Εχει χρησιμότητα, παίρνει μερίδιο, αλλά δεν μπορεί να τις αντικαταστήσει.

Ακομα και αν δουλέψει 100% πάντως πάλι δεν πρέπει να το εμπιστεύεται κανείς απόλυτα. Τα μοντέλα αυτά ανήκουν σε εταιρίες που έχουν πρωταρχικό σκοπό το δικό τους κέρδος και όχι το καλό του χρήστη.

Δημοσ.
25 λεπτά πριν, Marcos_Aurilius είπε

Για πολλοστή φορά. Αυτά τα μοντέλα "τεχνητής νοημοσύνης" δεν έχουν καμία νοημοσύνη. Δεν καταλαβαίνουν τι διαβάζουν. Απλά το μετατρέπουν σε αριθμούς και δημιουργούν τεράστιους πίνακες πιθανοτήτων συσχέτισης μεταξύ λέξεων και φράσεων, βάσει των κειμένων στα οποία εκπαιδεύτηκαν.
Αν υπάρχουν και λάθη, θα εκπαιδευτούν και σ'αυτά.
Αν υπάρχουν ανακρίβειες, θα εκπαιδευτούν και σ'αυτές.
Αν υπάρχει μίσος/φασισμός/ρατσισμός στα κείμενα, θα εκπαιδευτούν και σ'αυτά.
Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις - γι'αυτό και δεν δίνουν δυο φορές την ίδια απάντηση.
Δεν είναι γνώση - είναι συρραφή κειμένων με σκοπό να παράξουν ένα αληθοφανές και στατιστικά πιθανότατο αποτέλεσμα.
 

Φίλτατε, αυτα που ανέφερες δεν απέχουν και πολύ απο τις ενέργειες απο εναν μέσο άνθρωπο.

 

Σου προτείνω να διαβάσεις "Κβαντική υπεροχή" του Κακου Μιτσιο.
(δεν ειναι επιστημονικό βιβλίο, απλά μια επιφανειακή αναδρομή στην Τ.Ν. και κβαντική μηχανική).

  • Thanks 1
Δημοσ.
46 minutes ago, lbit said:

Φίλτατε, αυτα που ανέφερες δεν απέχουν και πολύ απο τις ενέργειες απο εναν μέσο άνθρωπο.

Λάθος. Ο ανθρωπος καταλαβαίνει τι διαβάζει, έχει συνείδηση του περιεχομένου ενός κειμένου και του αν πρέπει να το λάβει υπόψην του κατά την κατανόηση ή την απάντηση. Εκτός κι αν το εννοείς μακροσκοπικά, στην διάρκεια της ζωής του - που από μικρός εκπαιδεύεται σε κείμενα.

Χώρια που ο άνθρωπος καταλαβαίνει πολύ περισσότερα, τα οποία για ένα γλωσσικό μοντέλο είναι (ακόμα?) σχεδόν απλησίαστα - όπως ειρωνεία, υπονοούμενα, συμβολισμούς και πολλά άλλα. Θα το κοιτάξω το βιβλίο. Πάντως δεν μιλάω ως άσχετος - πέρσι παρουσίασα το master μου πάνω ακριβώς στα γλωσσικά μοντέλα (και πιο συγκεκριμένα στα NLI και την χρήση τους για sentiment analysis).

  • Thanks 3
  • Haha 1
Δημοσ. (επεξεργασμένο)

Η λειτουργία του ανθρωπινου εγκεφάλου ειναι συμφωνα με τις ως τωρα ενδειξεις υπολογιστικη. Το αν ενα llm είναι κοντύτερα σε μια αριθμομηχανη ή στον ανθρωπινο εγκέφαλο μένει να αποδειχθει.

Σε καμια περιπτωση πάντως τα τωρινα μοντέλα δεν έχουν συνείδηση, αίσθηση του εγω κτλ. αυτά απαιτούν άλλες αρχιτεκτονικές που δεν γνωρίζουμε πόσο μακρια είμαστε ακόμα. 

Οταν δίνετε ένα ινπουτ σε ενα llm, δείτε το αποτέλεσμα ως μια στιγμιαία σπίθα νοητικών λειτουργιών, ο ανθρωπινος εγκέφαλος από την γεννηση του μεχρι τον θένατο είναι μια αυτοτροφοδοτούμενη φωτιά νοητικών λειτουργιών. Υπάρχει απόσταση.

Επεξ/σία από Evangelos Anagnostou
Δημοσ.

εδω τις προαλλες εβγαζε οτι οι founding fathers ηταν γυναικες μαυροι και ινδιανοι....!

εβγαζε οτι υπηρχαν και μαυροι μεσα στα SS

μεχρι που τους εκανε ρεζιλι ο ελονας

  • Like 2
Δημοσ. (επεξεργασμένο)

Τρομαχτικο το  "στατιστικά πιθανότατο αποτέλεσμα " Και το AI drone μπορει να σου τη παιξει ανετα αφου δε καταλαβαινει βασικες αρχες στατιστικα πρεπει να χτυπησει καποιους στοχους  και ο αλγοριθμος μπορει να μη σε γουσταρει ....

Επεξ/σία από Mhlogiatros
Δημοσ.

Δεν παύει όμως να είναι ένα τρομακτικά ισχυρό εργαλείο σε κάποιες εργασίες όπου είναι ο μόνος τρόπος να προχωρήσει κανείς μπροστά, πχ στην πρόβλεψη μοριακών μοντέλων για φάρμακα.

Γι'αυτό και αν και είναι φούσκα για πολλά, σε άλλα θέματα απλά θα σαρώσει την αγορά και όποιος μείνει πίσω θα οπισθοδρόμησει.

Μένει να ξεκαθαρίσει αυτό το τοπίο, που θα κάνει τη διαφορά και να βρει τη θέση στην αγορά, ήρθε πάντως για να μείνει.

Δημοσ. (επεξεργασμένο)
Στις 7/12/2024 στις 2:57 ΜΜ, Marcos_Aurilius είπε

Για πολλοστή φορά. Αυτά τα μοντέλα "τεχνητής νοημοσύνης" δεν έχουν καμία νοημοσύνη. Δεν καταλαβαίνουν τι διαβάζουν. Απλά το μετατρέπουν σε αριθμούς και δημιουργούν τεράστιους πίνακες πιθανοτήτων συσχέτισης μεταξύ λέξεων και φράσεων, βάσει των κειμένων στα οποία εκπαιδεύτηκαν.
Αν υπάρχουν και λάθη, θα εκπαιδευτούν και σ'αυτά.
Αν υπάρχουν ανακρίβειες, θα εκπαιδευτούν και σ'αυτές.
Αν υπάρχει μίσος/φασισμός/ρατσισμός στα κείμενα, θα εκπαιδευτούν και σ'αυτά.
Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις - γι'αυτό και δεν δίνουν δυο φορές την ίδια απάντηση.
Δεν είναι γνώση - είναι συρραφή κειμένων με σκοπό να παράξουν ένα αληθοφανές και στατιστικά πιθανότατο αποτέλεσμα.
 

Κάθε φορά, μου κάνει την ίδια εντύπωση η δυσκολία κατανόησης που έχετε όσοι τα πιστεύετε αυτά που γράφετε.

Αν θεωρείς οτι η "νοημοσύνη" που έχεις εσύ, εγώ, εμείς, διαφέρει πολύ από αυτό που μόλις περιέγραψες, σου λείπει βασική γνώση πάνω στο θέμα.

22 ώρες πριν, Marcos_Aurilius είπε

Πάντως δεν μιλάω ως άσχετος - πέρσι παρουσίασα το master μου πάνω ακριβώς στα γλωσσικά μοντέλα (και πιο συγκεκριμένα στα NLI και την χρήση τους για sentiment analysis).

Παρουσίασες (lol) master πάνω ακριβώς στα γλωσσικά μοντέλα, και γράφεις:

Στις 7/12/2024 στις 2:57 ΜΜ, Marcos_Aurilius είπε

Απαντούν βάσει πιθανοτήτων εμφάνισης κειμένων σε παρόμοιες ερωταπαντήσεις

...μμάλιστα

How might LLMs store facts | DL7

Έμφαση στο might

 

Επεξ/σία από EuphangeL
Δημοσ.
Στις 7/12/2024 στις 4:17 ΜΜ, Marcos_Aurilius είπε

Λάθος. Ο ανθρωπος καταλαβαίνει τι διαβάζει, έχει συνείδηση του περιεχομένου ενός κειμένου και του αν πρέπει να το λάβει υπόψην του κατά την κατανόηση ή την απάντηση. .

Μέσος Έλληνας: Hold my beer 🍺 

  • Like 1
Δημοσ.
3 hours ago, EuphangeL said:

Παρουσίασες (lol) master πάνω ακριβώς στα γλωσσικά μοντέλα, και γράφεις:

...μμάλιστα

 

Έγραψες ένα lol κι ότι χρειάζομαι διάβασμα, πεταξες κι ενα βιντεάκι απ'το Youtube - ΕΝΝΟΕΙΤΑΙ θα ασχοληθώ μαζί σου. #not

  • Thanks 1

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...