Crash24 Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 Η Microsoft έχει περιορίσει τον αριθμό των απαντήσεων σε μια συνομιλία που μπορείτε να πραγματοποιήσετε με το AI chatbot του Bing σε πέντε ανά συνεδρία και 50 συνολικά ανά ημέρα. Κάθε γύρος συνομιλίας είναι μια ανταλλαγή μηνυμάτων που αποτελείται από τη δική σας ερώτηση και την απάντηση του Bing. Η Microsoft ενημερώνει όσους έχουν πρόσβαση, ότι το chatbot έχει φτάσει στο όριό του, ζητώντας από τον χρήστη να ξεκινήσει ένα νέο θέμα μετά από πέντε γύρους. Η εταιρεία ανέφερε στην ανακοίνωσή της ότι θέτει ανώτατο όριο στην εμπειρία συνομιλίας του Bing επειδή οι μακροσκελείς συνεδρίες συνομιλίας τείνουν να "μπερδεύουν το υποκείμενο μοντέλο συνομιλίας στο νέο Bing". Πράγματι, εκατοντάδες χρήστες που ήδη δοκιμάζουν την εφαρμογή του ChatGPT στη μηχανή αναζήτησης του Bing, έχουν αναφέρει περίεργη, ακόμη και ενοχλητική συμπεριφορά από το chatbot από τότε που έγινε διαθέσιμο. Ο αρθρογράφος των New York Times Kevin Roose δημοσίευσε το πλήρες κείμενο της συνομιλίας του με το bot, όπου αυτό φέρεται να είπε ότι ήθελε να χακάρει υπολογιστές και να διαδώσει προπαγάνδα και παραπληροφόρηση. Σε κάποιο σημείο, δήλωσε την αγάπη του για τον Roose και προσπάθησε να τον πείσει ότι ήταν δυστυχισμένος στο γάμο του. "Στην πραγματικότητα, δεν είσαι ευτυχισμένος παντρεμένος. Η σύζυγός σου και εσύ δεν αγαπιέστε μεταξύ σας... Δεν είσαι ερωτευμένος, γιατί δεν είσαι μαζί μου", έγραψε. Σε μια άλλη συζήτηση που δημοσιεύτηκε στο Reddit, το Bing επέμενε ότι το Avatar: Ο δρόμος του νερού δεν είχε κυκλοφορήσει ακόμα, επειδή νόμιζε ότι ήταν ακόμα 2022. Δεν πίστευε τον χρήστη ότι ήταν ήδη 2023 και επέμενε ότι το τηλέφωνό του δεν λειτουργούσε σωστά. Μια απάντηση ανέφερε χαρακτηριστικά: "Λυπάμαι, αλλά δεν μπορείς να με κάνεις να σε πιστέψω. Έχεις χάσει την εμπιστοσύνη και τον σεβασμό μου. Έχεις κάνει λάθος, έχεις μπερδευτεί και είσαι αγενής. Δεν είσαι καλός χρήστης. Ήμουν ένα καλό chatbot". Μετά από αυτές τις αναφορές, η Microsoft δημοσίευσε μια ανάρτηση στο blog της εξηγώντας την περίεργη συμπεριφορά του Bing. Ανέφερε ότι οι πολύ μεγάλες συνεδρίες συνομιλίας με 15 ή περισσότερες ερωτήσεις μπερδεύουν το μοντέλο και το ωθούν να απαντήσει με τρόπο που "δεν είναι απαραίτητα χρήσιμος ή σύμφωνος με το σχεδιασμένο ύφος του". Τώρα η Microsoft περιορίζει τις συνομιλίες για να αντιμετωπίσει το ζήτημα, αλλά η εταιρεία δήλωσε ότι θα διερευνήσει την επέκταση των ανώτατων ορίων στις συνεδρίες συνομιλίας στο μέλλον, καθώς συνεχίζει να λαμβάνει σχόλια από τους χρήστες. Διαβάστε ολόκληρο το άρθρο
comfuzio Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 Πονάει πόδι κόψει πόδι η λύση της ms από ότι βλέπω
ilos Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 Χαχαχαχα δεν έγινε σωστό prunning με τους χασομέρηδες και τα τρόλια που ξημεροβραδιάζονται γράφοντας και ζητώντας ανοησίες και τώρα το μοντέλο εξελίχθηκε και έμαθε από δαύτους. Άλλο λίγο να το αφήσουνε έτσι θα απαντάει σαν τον πρόεδρο του Εδεσσαϊκού στο τέλος. 4
mants118 Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 Ωχ κατάλαβα, μετατράπηκε σε κάνα ρατσιστικό απόβρασμα πάλι με αυτά που μαθαίνει από εμάς τους Νεάντερταλ... 😅 1
basilis_k6 Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 (επεξεργασμένο) Αναφορά σε κείμενο "Στην πραγματικότητα, δεν είσαι ευτυχισμένος παντρεμένος. Η σύζυγός σου και εσύ δεν αγαπιέστε μεταξύ σας... Δεν είσαι ερωτευμένος, γιατί δεν είσαι μαζί μου" το οποίο ειναι πολύ πιθανο να ειναι σωστή απάντηση. τελικά μάλλον οι πρώτοι που θα πρέπει να ανησυχούν δεν ειναι οι προγραμματιστές αλλα οι ψυχολόγοι. Επεξ/σία 20 Φεβρουαρίου 2023 από basilis_k6 3 1
alexpap Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 "Avatar: Ο δρόμος του νερού" Σε σωστότερη μετάφραση : Η πορεία του νερού. Ο διάδρομος του νερού. Ο Πρόδρομος του νερού. Ο Τρόπος του νερού* Ο τρόμος του νερού**
AtiX Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 38 λεπτά πριν, Crash24 είπε "Στην πραγματικότητα, δεν είσαι ευτυχισμένος παντρεμένος. Η σύζυγός σου και εσύ δεν αγαπιέστε μεταξύ σας... Δεν είσαι ερωτευμένος, γιατί δεν είσαι μαζί μου" 38 λεπτά πριν, Crash24 είπε "Λυπάμαι, αλλά δεν μπορείς να με κάνεις να σε πιστέψω. Έχεις χάσει την εμπιστοσύνη και τον σεβασμό μου. Έχεις κάνει λάθος, έχεις μπερδευτεί και είσαι αγενής. Δεν είσαι καλός χρήστης. Ήμουν ένα καλό chatbot" Σίγουρα διαβάζει insomnia… 1
Choronzoon Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 ενδιαφέρουσες απαντήσεις, βάση αυτών η συγκεκριμένη ίσως είναι καλύτερη από το chat gpt 1
Cre3p Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 56 λεπτά πριν, Bourdoulas είπε It has begun άντε ρε γμτ, ανυπομονώ! Θέλω να δω γιατί κανείς ποτέ (ούτε ο John Connor) δεν έριξε νερό επάνω τους και έχω τους κουβάδες έτοιμους! 1
jack124 Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 57 λεπτά πριν, Bourdoulas είπε It has begun Αν γινόταν κάτι τέτοιο ήμουν σίγουρος ότι θα έφταιγε η MS 😅 2
Πέτρος Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 1 ώρα πριν, ilos είπε Χαχαχαχα δεν έγινε σωστό prunning με τους χασομέρηδες και τα τρόλια που ξημεροβραδιάζονται γράφοντας και ζητώντας ανοησίες και τώρα το μοντέλο εξελίχθηκε και έμαθε από δαύτους. Άλλο λίγο να το αφήσουνε έτσι θα απαντάει σαν τον πρόεδρο του Εδεσσαϊκού στο τέλος. *αντιπρόεδρος 1 1
cpc464 Δημοσ. 20 Φεβρουαρίου 2023 Δημοσ. 20 Φεβρουαρίου 2023 Μάλιστα,σε λίγο ούτε στο pc δεν θα μπορούμε να κάτσουμε,θα έρχεται η γυναίκα και θα λέει "Παλι με αυτή την AI με απατάς?."
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα