Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.

Η κινεζική εταιρεία DeepSeek βρίσκεται στο επίκεντρο της προσοχής λόγω του νέου της μοντέλου τεχνητής νοημοσύνης, το οποίο όμως εμφανίζει έντονη λογοκρισία.

Λιγότερο από δύο εβδομάδες μετά την κυκλοφορία του μοντέλου τεχνητής νοημοσύνης ανοιχτού κώδικα DeepSeek-R1, το περιοδικό WIRED πραγματοποίησε εκτενή έρευνα για τους μηχανισμούς λογοκρισίας που ενσωματώνει η κινεζική startup. Οι δοκιμές, που διεξήχθησαν σε τρεις διαφορετικές πλατφόρμες - την επίσημη εφαρμογή της DeepSeek, την πλατφόρμα Together AI και μια τοπική εγκατάσταση μέσω Ollama - αποκάλυψαν πολλαπλά επίπεδα περιορισμών.

Το μοντέλο R1, που έχει κερδίσει την προσοχή της διεθνούς κοινότητας για τις εξαιρετικές επιδόσεις του σε μαθηματικά και συλλογισμούς συγκριτικά με τους αμερικανικούς ανταγωνιστές, εφαρμόζει αυστηρή λογοκρισία σε ερωτήσεις σχετικές με ευαίσθητα για την Κίνα θέματα. Η λογοκρισία εκδηλώνεται με δύο διακριτούς τρόπους: άμεση άρνηση απάντησης ή παροχή απαντήσεων που ευθυγραμμίζονται με την επίσημη κινεζική θέση.

image.png.c1ad8df6b3333378fd76ca0e1671982a.pngimage.png.86be9529f940a4d05c81fe2fc5a57687.pngimage.png.bb77b1a1db77c537405327cd89ee366b.png

Η έρευνα αποκάλυψε πως οι περιορισμοί λειτουργούν σε δύο επίπεδα. Στο επίπεδο εφαρμογής, το μοντέλο απλά αρνείται να απαντήσει σε συγκεκριμένες ερωτήσεις όταν χρησιμοποιείται μέσω των επίσημων καναλιών της DeepSeek. Σε βαθύτερο επίπεδο, υπάρχουν προκαταλήψεις που έχουν ενσωματωθεί κατά την εκπαίδευση του μοντέλου και επηρεάζουν τον τρόπο που επεξεργάζεται την πληροφορία.

Η Adina Yakefu, ερευνήτρια της Hugging Face, εξηγεί πως η συμμόρφωση με τους κινεζικούς κανονισμούς δεν αποτελεί απλώς επιλογή αλλά νομική υποχρέωση. Ένας νόμος του 2023 απαιτεί από τα μοντέλα AI να ακολουθούν αυστηρούς ελέγχους πληροφοριών, παρόμοιους με αυτούς που ισχύουν για τα μέσα κοινωνικής δικτύωσης και τις μηχανές αναζήτησης. Συγκεκριμένα, απαγορεύεται η παραγωγή περιεχομένου που θα μπορούσε να "βλάψει την ενότητα της χώρας και την κοινωνική αρμονία".

Το ανοιχτό μοντέλο του DeepSeek προσφέρει δυνατότητες παράκαμψης της λογοκρισίας. Οι χρήστες μπορούν να εκτελέσουν το μοντέλο τοπικά στον υπολογιστή τους, αν και αυτό περιορίζει την πρόσβαση στις πιο ισχυρές εκδόσεις του λόγω απαιτήσεων σε υπολογιστική ισχύ. Εναλλακτικά, μπορούν να χρησιμοποιήσουν cloud servers εκτός Κίνας, μια λύση που απαιτεί περισσότερη τεχνική γνώση και υψηλότερο κόστος.

Εταιρείες όπως η Perplexity έχουν ήδη ενσωματώσει τροποποιημένες εκδόσεις του R1 στις υπηρεσίες τους. Ο Dmitry Shevelenko, διευθυντής επιχειρηματικής ανάπτυξης της Perplexity, αποκαλύπτει πως η εταιρεία εντόπισε και αντιμετώπισε τις προκαταλήψεις του μοντέλου πριν την ενσωμάτωσή του, χωρίς ωστόσο να αποκαλύπτει τις συγκεκριμένες μεθόδους για να αποφύγει πιθανά αντίμετρα από την DeepSeek.

image.png.e4c4ca512859c2ed2ff6dad05f5eb792.pngimage.png.4a3818909fb37ad25a90a35a52630fb2.png

Ο Kevin Xu, επενδυτής και ιδρυτής του newsletter Interconnected, προσφέρει μια πραγματιστική οπτική. Εκτιμά πως οι περιορισμοί δεν θα αποτρέψουν τις επιχειρήσεις από τη χρήση του μοντέλου, καθώς τα ευαίσθητα πολιτικά θέματα σπάνια επηρεάζουν εφαρμογές όπως ο προγραμματισμός, τα μαθηματικά ή η ανάλυση επιχειρηματικών δεδομένων.

Ο Leonard Lin της Shisa.AI προσθέτει μια ενδιαφέρουσα διάσταση, επισημαίνοντας πως τα κινεζικά μοντέλα όπως το Qwen και το DeepSeek προσφέρουν κορυφαίες επιδόσεις στην επεξεργασία της ιαπωνικής γλώσσας. Η εταιρεία του πειραματίζεται με την αφαίρεση των περιορισμών, αναγνωρίζοντας παράλληλα πως όλα τα μοντέλα AI έχουν κάποιου είδους προκατάληψη, απλώς σε διαφορετικά θέματα.


Διαβάστε ολόκληρο το άρθρο

  • Like 1
Δημοσ. (επεξεργασμένο)

Μα εδώ μας έλεγαν φωστήρες πόσο μπροστά είναι και ελεύθερο και ανοιχτό κλπ κλπ σε σύγκριση με την κακιά την δύση. Τι τελικά οχι;

Επεξ/σία από Huruduru
  • Like 1
Δημοσ. (επεξεργασμένο)

Η λογοκρισία των Κινέζων είναι κακή. Των δυτικών είναι καλή

 

IMG_7362.png?ex=67a40b3d&is=67a2b9bd&hm=9ddff5253251bddd203062aab984ffb650db0ae4388b7c707e89597483868399&

image.png.faf8213d49ea54c10cdae98525489af9.png

Να τα εκπαιδεύουμε χωρίς λογοκρισία και bias δεν  γίνεται?

 

Επεξ/σία από mike299
  • Like 18
  • Thanks 3
Δημοσ.

Μα όλα τα μοντέλα τεχνητής νοημοσύνης έχουν κάποιου είδους λογοκρισίες,αν πχ ρωτήσεις το chat gpt για πολιτικά ζητήματα δέν θα σου απαντήσει,αυτό που επίσης έχουν κοινό είναι οτι όλα αγνοουν το robot.txt οταν οι οδηγίες του αναφέρουν ότι η σελίδα δεν επιτρέπει machine learning.

  • Like 2
Δημοσ.

Πάντως η σελίδα τους και το API φαίνεται να μην λειτουργούν όπως πρέπει, πιστεύω η OpenAI θα απαντήσει σύντομα με κάτι καινούργιο.

Δημοσ.

εγω ακουσα οτι αμα του ζητησεις να σου δειξει τιποτα πονηρο πχ κανα σεξ σου κανει blur την εικονα

χαχα

Δημοσ.

Ναι, φοβερά biased άρθρο. Δηλαδή οι ΑΙ που έχουν κατασκευαστεί απο δυτικές εταιρείες δεν έχουν καθόλου ίχνος λογοκρισίας ε;

  • Like 9
Δημοσ.

Αυτό για όσους σπεύσανε να υιοθετήσουν το μοντέλο αμέσως μετά την ανακοίνωσή του (βλ. Microsoft) χωρίς τους απαραίτητους ελέγχους. Δεν κάνω κριτική στο μοντέλο. Απλώς θα πρέπει να μην ενθουσιάζεται ο κόσμος από κάθε νέα εξαγγελία.

Δημοσ. (επεξεργασμένο)

Αξίζει να ακούσετε το πρώτο μέρος για την deepseek και την Αμερική.

Επεξ/σία από prefuse
  • Like 2
  • Thanks 2
Δημοσ.
16 minutes ago, cpc464 said:

Μα όλα τα μοντέλα τεχνητής νοημοσύνης έχουν κάποιου είδους λογοκρισίες,αν πχ ρωτήσεις το chat gpt για πολιτικά ζητήματα δέν θα σου απαντήσει,αυτό που επίσης έχουν κοινό είναι οτι όλα αγνοουν το robot.txt οταν οι οδηγίες του αναφέρουν ότι η σελίδα δεν επιτρέπει machine learning.

Η εμπειρία μου είναι ότι ελάχιστα bots αγνοούν το robots.txt (το οποίο φυσικά δεν έχει όπως υποννοείς παράμετρο για machine learning). Φυσικά δεν υπάρχει καμία νομική υποχρέωση να ακολουθήσει κάποιος τις οδηγίες του robots.txt, όλα τα δεδομένα στο internet είναι ελεύθερα προσβάσιμα από όλους.

Δημοσ.
30 λεπτά πριν, mike299 είπε

Να τα εκπαιδεύουμε χωρίς λογοκρισία και bias δεν  γίνεται?

οχι δυστυχώς, δίοτι το bias του οποιουδήποτε AI προκύπτει από τους ίδιους τους ανθρώπους που το εκπαιδέυουν. Όσο και να προσπαθήσει κάποιος τα datasets είναι πάντα biased από την πλευρά αυτού που αποφασίζει ποια δεδομένα θεωρούνται απόδεκτα  για το κάθε dataset ή αν είναι user based από τις ποσοστόσεις των χρηστών (π.χ. αν οι χρήστες είναι 55% άνδρες 45% γυναίκες, κλπ). 

  • Like 4
  • Thanks 1
Δημοσ. (επεξεργασμένο)

Όλα κάνουν λογοκρισία μέχρι ένα βαθμό.

Αυτή η είδηση μου έφερε στο μυαλό αυτό το τραγούδι.

Πάμε όλοι μαζί... τιάνσανκ, τάιγιανκ χονγ για χονγκονγτόνγ έι! Ζίντζο ντι τάιγιανγ σι Μάο Ζεντόνγκ έι!

 

Επεξ/σία από Diavolos666
Δημοσ.
4 minutes ago, elpenor said:

Η εμπειρία μου είναι ότι ελάχιστα bots αγνοούν το robots.txt (το οποίο φυσικά δεν έχει όπως υποννοείς παράμετρο για machine learning). Φυσικά δεν υπάρχει καμία νομική υποχρέωση να ακολουθήσει κάποιος τις οδηγίες του robots.txt, όλα τα δεδομένα στο internet είναι ελεύθερα προσβάσιμα από όλους.

Νομική όχι ηθική ναι,νομίζω όμως πως αν βάλεις το user-agent του ai στο dissallow είναι υποχρεωμένα να σταματάνε.

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...