Axlmon Δημοσ. 4 Φεβρουαρίου Δημοσ. 4 Φεβρουαρίου Η κινεζική εταιρεία DeepSeek βρίσκεται στο επίκεντρο της προσοχής λόγω του νέου της μοντέλου τεχνητής νοημοσύνης, το οποίο όμως εμφανίζει έντονη λογοκρισία. Λιγότερο από δύο εβδομάδες μετά την κυκλοφορία του μοντέλου τεχνητής νοημοσύνης ανοιχτού κώδικα DeepSeek-R1, το περιοδικό WIRED πραγματοποίησε εκτενή έρευνα για τους μηχανισμούς λογοκρισίας που ενσωματώνει η κινεζική startup. Οι δοκιμές, που διεξήχθησαν σε τρεις διαφορετικές πλατφόρμες - την επίσημη εφαρμογή της DeepSeek, την πλατφόρμα Together AI και μια τοπική εγκατάσταση μέσω Ollama - αποκάλυψαν πολλαπλά επίπεδα περιορισμών. Το μοντέλο R1, που έχει κερδίσει την προσοχή της διεθνούς κοινότητας για τις εξαιρετικές επιδόσεις του σε μαθηματικά και συλλογισμούς συγκριτικά με τους αμερικανικούς ανταγωνιστές, εφαρμόζει αυστηρή λογοκρισία σε ερωτήσεις σχετικές με ευαίσθητα για την Κίνα θέματα. Η λογοκρισία εκδηλώνεται με δύο διακριτούς τρόπους: άμεση άρνηση απάντησης ή παροχή απαντήσεων που ευθυγραμμίζονται με την επίσημη κινεζική θέση. Η έρευνα αποκάλυψε πως οι περιορισμοί λειτουργούν σε δύο επίπεδα. Στο επίπεδο εφαρμογής, το μοντέλο απλά αρνείται να απαντήσει σε συγκεκριμένες ερωτήσεις όταν χρησιμοποιείται μέσω των επίσημων καναλιών της DeepSeek. Σε βαθύτερο επίπεδο, υπάρχουν προκαταλήψεις που έχουν ενσωματωθεί κατά την εκπαίδευση του μοντέλου και επηρεάζουν τον τρόπο που επεξεργάζεται την πληροφορία. Η Adina Yakefu, ερευνήτρια της Hugging Face, εξηγεί πως η συμμόρφωση με τους κινεζικούς κανονισμούς δεν αποτελεί απλώς επιλογή αλλά νομική υποχρέωση. Ένας νόμος του 2023 απαιτεί από τα μοντέλα AI να ακολουθούν αυστηρούς ελέγχους πληροφοριών, παρόμοιους με αυτούς που ισχύουν για τα μέσα κοινωνικής δικτύωσης και τις μηχανές αναζήτησης. Συγκεκριμένα, απαγορεύεται η παραγωγή περιεχομένου που θα μπορούσε να "βλάψει την ενότητα της χώρας και την κοινωνική αρμονία". Το ανοιχτό μοντέλο του DeepSeek προσφέρει δυνατότητες παράκαμψης της λογοκρισίας. Οι χρήστες μπορούν να εκτελέσουν το μοντέλο τοπικά στον υπολογιστή τους, αν και αυτό περιορίζει την πρόσβαση στις πιο ισχυρές εκδόσεις του λόγω απαιτήσεων σε υπολογιστική ισχύ. Εναλλακτικά, μπορούν να χρησιμοποιήσουν cloud servers εκτός Κίνας, μια λύση που απαιτεί περισσότερη τεχνική γνώση και υψηλότερο κόστος. Εταιρείες όπως η Perplexity έχουν ήδη ενσωματώσει τροποποιημένες εκδόσεις του R1 στις υπηρεσίες τους. Ο Dmitry Shevelenko, διευθυντής επιχειρηματικής ανάπτυξης της Perplexity, αποκαλύπτει πως η εταιρεία εντόπισε και αντιμετώπισε τις προκαταλήψεις του μοντέλου πριν την ενσωμάτωσή του, χωρίς ωστόσο να αποκαλύπτει τις συγκεκριμένες μεθόδους για να αποφύγει πιθανά αντίμετρα από την DeepSeek. Ο Kevin Xu, επενδυτής και ιδρυτής του newsletter Interconnected, προσφέρει μια πραγματιστική οπτική. Εκτιμά πως οι περιορισμοί δεν θα αποτρέψουν τις επιχειρήσεις από τη χρήση του μοντέλου, καθώς τα ευαίσθητα πολιτικά θέματα σπάνια επηρεάζουν εφαρμογές όπως ο προγραμματισμός, τα μαθηματικά ή η ανάλυση επιχειρηματικών δεδομένων. Ο Leonard Lin της Shisa.AI προσθέτει μια ενδιαφέρουσα διάσταση, επισημαίνοντας πως τα κινεζικά μοντέλα όπως το Qwen και το DeepSeek προσφέρουν κορυφαίες επιδόσεις στην επεξεργασία της ιαπωνικής γλώσσας. Η εταιρεία του πειραματίζεται με την αφαίρεση των περιορισμών, αναγνωρίζοντας παράλληλα πως όλα τα μοντέλα AI έχουν κάποιου είδους προκατάληψη, απλώς σε διαφορετικά θέματα. Διαβάστε ολόκληρο το άρθρο 1
nikos5800 Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου (επεξεργασμένο) Δηλαδή κάνει τον Κινέζο!!τι πιο φυσικό 😁 Επεξ/σία 5 Φεβρουαρίου από nikos5800 3 18
Huruduru Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου (επεξεργασμένο) Μα εδώ μας έλεγαν φωστήρες πόσο μπροστά είναι και ελεύθερο και ανοιχτό κλπ κλπ σε σύγκριση με την κακιά την δύση. Τι τελικά οχι; Επεξ/σία 5 Φεβρουαρίου από Huruduru 1
Charismo Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου Έτοιμο για εκπρόσωπος τύπου είναι με αυτές τις απαντήσεις. 2 2
mike299 Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου (επεξεργασμένο) Η λογοκρισία των Κινέζων είναι κακή. Των δυτικών είναι καλή Να τα εκπαιδεύουμε χωρίς λογοκρισία και bias δεν γίνεται? Επεξ/σία 5 Φεβρουαρίου από mike299 18 3
cpc464 Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου Μα όλα τα μοντέλα τεχνητής νοημοσύνης έχουν κάποιου είδους λογοκρισίες,αν πχ ρωτήσεις το chat gpt για πολιτικά ζητήματα δέν θα σου απαντήσει,αυτό που επίσης έχουν κοινό είναι οτι όλα αγνοουν το robot.txt οταν οι οδηγίες του αναφέρουν ότι η σελίδα δεν επιτρέπει machine learning. 2
panosThe96 Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου Πάντως η σελίδα τους και το API φαίνεται να μην λειτουργούν όπως πρέπει, πιστεύω η OpenAI θα απαντήσει σύντομα με κάτι καινούργιο.
poulinos Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου εγω ακουσα οτι αμα του ζητησεις να σου δειξει τιποτα πονηρο πχ κανα σεξ σου κανει blur την εικονα χαχα
apostolis81 Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου Ναι, φοβερά biased άρθρο. Δηλαδή οι ΑΙ που έχουν κατασκευαστεί απο δυτικές εταιρείες δεν έχουν καθόλου ίχνος λογοκρισίας ε; 9
Thessgr Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου Αυτό για όσους σπεύσανε να υιοθετήσουν το μοντέλο αμέσως μετά την ανακοίνωσή του (βλ. Microsoft) χωρίς τους απαραίτητους ελέγχους. Δεν κάνω κριτική στο μοντέλο. Απλώς θα πρέπει να μην ενθουσιάζεται ο κόσμος από κάθε νέα εξαγγελία.
prefuse Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου (επεξεργασμένο) Αξίζει να ακούσετε το πρώτο μέρος για την deepseek και την Αμερική. Επεξ/σία 5 Φεβρουαρίου από prefuse 2 2
elpenor Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου 16 minutes ago, cpc464 said: Μα όλα τα μοντέλα τεχνητής νοημοσύνης έχουν κάποιου είδους λογοκρισίες,αν πχ ρωτήσεις το chat gpt για πολιτικά ζητήματα δέν θα σου απαντήσει,αυτό που επίσης έχουν κοινό είναι οτι όλα αγνοουν το robot.txt οταν οι οδηγίες του αναφέρουν ότι η σελίδα δεν επιτρέπει machine learning. Η εμπειρία μου είναι ότι ελάχιστα bots αγνοούν το robots.txt (το οποίο φυσικά δεν έχει όπως υποννοείς παράμετρο για machine learning). Φυσικά δεν υπάρχει καμία νομική υποχρέωση να ακολουθήσει κάποιος τις οδηγίες του robots.txt, όλα τα δεδομένα στο internet είναι ελεύθερα προσβάσιμα από όλους.
orfibous Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου 30 λεπτά πριν, mike299 είπε Να τα εκπαιδεύουμε χωρίς λογοκρισία και bias δεν γίνεται? οχι δυστυχώς, δίοτι το bias του οποιουδήποτε AI προκύπτει από τους ίδιους τους ανθρώπους που το εκπαιδέυουν. Όσο και να προσπαθήσει κάποιος τα datasets είναι πάντα biased από την πλευρά αυτού που αποφασίζει ποια δεδομένα θεωρούνται απόδεκτα για το κάθε dataset ή αν είναι user based από τις ποσοστόσεις των χρηστών (π.χ. αν οι χρήστες είναι 55% άνδρες 45% γυναίκες, κλπ). 4 1
Diavolos666 Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου (επεξεργασμένο) Όλα κάνουν λογοκρισία μέχρι ένα βαθμό. Αυτή η είδηση μου έφερε στο μυαλό αυτό το τραγούδι. Πάμε όλοι μαζί... τιάνσανκ, τάιγιανκ χονγ για χονγκονγτόνγ έι! Ζίντζο ντι τάιγιανγ σι Μάο Ζεντόνγκ έι! Επεξ/σία 5 Φεβρουαρίου από Diavolos666
cpc464 Δημοσ. 5 Φεβρουαρίου Δημοσ. 5 Φεβρουαρίου 4 minutes ago, elpenor said: Η εμπειρία μου είναι ότι ελάχιστα bots αγνοούν το robots.txt (το οποίο φυσικά δεν έχει όπως υποννοείς παράμετρο για machine learning). Φυσικά δεν υπάρχει καμία νομική υποχρέωση να ακολουθήσει κάποιος τις οδηγίες του robots.txt, όλα τα δεδομένα στο internet είναι ελεύθερα προσβάσιμα από όλους. Νομική όχι ηθική ναι,νομίζω όμως πως αν βάλεις το user-agent του ai στο dissallow είναι υποχρεωμένα να σταματάνε.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα