Λιγότερο από δύο εβδομάδες μετά την κυκλοφορία του μοντέλου τεχνητής νοημοσύνης ανοιχτού κώδικα DeepSeek-R1, το περιοδικό WIRED πραγματοποίησε εκτενή έρευνα για τους μηχανισμούς λογοκρισίας που ενσωματώνει η κινεζική startup. Οι δοκιμές, που διεξήχθησαν σε τρεις διαφορετικές πλατφόρμες - την επίσημη εφαρμογή της DeepSeek, την πλατφόρμα Together AI και μια τοπική εγκατάσταση μέσω Ollama - αποκάλυψαν πολλαπλά επίπεδα περιορισμών.
Το μοντέλο R1, που έχει κερδίσει την προσοχή της διεθνούς κοινότητας για τις εξαιρετικές επιδόσεις του σε μαθηματικά και συλλογισμούς συγκριτικά με τους αμερικανικούς ανταγωνιστές, εφαρμόζει αυστηρή λογοκρισία σε ερωτήσεις σχετικές με ευαίσθητα για την Κίνα θέματα. Η λογοκρισία εκδηλώνεται με δύο διακριτούς τρόπους: άμεση άρνηση απάντησης ή παροχή απαντήσεων που ευθυγραμμίζονται με την επίσημη κινεζική θέση.
Η έρευνα αποκάλυψε πως οι περιορισμοί λειτουργούν σε δύο επίπεδα. Στο επίπεδο εφαρμογής, το μοντέλο απλά αρνείται να απαντήσει σε συγκεκριμένες ερωτήσεις όταν χρησιμοποιείται μέσω των επίσημων καναλιών της DeepSeek. Σε βαθύτερο επίπεδο, υπάρχουν προκαταλήψεις που έχουν ενσωματωθεί κατά την εκπαίδευση του μοντέλου και επηρεάζουν τον τρόπο που επεξεργάζεται την πληροφορία.
Η Adina Yakefu, ερευνήτρια της Hugging Face, εξηγεί πως η συμμόρφωση με τους κινεζικούς κανονισμούς δεν αποτελεί απλώς επιλογή αλλά νομική υποχρέωση. Ένας νόμος του 2023 απαιτεί από τα μοντέλα AI να ακολουθούν αυστηρούς ελέγχους πληροφοριών, παρόμοιους με αυτούς που ισχύουν για τα μέσα κοινωνικής δικτύωσης και τις μηχανές αναζήτησης. Συγκεκριμένα, απαγορεύεται η παραγωγή περιεχομένου που θα μπορούσε να "βλάψει την ενότητα της χώρας και την κοινωνική αρμονία".
Το ανοιχτό μοντέλο του DeepSeek προσφέρει δυνατότητες παράκαμψης της λογοκρισίας. Οι χρήστες μπορούν να εκτελέσουν το μοντέλο τοπικά στον υπολογιστή τους, αν και αυτό περιορίζει την πρόσβαση στις πιο ισχυρές εκδόσεις του λόγω απαιτήσεων σε υπολογιστική ισχύ. Εναλλακτικά, μπορούν να χρησιμοποιήσουν cloud servers εκτός Κίνας, μια λύση που απαιτεί περισσότερη τεχνική γνώση και υψηλότερο κόστος.
Εταιρείες όπως η Perplexity έχουν ήδη ενσωματώσει τροποποιημένες εκδόσεις του R1 στις υπηρεσίες τους. Ο Dmitry Shevelenko, διευθυντής επιχειρηματικής ανάπτυξης της Perplexity, αποκαλύπτει πως η εταιρεία εντόπισε και αντιμετώπισε τις προκαταλήψεις του μοντέλου πριν την ενσωμάτωσή του, χωρίς ωστόσο να αποκαλύπτει τις συγκεκριμένες μεθόδους για να αποφύγει πιθανά αντίμετρα από την DeepSeek.
Ο Kevin Xu, επενδυτής και ιδρυτής του newsletter Interconnected, προσφέρει μια πραγματιστική οπτική. Εκτιμά πως οι περιορισμοί δεν θα αποτρέψουν τις επιχειρήσεις από τη χρήση του μοντέλου, καθώς τα ευαίσθητα πολιτικά θέματα σπάνια επηρεάζουν εφαρμογές όπως ο προγραμματισμός, τα μαθηματικά ή η ανάλυση επιχειρηματικών δεδομένων.
Ο Leonard Lin της Shisa.AI προσθέτει μια ενδιαφέρουσα διάσταση, επισημαίνοντας πως τα κινεζικά μοντέλα όπως το Qwen και το DeepSeek προσφέρουν κορυφαίες επιδόσεις στην επεξεργασία της ιαπωνικής γλώσσας. Η εταιρεία του πειραματίζεται με την αφαίρεση των περιορισμών, αναγνωρίζοντας παράλληλα πως όλα τα μοντέλα AI έχουν κάποιου είδους προκατάληψη, απλώς σε διαφορετικά θέματα.
ΣΧΟΛΙΑ (30)
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώραΔημοσίευση ως Επισκέπτης
· Αποσύνδεση