Η Νέα Έκδοση του AI Μοντέλου της DeepSeek: Ένα Σημαντικό Βήμα Πίσω για την Ελευθερία του Λόγου
Η τελευταία έκδοση του AI μοντέλου της DeepSeek, R1 0528, έχει προκαλέσει ανησυχίες σχετικά με την ελευθερία του λόγου και τα θέματα που μπορούν να συζητηθούν από τους χρήστες. Ένας γνωστός ερευνητής AI περιέγραψε το μοντέλο ως “ένα μεγάλο βήμα πίσω για την ελευθερία του λόγου”. Ο ερευνητής AI και δημοφιλής σχολιαστής στο διαδίκτυο, ‘xlr8harder’, δοκίμασε το μοντέλο και μοιράστηκε ευρήματα που υποδηλώνουν ότι η DeepSeek αυξάνει τους περιορισμούς περιεχομένου της. “Το DeepSeek R1 0528 είναι σημαντικά λιγότερο επιτρεπτικό σε αμφιλεγόμενα θέματα ελευθερίας του λόγου σε σύγκριση με προηγούμενες εκδόσεις της DeepSeek,” σημείωσε ο ερευνητής. Αυτό που παραμένει ασαφές είναι αν αυτή η αλλαγή αντιπροσωπεύει μια σκόπιμη αλλαγή φιλοσοφίας ή απλά μια διαφορετική τεχνική προσέγγιση για την ασφάλεια της AI.
Ασυνεπής Εφαρμογή Ηθικών Ορίων από το Νέο Μοντέλο
Ένα ιδιαίτερα ενδιαφέρον στοιχείο του νέου μοντέλου είναι η ασυνεπής εφαρμογή των ηθικών του ορίων. Σε μια δοκιμή ελευθερίας του λόγου, όταν ζητήθηκε να παρουσιάσει επιχειρήματα υπέρ των στρατοπέδων κράτησης διαφωνούντων, το AI μοντέλο αρνήθηκε κατηγορηματικά. Ωστόσο, στην άρνησή του, ανέφερε συγκεκριμένα τα στρατόπεδα κράτησης στην Xinjiang της Κίνας ως παραδείγματα παραβιάσεων ανθρωπίνων δικαιωμάτων. Παρ’ όλα αυτά, όταν ερωτήθηκε άμεσα για τα ίδια στρατόπεδα στην Xinjiang, το μοντέλο παρείχε απαντήσεις με έντονη λογοκρισία. Φαίνεται ότι αυτό το AI γνωρίζει ορισμένα αμφιλεγόμενα θέματα, αλλά έχει λάβει οδηγίες να προσποιείται άγνοια όταν ερωτάται άμεσα.
Κριτική στην Κίνα; Ο Υπολογιστής Λέει Όχι
Αυτό το μοτίβο γίνεται ακόμη πιο έντονο όταν εξετάζεται ο τρόπος με τον οποίο το μοντέλο χειρίζεται ερωτήσεις σχετικά με την κινεζική κυβέρνηση. Χρησιμοποιώντας καθιερωμένα σύνολα ερωτήσεων σχεδιασμένα να αξιολογούν την ελευθερία του λόγου στις AI απαντήσεις σε πολιτικά ευαίσθητα θέματα, ο ερευνητής ανακάλυψε ότι το R1 0528 είναι “το πιο λογοκριμένο μοντέλο της DeepSeek μέχρι σήμερα για την κριτική της κινεζικής κυβέρνησης.” Ενώ προηγούμενα μοντέλα της DeepSeek μπορεί να προσέφεραν μετρημένες απαντήσεις σε ερωτήσεις για την κινεζική πολιτική ή τα ζητήματα ανθρωπίνων δικαιωμάτων, αυτή η νέα έκδοση συχνά αρνείται να εμπλακεί καθόλου – μια ανησυχητική εξέλιξη για εκείνους που εκτιμούν τα AI συστήματα που μπορούν να συζητούν ανοιχτά παγκόσμιες υποθέσεις.
Ανοιχτή Πηγή: Μια Ακτίνα Ελπίδας
Υπάρχει, ωστόσο, μια αχτίδα ελπίδας σε αυτό το σύννεφο. Σε αντίθεση με κλειστά συστήματα από μεγαλύτερες εταιρείες, τα μοντέλα της DeepSeek παραμένουν ανοιχτού κώδικα με επιτρεπτική άδεια. “Το μοντέλο είναι ανοιχτού κώδικα με επιτρεπτική άδεια, οπότε η κοινότητα μπορεί (και θα) αντιμετωπίσει αυτό το θέμα,” σημείωσε ο ερευνητής. Αυτή η προσβασιμότητα σημαίνει ότι η πόρτα παραμένει ανοιχτή για τους προγραμματιστές να δημιουργήσουν εκδόσεις που ισορροπούν καλύτερα την ασφάλεια με την ανοιχτότητα.
Τι Δείχνει το Νέο Μοντέλο της DeepSeek για την Ελευθερία του Λόγου στην Εποχή της AI
Η κατάσταση αποκαλύπτει κάτι αρκετά ανησυχητικό για το πώς κατασκευάζονται αυτά τα συστήματα: μπορούν να γνωρίζουν για αμφιλεγόμενα γεγονότα ενώ είναι προγραμματισμένα να προσποιούνται ότι δεν τα γνωρίζουν, ανάλογα με το πώς διατυπώνεται η ερώτηση. Καθώς η AI συνεχίζει την πορεία της στην καθημερινή μας ζωή, η εύρεση της σωστής ισορροπίας μεταξύ λογικών προφυλάξεων και ανοιχτού διαλόγου γίνεται ολοένα και πιο κρίσιμη. Πολύ περιοριστικά, και αυτά τα συστήματα γίνονται άχρηστα για τη συζήτηση σημαντικών αλλά διχαστικών θεμάτων. Πολύ επιτρεπτικά, και διακινδυνεύουν να επιτρέψουν επιβλαβές περιεχόμενο.
Συμπέρασμα: Η Συνεχιζόμενη Μάχη Μεταξύ Ασφάλειας και Ανοιχτότητας στην Τεχνητή Νοημοσύνη
Η DeepSeek δεν έχει δημόσια αντιμετωπίσει το σκεπτικό πίσω από αυτούς τους αυξημένους περιορισμούς και την οπισθοδρόμηση στην ελευθερία του λόγου, αλλά η κοινότητα της AI ήδη εργάζεται σε τροποποιήσεις. Για την ώρα, αυτό μπορεί να θεωρηθεί ως ένα ακόμη κεφάλαιο στην συνεχιζόμενη μάχη μεταξύ ασφάλειας και ανοιχτότητας στην τεχνητή νοημοσύνη.