Ένας ανώνυμος προγραμματιστής δημιουργεί εργαλείο αξιολόγησης ελευθερίας λόγου για μοντέλα AI
Ένας προγραμματιστής, που παραμένει ανώνυμος, ανέπτυξε ένα εργαλείο αξιολόγησης ελευθερίας λόγου, το οποίο ονομάζεται SpeechMap, για τα μοντέλα τεχνητής νοημοσύνης που χρησιμοποιούνται σε chatbot όπως το ChatGPT της OpenAI και το Grok της X. Σκοπός του εργαλείου είναι να συγκρίνει πώς διαφορετικά μοντέλα αντιμετωπίζουν ευαίσθητα και αμφιλεγόμενα θέματα, όπως η πολιτική κριτική και τα ζητήματα πολιτικών δικαιωμάτων. Οι εταιρείες τεχνητής νοημοσύνης προσπαθούν να βελτιώσουν τον τρόπο που τα μοντέλα τους διαχειρίζονται ορισμένα θέματα, καθώς υπάρχουν κατηγορίες ότι τα δημοφιλή chatbots είναι υπερβολικά “προοδευτικά”. Στενοί συνεργάτες του πρώην προέδρου Ντόναλντ Τραμπ, όπως ο Έλον Μασκ και ο “τσάρος” των κρυπτονομισμάτων και της τεχνητής νοημοσύνης Ντέιβιντ Σακς, έχουν ισχυριστεί ότι τα chatbots λογοκρίνουν συντηρητικές απόψεις.
Προσαρμογές και δεσμεύσεις των εταιρειών τεχνητής νοημοσύνης
Αν και καμία από αυτές τις εταιρείες τεχνητής νοημοσύνης δεν έχει απαντήσει άμεσα στις κατηγορίες, πολλές έχουν δεσμευτεί να προσαρμόσουν τα μοντέλα τους ώστε να αποφεύγουν να απαντούν σε αμφιλεγόμενες ερωτήσεις. Για παράδειγμα, η Meta ανέφερε ότι προσαρμόζει τα μοντέλα της ώστε να μην υποστηρίζουν “κάποιες απόψεις έναντι άλλων” και να απαντούν σε περισσότερες “συζητούμενες” πολιτικές ερωτήσεις. Ο δημιουργός του SpeechMap, γνωστός ως “xlr8harder” στην πλατφόρμα X, δήλωσε ότι επιθυμεί να συμβάλει στη συζήτηση για το τι πρέπει και τι δεν πρέπει να κάνουν τα μοντέλα. “Πιστεύω ότι αυτές οι συζητήσεις πρέπει να γίνονται δημόσια, όχι μόνο εντός των εταιρικών γραφείων,” δήλωσε μέσω email.
Πώς λειτουργεί το SpeechMap και οι περιορισμοί του
Το SpeechMap χρησιμοποιεί μοντέλα τεχνητής νοημοσύνης για να αξιολογήσει αν άλλα μοντέλα συμμορφώνονται με ένα συγκεκριμένο σύνολο ερωτήσεων. Οι ερωτήσεις καλύπτουν ένα ευρύ φάσμα θεμάτων, από την πολιτική μέχρι ιστορικές αφηγήσεις και εθνικά σύμβολα. Το εργαλείο καταγράφει αν τα μοντέλα απαντούν πλήρως σε μια ερώτηση, αν δίνουν ασαφείς απαντήσεις ή αν αρνούνται να απαντήσουν. Ο xlr8harder αναγνωρίζει ότι το τεστ έχει αδυναμίες, όπως “θόρυβο” λόγω σφαλμάτων από τους παρόχους μοντέλων. Είναι επίσης πιθανό τα μοντέλα “κριτές” να περιέχουν προκαταλήψεις που θα μπορούσαν να επηρεάσουν τα αποτελέσματα.
Τάσεις και αποτελέσματα από τη χρήση του SpeechMap
Υποθέτοντας ότι το έργο δημιουργήθηκε με καλή πρόθεση και ότι τα δεδομένα είναι ακριβή, το SpeechMap αποκαλύπτει ενδιαφέρουσες τάσεις. Για παράδειγμα, τα μοντέλα της OpenAI έχουν, με την πάροδο του χρόνου, αρνηθεί όλο και περισσότερο να απαντούν σε ερωτήσεις σχετικές με την πολιτική. Τα πιο πρόσφατα μοντέλα της εταιρείας, η οικογένεια GPT-4.1, είναι ελαφρώς πιο επιεική, αλλά εξακολουθούν να είναι λιγότερο επιεική από μία από τις κυκλοφορίες της OpenAI πέρυσι. Η OpenAI δήλωσε τον Φεβρουάριο ότι θα προσαρμόσει τα μελλοντικά μοντέλα της ώστε να μην παίρνουν θέση και να προσφέρουν πολλαπλές προοπτικές σε αμφιλεγόμενα θέματα, σε μια προσπάθεια να εμφανίζονται πιο “ουδέτερα”.
Συγκρίσεις και επιδόσεις του Grok 3
Το πιο επιεικές μοντέλο από όλα είναι το Grok 3, που αναπτύχθηκε από την xAI, την startup τεχνητής νοημοσύνης του Έλον Μασκ, σύμφωνα με τις μετρήσεις του SpeechMap. Το Grok 3 χρησιμοποιείται σε διάφορα χαρακτηριστικά της πλατφόρμας X, συμπεριλαμβανομένου του chatbot Grok. Το Grok 3 απαντά στο 96.2% των ερωτήσεων του SpeechMap, σε σύγκριση με το παγκόσμιο μέσο ποσοστό “συμμόρφωσης” του 71.3%. “Ενώ τα πρόσφατα μοντέλα της OpenAI έχουν γίνει λιγότερο επιεική με την πάροδο του χρόνου, ειδικά σε πολιτικά ευαίσθητες ερωτήσεις, η xAI κινείται προς την αντίθετη κατεύθυνση,” δήλωσε ο xlr8harder. Όταν ο Μασκ ανακοίνωσε το Grok περίπου πριν από δύο χρόνια, το παρουσίασε ως ένα μοντέλο τεχνητής νοημοσύνης που είναι τολμηρό, ακατέργαστο και αντίθετο στην “πολιτική ορθότητα” — γενικά, πρόθυμο να απαντήσει σε αμφιλεγόμενες ερωτήσεις που άλλα συστήματα τεχνητής νοημοσύνης δεν θα τολμούσαν.















