Η αυξανόμενη χρήση των AI βοηθών για τον έλεγχο γεγονότων προκαλεί ανησυχίες
Η χρήση των ψηφιακών βοηθών τεχνητής νοημοσύνης για τον έλεγχο γεγονότων έχει αρχίσει να προκαλεί ανησυχίες μεταξύ των ανθρώπινων ελεγκτών γεγονότων, καθώς οι χρήστες της πλατφόρμας X του Elon Musk στρέφονται προς τον Grok, το AI bot της xAI, για να επιβεβαιώσουν πληροφορίες. Η πλατφόρμα X πρόσφατα επέτρεψε στους χρήστες να απευθύνουν ερωτήσεις στον Grok, μια κίνηση που θυμίζει την προσέγγιση της Perplexity, η οποία προσφέρει παρόμοιες υπηρεσίες μέσω ενός αυτοματοποιημένου λογαριασμού. Οι χρήστες από διάφορες αγορές, όπως η Ινδία, άρχισαν να ζητούν από τον Grok να ελέγξει σχόλια και ερωτήσεις που σχετίζονται με συγκεκριμένες πολιτικές πεποιθήσεις. Οι ελεγκτές γεγονότων ανησυχούν ότι τέτοιου είδους χρήση μπορεί να οδηγήσει στη διάδοση παραπληροφόρησης, καθώς οι απαντήσεις των bots μπορεί να ακούγονται πειστικές, ακόμα και αν δεν είναι ακριβείς.
Οι κίνδυνοι της παραπληροφόρησης από τα AI bots
Η παραπληροφόρηση που μπορεί να προκύψει από τη χρήση των AI βοηθών δεν είναι ένα νέο φαινόμενο. Πέρυσι, οι γραμματείς πέντε πολιτειών των ΗΠΑ ζήτησαν από τον Musk να προβεί σε αλλαγές στον Grok, μετά την εμφάνιση παραπλανητικών πληροφοριών που δημιούργησε το bot πριν τις εκλογές. Παρόμοια προβλήματα παρατηρήθηκαν και με άλλα chatbots, όπως το ChatGPT της OpenAI και το Gemini της Google, τα οποία επίσης παρήγαγαν ανακριβείς πληροφορίες κατά τη διάρκεια των εκλογών. Οι ερευνητές παραπληροφόρησης διαπίστωσαν ότι τα AI chatbots μπορούν εύκολα να δημιουργήσουν κείμενα με παραπλανητικές αφηγήσεις. Αυτή η ικανότητα των AI να παράγουν φυσικό λόγο που ακούγεται αυθεντικός, ακόμα και όταν είναι λανθασμένος, αποτελεί σοβαρό κίνδυνο.
Η διαφορά μεταξύ ανθρώπινων και ψηφιακών ελεγκτών γεγονότων
Σε αντίθεση με τα AI bots, οι ανθρώπινοι ελεγκτές γεγονότων χρησιμοποιούν πολλαπλές, αξιόπιστες πηγές για να επαληθεύσουν τις πληροφορίες και αναλαμβάνουν πλήρως την ευθύνη για τα ευρήματά τους. Ο Pratik Sinha, συνιδρυτής της ινδικής μη κερδοσκοπικής ιστοσελίδας ελέγχου γεγονότων Alt News, επισημαίνει ότι, αν και ο Grok μπορεί να δίνει πειστικές απαντήσεις, η ακρίβειά του εξαρτάται από τα δεδομένα που του παρέχονται. Η έλλειψη διαφάνειας σχετικά με το ποια δεδομένα χρησιμοποιούνται για την εκπαίδευση του Grok μπορεί να οδηγήσει σε κυβερνητικές παρεμβάσεις και άλλες μορφές χειραγώγησης.
Οι κοινωνικές επιπτώσεις της παραπληροφόρησης μέσω AI
Η δημόσια διάδοση πληροφοριών μέσω πλατφορμών κοινωνικής δικτύωσης από AI βοηθούς, όπως ο Grok, μπορεί να έχει σοβαρές κοινωνικές επιπτώσεις. Ακόμα και αν ένας χρήστης γνωρίζει ότι οι πληροφορίες μπορεί να είναι ανακριβείς, άλλοι χρήστες μπορεί να τις πιστέψουν, οδηγώντας σε κοινωνικές βλάβες. Παραδείγματα τέτοιων επιπτώσεων έχουν παρατηρηθεί στην Ινδία, όπου η παραπληροφόρηση οδήγησε σε βίαια επεισόδια. Η έλευση της γενετικής τεχνητής νοημοσύνης έχει κάνει τη δημιουργία συνθετικού περιεχομένου ακόμα πιο εύκολη και ρεαλιστική, αυξάνοντας τον κίνδυνο παραπληροφόρησης.
Η αναγκαιότητα της ανθρώπινης παρέμβασης στον έλεγχο γεγονότων
Παρόλο που οι τεχνολογικές εταιρείες προσπαθούν να βελτιώσουν τα μοντέλα AI τους για να επικοινωνούν πιο φυσικά, δεν μπορούν να αντικαταστήσουν τους ανθρώπους. Οι πλατφόρμες, όπως η X και η Meta, εξερευνούν τρόπους για να μειώσουν την εξάρτηση από τους ανθρώπινους ελεγκτές γεγονότων, υιοθετώντας την ιδέα του crowdsourced fact-checking μέσω των Community Notes. Ωστόσο, τέτοιες αλλαγές προκαλούν ανησυχία στους ελεγκτές γεγονότων. Ο Sinha πιστεύει ότι οι άνθρωποι θα μάθουν να διακρίνουν μεταξύ των μηχανών και των ανθρώπινων ελεγκτών γεγονότων, εκτιμώντας περισσότερο την ακρίβεια των τελευταίων. Η διευθύντρια του International Fact-Checking Network, Angie Holan, σημειώνει ότι οι ελεγκτές γεγονότων θα έχουν περισσότερο έργο να επιτελέσουν με την ταχεία διάδοση των AI-generated πληροφοριών.















