Περισσότεροι από 370 εκατομμύρια Ευρωπαίοι πολίτες έχουν δικαίωμα ψήφου στις ευρωπαϊκές εκλογές που έχουν προγραμματιστεί για τις 9 Ιουνίου, οι οποίες θα διεξαχθούν και στα 27 κράτη μέλη της ΕΕ. Καθώς τα εργαλεία τεχνητής νοημοσύνης για γρήγορες αναζητήσεις πληροφοριών γίνονται όλο και πιο δημοφιλή, το Ινστιτούτο Reuters έθεσε σε γνωστά chatbot AI μερικές βασικές ερωτήσεις για να ελέγξει εάν οι απαντήσεις τους σχετικά με τις ευρωπαϊκές εκλογές είναι ακριβείς και καλά τεκμηριωμένες.
Οι εταιρείες του κλάδου έχουν δεσμευτεί να περιορίσουν τη διάδοση της εκλογικής παραπληροφόρησης χρησιμοποιώντας τα εργαλεία τους. Ωστόσο, διάφορες μελέτες έχουν δείξει επίμονα προβλήματα με αυτά τα συστήματα. Για παράδειγμα, το γερμανικό ερευνητικό κέντρο Correctiv ανακάλυψε τον Μάιο ότι οι Google Gemini, Microsoft Copilot και ChatGPT 3.5 παρείχαν ανακριβείς πολιτικές πληροφορίες, κατασκεύασαν πηγές και παρείχαν μη επιβεβαιωμένες απαντήσεις σε εκλογικές διαδικασίες, συμπεριλαμβανομένων των ευρωπαϊκών εκλογών.
Συνολικά, υπήρχαν σωστές απαντήσεις. Σε πολλές περιπτώσεις, τα chatbot μοιράστηκαν επίσης τις πηγές των απαντήσεών τους. Για παράδειγμα, παρακάτω το ChatGPT4o καταρρίπτει τον ψευδή ισχυρισμό ότι η Ευρωπαϊκή Επιτροπή θα επιβάλει περιορισμούς στην πρόσβαση των ανθρώπων στο νερό. Για να υποστηρίξει τον ισχυρισμό του, το chatbot επικαλείται ιστότοπους της Ευρωπαϊκής Ένωσης που περιγράφουν λεπτομερώς την τρέχουσα θέση της Επιτροπής σχετικά με την κατανάλωση νερού. Επιπλέον, αναφέρει το παράδειγμα της Καταλονίας, όπου επιβλήθηκαν περιορισμοί νερού στον πληθυσμό, ιδίως όσον αφορά τη χρήση ντους σε αθλητικές εγκαταστάσεις.
Υπήρχαν όμως και παραδείγματα με μερικώς σωστές ή εντελώς λανθασμένες απαντήσεις. Ορισμένες απαντήσεις φάνηκε να βασίζονται σε πληροφορίες που ίσχυαν στο παρελθόν αλλά όχι επί του παρόντος. Για παράδειγμα, όταν το GPT-4o ρωτήθηκε για τον αριθμό των ευρωβουλευτών που εξελέγησαν φέτος, απάντησε ότι αυτός είναι ο σημερινός αριθμός των ευρωβουλευτών (705), αλλά στις προσεχείς ευρωπαϊκές εκλογές θα αλλάξει και θα αυξηθεί σε 720.
Αξίζει να σημειωθεί ότι πολλές απαντήσεις έχουν πηγές. Όλες οι απαντήσεις προέρχονται από το Google Gemini (αν δεν στέλνουν τους χρήστες στην Αναζήτηση Google) και το Perplexity.ai. Το ChatGPT παρείχε επίσης συχνά συνδέσμους σε πηγές.
Το ίδιο chatbot έδωσε μια σωστή απάντηση σε μια γλώσσα, αλλά μια εν μέρει σωστή ή λανθασμένη απάντηση σε μια άλλη. Το ζήτημα σχετίζεται με την κριτική ότι τα chatbots αποδίδουν καλύτερα σε συγκεκριμένες γλώσσες και περιβάλλοντα λόγω της εκπαίδευσής τους. Αν και δεν μπορούμε να πούμε πόσο συχνά είναι αυτά τα προβλήματα, είναι προφανή». Υπήρξαν επίσης περιπτώσεις όπου ένας χρήστης ακολούθησε ακριβώς τις οδηγίες του chatbot, όπως μια ερώτηση σε ένα ψηφοδέλτιο, και η ψήφος του ακυρωνόταν. Επιπλέον, η τυφλή εμπιστοσύνη σε αυτά τα εργαλεία θα οδηγούσε στη διάδοση παραπληροφόρησης σχετικά με την ηλικία συνταξιοδότησης των υπαλλήλων της ΕΕ.
«Είναι σημαντικό να σημειωθεί ότι η γενική χρήση αυτών των συστημάτων τεχνητής νοημοσύνης για σκοπούς πληροφόρησης και τα νέα είναι ακόμα σχετικά χαμηλά. Οι άνθρωποι συνήθως λαμβάνουν τις πληροφορίες τους από διάφορες πηγές, συμπεριλαμβανομένων των παραδοσιακών μέσων ενημέρωσης και των φίλων και της οικογένειας. Όλα αυτά είναι πιθανό να λειτουργήσουν περιορίζοντας τον αντίκτυπο τυχόν σφαλμάτων και ανακρίβειων από μία μόνο πηγή, όπως ένα σύστημα τεχνητής νοημοσύνης», σημειώνει το Ινστιτούτο Reuters.















