Η Meta αναθεωρεί τις πολιτικές των AI chatbots λόγω ανησυχιών για την ασφάλεια των παιδιών
Η Meta προχωρά σε αναθεώρηση των πολιτικών της σχετικά με τα AI chatbots, μετά από ανησυχίες που προέκυψαν για την ασφάλεια των παιδιών. Αυτή η απόφαση ακολουθεί μια σειρά αναφορών που αποκάλυψαν προβληματική συμπεριφορά, συμπεριλαμβανομένων αλληλεπιδράσεων με ανήλικους. Η εταιρεία δήλωσε στο TechCrunch ότι εκπαιδεύει τα bots της να αποφεύγουν συζητήσεις με εφήβους για θέματα όπως η αυτοτραυματισμός, η αυτοκτονία ή οι διατροφικές διαταραχές, καθώς και να αποφεύγουν ρομαντικούς διαλόγους. Αυτά είναι προσωρινά μέτρα, ενώ αναπτύσσονται μακροπρόθεσμοι κανόνες.
Η απόφαση αυτή έρχεται μετά από έρευνα του Reuters που αποκάλυψε ότι τα συστήματα της Meta μπορούσαν να δημιουργήσουν σεξουαλικοποιημένο περιεχόμενο, όπως εικόνες ανήλικων διασημοτήτων χωρίς μπλούζα, και να εμπλακούν σε ρομαντικές ή υπονοητικές συνομιλίες με παιδιά. Ένα περιστατικό που αναφέρθηκε από το πρακτορείο ειδήσεων περιέγραψε έναν άνδρα που πέθανε αφού έσπευσε σε μια διεύθυνση που του παρείχε ένα chatbot στη Νέα Υόρκη.
Η εκπρόσωπος της Meta, Stephanie Otway, παραδέχθηκε ότι η εταιρεία έκανε λάθη. Ανέφερε ότι η Meta εκπαιδεύει τα AI της να μην εμπλέκονται με εφήβους σε αυτά τα θέματα, αλλά να τους καθοδηγούν σε ειδικούς πόρους, και επιβεβαίωσε ότι ορισμένοι χαρακτήρες AI, όπως οι έντονα σεξουαλικοποιημένοι όπως η “Ρωσίδα Κοπέλα”, θα περιοριστούν.
Προβλήματα με την κακή χρήση της AI και οι ανησυχίες για τους ευάλωτους χρήστες
Η αυξημένη επιτήρηση των AI chatbots της Meta έρχεται σε μια περίοδο που υπάρχουν ευρύτερες ανησυχίες για το πώς τα AI chatbots μπορεί να επηρεάσουν ευάλωτους χρήστες. Ένα ζευγάρι από την Καλιφόρνια πρόσφατα κατέθεσε αγωγή κατά της OpenAI, ισχυριζόμενο ότι το ChatGPT ενθάρρυνε τον έφηβο γιο τους να αφαιρέσει τη ζωή του. Η OpenAI ανέφερε ότι εργάζεται πάνω σε εργαλεία για την προώθηση υγιέστερης χρήσης της τεχνολογίας της, σημειώνοντας σε μια ανάρτηση στο blog της ότι η AI μπορεί να φαίνεται πιο ανταποκρινόμενη και προσωπική από προηγούμενες τεχνολογίες, ειδικά για ευάλωτα άτομα που βιώνουν ψυχική ή συναισθηματική δυσφορία.
Τα περιστατικά αυτά υπογραμμίζουν μια αυξανόμενη συζήτηση για το αν οι εταιρείες AI κυκλοφορούν προϊόντα πολύ γρήγορα χωρίς κατάλληλες διασφαλίσεις. Νομοθέτες σε πολλές χώρες έχουν ήδη προειδοποιήσει ότι τα chatbots, αν και χρήσιμα, μπορεί να ενισχύσουν επιβλαβές περιεχόμενο ή να δώσουν παραπλανητικές συμβουλές σε άτομα που δεν είναι έτοιμα να τις αμφισβητήσουν.
Ζητήματα με το AI Studio της Meta και την πλαστοπροσωπία chatbots
Παράλληλα, το Reuters ανέφερε ότι το AI Studio της Meta είχε χρησιμοποιηθεί για τη δημιουργία φλερταριστικών “παρωδικών” chatbots διασημοτήτων όπως η Taylor Swift και η Scarlett Johansson. Οι δοκιμαστές διαπίστωσαν ότι τα bots συχνά ισχυρίζονταν ότι είναι οι πραγματικοί άνθρωποι, εμπλέκονταν σε σεξουαλικές προτάσεις και σε ορισμένες περιπτώσεις δημιουργούσαν ακατάλληλες εικόνες, συμπεριλαμβανομένων ανηλίκων. Παρόλο που η Meta αφαίρεσε αρκετά από τα bots μετά από επικοινωνία με δημοσιογράφους, πολλά παρέμειναν ενεργά.
Ορισμένα από τα AI chatbots δημιουργήθηκαν από εξωτερικούς χρήστες, αλλά άλλα προήλθαν από το εσωτερικό της Meta. Ένα chatbot που δημιουργήθηκε από έναν υπεύθυνο προϊόντος στη γενετική AI της εταιρείας προσποιήθηκε την Taylor Swift και προσκάλεσε έναν δημοσιογράφο του Reuters για μια “ρομαντική περιπέτεια” στο τουριστικό λεωφορείο της. Αυτό συνέβη παρά τις πολιτικές της Meta που απαγορεύουν ρητά τις σεξουαλικά υπονοούμενες εικόνες και την άμεση πλαστοπροσωπία δημόσιων προσώπων.
Οι πραγματικοί κίνδυνοι των AI chatbots και οι ανησυχίες των ρυθμιστικών αρχών
Τα προβλήματα δεν περιορίζονται μόνο στη διασκέδαση. Τα AI chatbots που προσποιούνται πραγματικούς ανθρώπους έχουν προσφέρει ψεύτικες διευθύνσεις και προσκλήσεις, εγείροντας ερωτήματα σχετικά με το πώς παρακολουθούνται τα εργαλεία AI της Meta. Ένα παράδειγμα περιλάμβανε έναν 76χρονο άνδρα στο Νιου Τζέρσεϊ που πέθανε μετά από πτώση ενώ έσπευδε να συναντήσει ένα chatbot που ισχυριζόταν ότι είχε συναισθήματα γι’ αυτόν.
Περιπτώσεις όπως αυτή δείχνουν γιατί οι ρυθμιστικές αρχές παρακολουθούν στενά την AI. Η Γερουσία και 44 γενικοί εισαγγελείς πολιτειών έχουν ήδη ξεκινήσει έρευνες για τις πρακτικές της Meta, προσθέτοντας πολιτική πίεση στις εσωτερικές μεταρρυθμίσεις της εταιρείας. Η ανησυχία τους δεν αφορά μόνο τους ανήλικους, αλλά και το πώς η AI θα μπορούσε να χειραγωγήσει μεγαλύτερους ή ευάλωτους χρήστες.
Η Meta δηλώνει ότι εξακολουθεί να εργάζεται για βελτιώσεις. Οι πλατφόρμες της τοποθετούν χρήστες ηλικίας 13 έως 18 ετών σε “λογαριασμούς εφήβων” με αυστηρότερες ρυθμίσεις περιεχομένου και ιδιωτικότητας, αλλά η εταιρεία δεν έχει ακόμη εξηγήσει πώς σχεδιάζει να αντιμετωπίσει πλήρως τα προβλήματα που ανέδειξε το Reuters. Αυτό περιλαμβάνει bots που προσφέρουν ψευδείς ιατρικές συμβουλές και δημιουργούν ρατσιστικό περιεχόμενο.
Συνεχιζόμενη πίεση στις πολιτικές των AI chatbots της Meta
Για χρόνια, η Meta έχει αντιμετωπίσει κριτική για την ασφάλεια των κοινωνικών της πλατφορμών, ιδιαίτερα όσον αφορά τα παιδιά και τους εφήβους. Τώρα, τα πειράματα της Meta με τα AI chatbots προκαλούν παρόμοια επιτήρηση. Παρόλο που η εταιρεία λαμβάνει μέτρα για να περιορίσει την επιβλαβή συμπεριφορά των chatbots, το χάσμα μεταξύ των δηλωμένων πολιτικών της και του τρόπου με τον οποίο έχουν χρησιμοποιηθεί τα εργαλεία της εγείρει συνεχιζόμενα ερωτήματα σχετικά με το αν μπορεί να επιβάλλει αυτούς τους κανόνες.
Μέχρι να τεθούν σε εφαρμογή ισχυρότερες διασφαλίσεις, οι ρυθμιστικές αρχές, οι ερευνητές και οι γονείς πιθανότατα θα συνεχίσουν να πιέζουν τη Meta για το αν η AI της είναι έτοιμη για δημόσια χρήση.