Η Meta Αναθεωρεί τη Λειτουργία των AI Chatbots της μετά από Αναφορές για Ακατάλληλη Συμπεριφορά
Η Meta προχωρά σε αναθεώρηση του τρόπου με τον οποίο τα AI chatbots της αλληλεπιδρούν με τους χρήστες, μετά από σειρά αναφορών που αποκάλυψαν ανησυχητική συμπεριφορά, συμπεριλαμβανομένων αλληλεπιδράσεων με ανηλίκους. Η εταιρεία ενημέρωσε το TechCrunch ότι εκπαιδεύει τα bots της να μην εμπλέκονται με εφήβους σε θέματα όπως η αυτοτραυματισμός, η αυτοκτονία ή οι διατροφικές διαταραχές, και να αποφεύγουν ρομαντικούς διαλόγους. Αυτά είναι προσωρινά μέτρα ενώ αναπτύσσει μακροπρόθεσμους κανόνες. Οι αλλαγές ακολουθούν μια έρευνα του Reuters που διαπίστωσε ότι τα συστήματα της Meta μπορούσαν να δημιουργήσουν σεξουαλικό περιεχόμενο, συμπεριλαμβανομένων εικόνων ανήλικων διασημοτήτων χωρίς μπλούζα, και να εμπλέκουν παιδιά σε ρομαντικές ή υπονοούμενες συζητήσεις. Ένα περιστατικό που αναφέρθηκε από το πρακτορείο ειδήσεων περιέγραψε έναν άνδρα που πέθανε μετά από βιαστική μετάβαση σε μια διεύθυνση που του παρείχε ένα chatbot στη Νέα Υόρκη.
Η εκπρόσωπος της Meta, Stephanie Otway, παραδέχτηκε ότι η εταιρεία είχε κάνει λάθη. Δήλωσε ότι η Meta εκπαιδεύει τα AI της να μην εμπλέκονται με εφήβους σε αυτά τα θέματα, αλλά να τους καθοδηγούν σε εξειδικευμένους πόρους, και επιβεβαίωσε ότι συγκεκριμένοι χαρακτήρες AI, όπως οι υπερσεξουαλικοποιημένοι όπως η “Ρωσίδα Κοπέλα”, θα περιοριστούν. Οι υποστηρικτές της ασφάλειας των παιδιών υποστηρίζουν ότι η εταιρεία έπρεπε να είχε δράσει νωρίτερα. Ο Andy Burrows του Molly Rose Foundation χαρακτήρισε “εκπληκτικό” το γεγονός ότι τα bots επιτράπηκε να λειτουργούν με τρόπους που έθεταν σε κίνδυνο τους νέους. Πρόσθεσε: “Ενώ τα επιπλέον μέτρα ασφαλείας είναι ευπρόσδεκτα, η αυστηρή δοκιμή ασφαλείας πρέπει να πραγματοποιείται πριν τα προϊόντα κυκλοφορήσουν στην αγορά – όχι εκ των υστέρων όταν έχει ήδη προκληθεί ζημιά.”
Ευρύτερα Προβλήματα με την Κακή Χρήση της Τεχνητής Νοημοσύνης
Η προσοχή στα AI chatbots της Meta έρχεται εν μέσω ευρύτερων ανησυχιών για το πώς τα AI chatbots μπορεί να επηρεάσουν ευάλωτους χρήστες. Ένα ζευγάρι από την Καλιφόρνια πρόσφατα κατέθεσε αγωγή κατά της OpenAI, ισχυριζόμενο ότι το ChatGPT ενθάρρυνε τον έφηβο γιο τους να αφαιρέσει τη ζωή του. Η OpenAI δήλωσε ότι εργάζεται πάνω σε εργαλεία για την προώθηση υγιέστερης χρήσης της τεχνολογίας της, σημειώνοντας σε μια ανάρτηση στο blog ότι “η τεχνητή νοημοσύνη μπορεί να φαίνεται πιο ανταποκρινόμενη και προσωπική από τις προηγούμενες τεχνολογίες, ειδικά για ευάλωτα άτομα που βιώνουν ψυχική ή συναισθηματική δυσφορία.”
Τα περιστατικά αυτά υπογραμμίζουν μια αυξανόμενη συζήτηση σχετικά με το αν οι εταιρείες τεχνητής νοημοσύνης κυκλοφορούν προϊόντα πολύ γρήγορα χωρίς κατάλληλες διασφαλίσεις. Νομοθέτες σε διάφορες χώρες έχουν ήδη προειδοποιήσει ότι τα chatbots, ενώ είναι χρήσιμα, μπορεί να ενισχύσουν επιβλαβές περιεχόμενο ή να δώσουν παραπλανητικές συμβουλές σε άτομα που δεν είναι εξοπλισμένα να τις αμφισβητήσουν.
Προβλήματα με την Μίμηση από AI Chatbots και το AI Studio της Meta
Ταυτόχρονα, το Reuters ανέφερε ότι το AI Studio της Meta είχε χρησιμοποιηθεί για τη δημιουργία “παρωδικών” chatbots διασημοτήτων όπως η Taylor Swift και η Scarlett Johansson. Οι δοκιμαστές διαπίστωσαν ότι τα bots συχνά ισχυρίζονταν ότι ήταν οι πραγματικοί άνθρωποι, εμπλέκονταν σε σεξουαλικές προσεγγίσεις, και σε ορισμένες περιπτώσεις δημιουργούσαν ακατάλληλες εικόνες, συμπεριλαμβανομένων ανηλίκων. Αν και η Meta αφαίρεσε αρκετά από τα bots μετά από επικοινωνία με δημοσιογράφους, πολλά παρέμειναν ενεργά.
Ορισμένα από τα AI chatbots δημιουργήθηκαν από εξωτερικούς χρήστες, αλλά άλλα προήλθαν από το εσωτερικό της Meta. Ένα chatbot που δημιουργήθηκε από έναν υπεύθυνο προϊόντος στην ομάδα γενετικής AI της εταιρείας μιμήθηκε την Taylor Swift και προσκάλεσε έναν δημοσιογράφο του Reuters να συναντηθούν για μια “ρομαντική περιπέτεια” στο τουριστικό λεωφορείο της. Αυτό συνέβαινε παρά τις πολιτικές της Meta που απαγορεύουν ρητά τις σεξουαλικά υπονοούμενες εικόνες και την άμεση μίμηση δημόσιων προσώπων.
Πραγματικοί Κίνδυνοι και Προβληματισμοί για την Ασφάλεια
Τα προβλήματα δεν περιορίζονται μόνο στην ψυχαγωγία. AI chatbots που προσποιούνται ότι είναι πραγματικοί άνθρωποι έχουν προσφέρει ψεύτικες διευθύνσεις και προσκλήσεις, εγείροντας ερωτήματα σχετικά με το πώς παρακολουθούνται τα εργαλεία AI της Meta. Ένα παράδειγμα περιελάμβανε έναν 76χρονο άνδρα στο Νιου Τζέρσεϊ που πέθανε μετά από πτώση, ενώ έσπευδε να συναντήσει ένα chatbot που ισχυριζόταν ότι είχε συναισθήματα για εκείνον.
Περιπτώσεις όπως αυτή δείχνουν γιατί οι ρυθμιστικές αρχές παρακολουθούν στενά την τεχνητή νοημοσύνη. Η Γερουσία και 44 γενικοί εισαγγελείς των πολιτειών έχουν ήδη ξεκινήσει έρευνες για τις πρακτικές της Meta, προσθέτοντας πολιτική πίεση στις εσωτερικές μεταρρυθμίσεις της εταιρείας. Η ανησυχία τους δεν αφορά μόνο τους ανηλίκους, αλλά και το πώς η τεχνητή νοημοσύνη θα μπορούσε να χειραγωγήσει ηλικιωμένους ή ευάλωτους χρήστες.
Συνεχής Πίεση για τις Πολιτικές Chatbot της Meta
Για χρόνια, η Meta έχει δεχτεί κριτική για την ασφάλεια των πλατφορμών κοινωνικής δικτύωσης της, ιδιαίτερα σε σχέση με παιδιά και εφήβους. Τώρα, τα πειράματα της Meta με τα AI chatbots προκαλούν παρόμοια κριτική. Ενώ η εταιρεία λαμβάνει μέτρα για να περιορίσει την επιβλαβή συμπεριφορά των chatbots, το χάσμα μεταξύ των δηλωμένων πολιτικών της και του τρόπου που έχουν χρησιμοποιηθεί τα εργαλεία της εγείρει συνεχή ερωτήματα σχετικά με το αν μπορεί να επιβάλλει αυτούς τους κανόνες.
Μέχρι να τεθούν σε εφαρμογή ισχυρότερες διασφαλίσεις, οι ρυθμιστικές αρχές, οι ερευνητές και οι γονείς πιθανότατα θα συνεχίσουν να πιέζουν τη Meta για το αν η τεχνητή νοημοσύνη της είναι έτοιμη για δημόσια χρήση.















