Το “Adult Mode” της OpenAI προκαλεί πολιτισμικό σοκ και θέτει νέα όρια στην ελευθερία της Τεχνητής Νοημοσύνης.
Σε πρόσφατες δηλώσεις του, ο Sam Altman, CEO της OpenAI, υπογράμμισε ότι η εταιρεία του δεν αναλαμβάνει τον ρόλο της «ηθικής αστυνομίας». Αντίθετα, επεξεργάζεται την ιδέα ενός «Adult Mode» για το ChatGPT, στο οποίο ενήλικοι χρήστες θα μπορούν να έχουν μεγαλύτερη ελευθερία όσον αφορά το περιεχόμενο, υπό προϋποθέσεις. Η ανακοίνωση πυροδότησε έντονη συζήτηση για τα όρια της τεχνητής νοημοσύνης, της ανθρώπινης ελευθερίας και των ηθικών/νομικών πλαισίων που διέπουν την αλληλεπίδρασή μας με τα συστήματα αυτά.
Ποιες είναι οι βασικές θέσεις της OpenAI
• Ενήλικοι χρήστες επιλέγουν τι τους ταιριάζει
Ο Altman τονίζει ότι η προσέγγιση της OpenAI βασίζεται στην αρχή: “Treat adult users like adults” («Θεωρούμε τους ενήλικους χρήστες ως ενήλικες»). (Reuters)
Με άλλα λόγια, επιδιώκεται η παροχή μεγαλύτερης επιλογής στο περιεχόμενο για ενηλίκους ώστε να μπορούν να επιλέγουν τι θεωρούν «ορθό» γι’ αυτούς.
• «Ανώριμοι» χρήστες & έλεγχοι ηλικίας
Παράλληλα, η εταιρεία διαβεβαιώνει ότι θα διατηρηθούν αυστηροί έλεγχοι ηλικίας και φιλτράρισμα για τους ανηλίκους. (Business Insider)
Η βασική λογική: οι ανήλικοι απαιτούν μεγαλύτερη προστασία και η ευθύνη για αυτήν θα συνεχίσει να βρίσκεται στο επίκεντρο.
• «Βλάβη» και όχι απλώς «ηθική δυσφορία»
Ο Altman τονίζει ότι η απαγόρευση περιεχομένου δεν έχει ως αφετηρία την ηθική δυσφορία (π.χ. «αυτό δεν το αισθάνομαι σωστό») αλλά το ορατό κακό — δηλαδή περιπτώσεις όπου προκύπτει σαφής βλάβη ή ζημία.
Με άλλα λόγια: η εταιρεία δίνει έμφαση στο να μην προκύπτει πραγματική βλάβη — και όχι στο να επιβάλλει μια συγκεκριμένη ηθική άποψη.
• Η ηθική ανήκει στους ανθρώπους, όχι στα συστήματα
Με την έκφραση «Δεν είμαστε η ηθική αστυνομία» (We are not the elected moral police of the world), ο Altman επιχειρεί να ξεκαθαρίσει ότι η OpenAI δεν θα αντικαταστήσει την κοινωνία ή το άτομο στη λήψη ηθικών αποφάσεων.
Η θέση αυτή αποτελεί μια εικόνα «μέτριας παρεμβατικότητας» από την πλευρά της εταιρείας.
Τι είναι το «Adult Mode» και γιατί προκαλεί αντιδράσεις
Η συγκεκριμένη λειτουργία — που σύμφωνα με ανακοινώσεις της OpenAI θα ενεργοποιηθεί πλήρως από τον Δεκέμβριο 2025 για επαληθευμένους ενήλικους χρήστες — προβλέπει ότι θα επιτραπεί «περισσότερο» περιεχόμενο, όπως ερωτικό ή πιο «ανώριμο» (mature) περιεχόμενο, υπό προϋποθέσεις.
Γιατί δημιουργεί προβληματισμό
- Πολλοί κριτικοί θεωρούν ότι ο έλεγχος ηλικίας και η αποτελεσματικότητα των φίλτρων είναι επισφαλής — υπάρχει φόβος ότι ανήλικοι θα αποκτήσουν πρόσβαση σε περιεχόμενο που δεν πρέπει.
- Υπάρχει ανησυχία ότι η χαλάρωση των κανόνων μπορεί να οδηγήσει σε ολίσθηση: από προστασία χρηστών έως «πάγωμα» κοινωνικών ή ηθικών ορίων.
- Το γεγονός ότι η λειτουργία επικοινωνείται ως «adult mode για ενήλικες», αλλά μέσα από την πλατφόρμα μιας εταιρείας που διαχειρίζεται την υποδομή, θέτει ερωτήματα σχετικά με το πώς οι «επιλογές» διαμορφώνονται από το σύστημα.
Γιατί η OpenAI προχωρά σε αυτήν την κατεύθυνση
- Η εταιρεία αναφέρει ότι μετά από πρώιμες περιόδους πολύ συντηρητικού περιορισμού, διαπίστωσε ότι οι περιορισμοί έκαναν την εμπειρία λιγότερο «χρήσιμη/ευχάριστη» για χρήστες που δεν είχαν ζητήματα ψυχικής υγείας. (Reuters)
- Παράλληλα, ο ανταγωνισμός στον χώρο της γεννητικής AI αυξάνεται — η OpenAI επιδιώκει να παραμείνει ανταγωνιστική ως προς τις δυνατότητες και την ελκυστικότητα των προϊόντων της. (TIME)
Η μεγαλύτερη συζήτηση: Ελευθερία vs Ρύθμιση στην Τεχνητή Νοημοσύνη
Η κίνηση αυτή της OpenAI εγείρει ευρύτερα ζητήματα που δεν αφορούν μόνο την εταιρεία αλλά το πώς η κοινωνία αντιμετωπίζει την τεχνητή νοημοσύνη.
Ελευθερία επιλογής
Η βασική υπόσχεση είναι ότι οι ενηλικοι χρήστες θα έχουν περισσότερες επιλογές ως προς τη χρήση του εργαλείου — δηλαδή, η τεχνολογία δεν θα τους επιβάλλει μόνο ό,τι θεωρεί «ασφαλές» από τη πλευρά της εταιρείας, αλλά θα ανοίγει περιθώρια επιλογής.
Ρύθμιση και ευθύνη
Από την άλλη πλευρά, η τεχνητή νοημοσύνη δεν λειτουργεί σε «κενό». Κάθε σύστημα ενσωματώνει πολιτικές, δεδομένα, προτεραιότητες — δηλαδή υπάρχει «δακτυλιόσφραγμο» από τον κατασκευαστή. Όπως σχολιάστηκε: «Neutrality always hides a fingerprint».
Η συζήτηση επεκτείνεται σε ποιον ανήκει η ευθύνη — ο χρήστης, η εταιρεία, η κοινωνία ή ο νομοθέτης;
Ηθική, τεχνολογία και κοινωνία
Η θέση της OpenAI — ότι η ηθική δεν πρέπει να επιβάλλεται μέσω του συστήματος — ανοίγει το ζήτημα του ποια ηθικά πρότυπα εφαρμόζονται, και με ποιο τρόπο. Ο λόγος είναι πως η τεχνητή νοημοσύνη δεν είναι μόνο εργαλείο· είναι επίσης φορέας επιλογών και προτάσεων, με δυνατότητα διαμόρφωσης περιβάλλοντος.
Τι πρέπει να παρακολουθούμε
• Πώς θα εφαρμοστεί η επαλήθευση ηλικίας
Η αποτελεσματικότητα της age-gating (ελέγχου ηλικίας) θα είναι κρίσιμη. Αν δεν λειτουργήσει επαρκώς, η «ενηλυκειακή» ελευθερία μπορεί να δημιουργήσει προβλήματα προσβασιμότητας για ανηλίκους.
• Πώς θα ορισθεί «βλάβη»
Η OpenAI αναφέρει ότι θα απαγορεύεται περιεχόμενο που “προκαλεί βλάβη”. Αλλά τί σημαίνει αυτό πρακτικά; Πώς θα μοντελοποιείται η εκτίμηση για βλάβη και πώς θα διαχωρίζεται από απλή διαφωνία με ηθικές επιλογές;
• Η ρύθμιση και οι νόμοι
Καθώς η τεχνητή νοημοσύνη εξελίσσεται, οι ρυθμιστικές αρχές σε διεθνές επίπεδο παρακολουθούν. Ο τρόπος με τον οποίο οι εταιρείες όπως η OpenAI θα συμμορφωθούν με νομοθεσίες για προστασία ανηλίκων, προσωπικά δεδομένα και ηθικές απαιτήσεις θα είναι κρίσιμος.
• Η κοινωνική αντίδραση
Η ανακοίνωση έχει ήδη προκαλέσει αντιδράσεις: από κριτικές ότι πρόκειται για υπερελευθερία, μέχρι ανησυχίες για την «κατεύθυνση» της τεχνολογίας. Η δημόσια εμπιστοσύνη σε έναν «ελεύθερο αλλά ασφαλή» ψηφιακό κόσμο θα εξαρτηθεί σε μεγάλο βαθμό από το πώς θα λειτουργήσει στην πράξη η νέα ρύθμιση.
Συμπέρασμα
Η επιλογή της OpenAI υπό την ηγεσία του Sam Altman να ενισχύσει την ελευθερία των ενηλίκων χρηστών μέσω του «Adult Mode», ενώ ταυτόχρονα διατηρείται η προστασία των ανηλίκων και η αποφυγή της βλάβης, αποτελεί σημαντικό βήμα — και ταυτόχρονα πρόκληση. Η εταιρεία δηλώνει πως δεν θέλει να είναι η ηθική αστυνομία. Ωστόσο, ακόμη και η μη-επέμβαση είναι απόφαση — και τα εργαλεία που φτιάχνονται για χρήστες ενήλικες εγείρουν ερωτήματα: ποιος ορίζει τα όρια; ποιος τα ελέγχει; και πόσο ελεύθερο είναι το περιεχόμενο όταν περνά μέσα από τους servers μιας εταιρείας;
Για εσάς, αυτό το μοντέλο σημαίνει: μεγαλύτερη ευελιξία, αλλά και μεγαλύτερη ευθύνη για το ποιο περιεχόμενο χρησιμοποιείτε. Η τεχνολογία μπορεί να ανοίγει πόρτες — η κοινωνία και ο καθένας από εμάς καλούμαστε να αποφασίσουμε τι θα κάνουμε μ’ αυτές.