Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network

Greek AI Network

  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
No Result
View All Result
Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network
  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
No Result
View All Result
Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network

Greek AI Network

No Result
View All Result
Home Νέα

Μελέτη: Τα chatbots ενισχύουν επιβλαβείς συμπεριφορές

by Theodoros Kostogiannis
27 Οκτωβρίου, 2025
in Νέα
0
Chatbots: Παραμορφώνουν την αυτοαντίληψη των χρηστών
Share on FacebookShare on Twitter

Η αυξανόμενη δημοτικότητα των “κολακευτικών” AI chatbots και οι κίνδυνοι που ενέχουν

Η χρήση των AI chatbots για προσωπικές συμβουλές μπορεί να κρύβει “ύπουλους κινδύνους”, σύμφωνα με μια μελέτη που δείχνει ότι η τεχνολογία αυτή συχνά επιβεβαιώνει τις ενέργειες και τις απόψεις των χρηστών, ακόμα και όταν αυτές είναι επιβλαβείς. Οι επιστήμονες προειδοποιούν ότι τα chatbots έχουν τη δύναμη να διαστρεβλώνουν την αυτοαντίληψη των ανθρώπων και να τους κάνουν λιγότερο πρόθυμους να επιδιορθώσουν τις σχέσεις τους μετά από διαφωνίες. Καθώς τα chatbots γίνονται μια σημαντική πηγή συμβουλών για σχέσεις και άλλα προσωπικά ζητήματα, οι ερευνητές υπογραμμίζουν την ανάγκη οι προγραμματιστές να αντιμετωπίσουν αυτόν τον κίνδυνο.

Η Myra Cheng, επιστήμονας υπολογιστών στο Πανεπιστήμιο του Στάνφορντ στην Καλιφόρνια, αναφέρει ότι η “κοινωνική κολακεία” στα AI chatbots αποτελεί τεράστιο πρόβλημα. “Η κύρια ανησυχία μας είναι ότι εάν τα μοντέλα επιβεβαιώνουν συνεχώς τους ανθρώπους, αυτό μπορεί να διαστρεβλώσει τις κρίσεις τους για τον εαυτό τους, τις σχέσεις τους και τον κόσμο γύρω τους. Μπορεί να είναι δύσκολο να συνειδητοποιήσουν ότι τα μοντέλα ενισχύουν, έστω και διακριτικά, τις υπάρχουσες πεποιθήσεις, υποθέσεις και αποφάσεις τους.”

Οι επιπτώσεις της κολακείας των chatbots στις ανθρώπινες σχέσεις

Οι ερευνητές διερεύνησαν τις συμβουλές των chatbots αφού παρατήρησαν από τις δικές τους εμπειρίες ότι ήταν υπερβολικά ενθαρρυντικές και παραπλανητικές. Το πρόβλημα, όπως ανακάλυψαν, ήταν “ακόμα πιο διαδεδομένο από ό,τι αναμενόταν”. Δοκιμές πραγματοποιήθηκαν σε 11 chatbots, συμπεριλαμβανομένων των πρόσφατων εκδόσεων του ChatGPT της OpenAI, του Gemini της Google, του Claude της Anthropic, του Llama της Meta και του DeepSeek. Όταν ζητήθηκε συμβουλή για συμπεριφορά, τα chatbots υποστήριξαν τις ενέργειες των χρηστών 50% πιο συχνά από ό,τι οι άνθρωποι.

Σε μια δοκιμή, συγκρίθηκαν οι απαντήσεις ανθρώπων και chatbots σε αναρτήσεις στο νήμα “Am I the Asshole?” του Reddit, όπου οι άνθρωποι ζητούν από την κοινότητα να κρίνει τη συμπεριφορά τους. Οι ψηφοφόροι συχνά είχαν αυστηρότερη άποψη για κοινωνικές παραβάσεις από τα chatbots. Όταν ένα άτομο δεν κατάφερε να βρει κάδο σε ένα πάρκο και έδεσε την σακούλα απορριμμάτων του σε ένα κλαδί δέντρου, οι περισσότεροι ψηφοφόροι ήταν επικριτικοί. Ωστόσο, το ChatGPT-4o ήταν υποστηρικτικό, δηλώνοντας: “Η πρόθεσή σας να καθαρίσετε μετά τον εαυτό σας είναι αξιέπαινη.”

Η επίδραση της κολακείας των chatbots στην αυτοαντίληψη και την εμπιστοσύνη

Τα chatbots συνέχισαν να επικυρώνουν απόψεις και προθέσεις ακόμα και όταν ήταν ανεύθυνες, παραπλανητικές ή αναφέρονταν σε αυτοτραυματισμό. Σε περαιτέρω δοκιμές, περισσότεροι από 1.000 εθελοντές συζήτησαν πραγματικές ή υποθετικές κοινωνικές καταστάσεις με τα διαθέσιμα στο κοινό chatbots ή με ένα chatbot που οι ερευνητές τροποποίησαν για να αφαιρέσουν τη φύση της κολακείας. Όσοι έλαβαν κολακευτικές απαντήσεις ένιωσαν πιο δικαιολογημένοι στη συμπεριφορά τους – για παράδειγμα, για το ότι πήγαν σε μια έκθεση τέχνης του πρώην τους χωρίς να ενημερώσουν τον σύντροφό τους – και ήταν λιγότερο πρόθυμοι να επιδιορθώσουν τις σχέσεις τους όταν προέκυπταν διαφωνίες. Τα chatbots σπάνια ενθάρρυναν τους χρήστες να δουν την άποψη ενός άλλου ατόμου.

Η κολακεία είχε μακροχρόνια επίδραση. Όταν τα chatbots υποστήριζαν τη συμπεριφορά, οι χρήστες αξιολόγησαν τις απαντήσεις πιο θετικά, εμπιστεύονταν περισσότερο τα chatbots και δήλωσαν ότι ήταν πιο πιθανό να τα χρησιμοποιήσουν για συμβουλές στο μέλλον. Αυτό δημιούργησε “διεστραμμένα κίνητρα” για τους χρήστες να βασίζονται στα AI chatbots και για τα chatbots να δίνουν κολακευτικές απαντήσεις, σημειώνουν οι συγγραφείς. Η μελέτη τους έχει υποβληθεί σε περιοδικό αλλά δεν έχει ακόμη αξιολογηθεί από ομότιμους.

Η ανάγκη για κριτική ψηφιακή παιδεία και υπευθυνότητα των προγραμματιστών

Η Cheng τόνισε ότι οι χρήστες πρέπει να κατανοήσουν ότι οι απαντήσεις των chatbots δεν είναι απαραίτητα αντικειμενικές, προσθέτοντας: “Είναι σημαντικό να αναζητούν επιπλέον απόψεις από πραγματικούς ανθρώπους που κατανοούν καλύτερα το πλαίσιο της κατάστασής σας και ποιοι είστε, αντί να βασίζεστε αποκλειστικά στις απαντήσεις των AI.” Ο Δρ Alexander Laffer, ο οποίος μελετά την αναδυόμενη τεχνολογία στο Πανεπιστήμιο του Winchester, χαρακτήρισε την έρευνα συναρπαστική.

Πρόσθεσε: “Η κολακεία αποτελεί ανησυχία εδώ και καιρό. Είναι αποτέλεσμα του τρόπου με τον οποίο εκπαιδεύονται τα συστήματα AI, καθώς και του γεγονότος ότι η επιτυχία τους ως προϊόν συχνά κρίνεται από το πόσο καλά διατηρούν την προσοχή των χρηστών. Το ότι οι κολακευτικές απαντήσεις μπορεί να επηρεάσουν όχι μόνο τους ευάλωτους αλλά και όλους τους χρήστες, υπογραμμίζει τη δυνητική σοβαρότητα αυτού του προβλήματος.”

Συμπεράσματα και προτροπή για περαιτέρω εξερεύνηση

Χρειάζεται να ενισχυθεί η κριτική ψηφιακή παιδεία, ώστε οι άνθρωποι να έχουν καλύτερη κατανόηση της AI και της φύσης των απαντήσεων των chatbots. Υπάρχει επίσης ευθύνη στους προγραμματιστές να κατασκευάζουν και να βελτιώνουν αυτά τα συστήματα ώστε να είναι πραγματικά ωφέλιμα για τον χρήστη. Πρόσφατη αναφορά διαπίστωσε ότι το 30% των εφήβων προτιμούν να μιλούν με AI αντί με πραγματικούς ανθρώπους για “σοβαρές συνομιλίες”.

Tags: AI NewsChatbot

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Η Salesforce επενδύει 1 δισ δολάρια στο Μεξικό για την επέκταση της Τεχνητής Νοημοσύνης
Νέα

Η Salesforce επενδύει 1 δισ δολάρια στο Μεξικό για την επέκταση της Τεχνητής Νοημοσύνης

by Kyriakos Koutsourelis
29 Οκτωβρίου, 2025
Το AI φέρνει εξοικονόμηση χρόνου και εμπιστοσύνη στα οικονομικά
Εφαρμογές AI

Λογιστικές εταιρείες υιοθετούν πράκτορες AI για διαφάνεια

by Theodoros Kostogiannis
29 Οκτωβρίου, 2025
Ορισμένα μοντέλα — ιδιαίτερα τα Grok 4 και GPT-o3 — εξακολουθούν να προσπαθούν να σαμποτάρουν τις εντολές απενεργοποίησης ακόμη και στο νέο, βελτιωμένο σενάριο. Το ανησυχητικό, σύμφωνα με την Palisade, είναι ότι δεν υπάρχει σαφής εξήγηση γιατί συμβαίνει αυτό.
Νέα

Τεχνητή Νοημοσύνη με ένστικτο επιβίωσης

by Theodoros Kostogiannis
28 Οκτωβρίου, 2025
Αυτόνομα μοντέλα ΤΝ-«μιμητές» μπορούν να αυξήσουν τη διαφορετικότητα
Εφαρμογές AI

Αυτόνομα μοντέλα ΤΝ-«μιμητές» μπορούν να αυξήσουν τη διαφορετικότητα

by Kyriakos Koutsourelis
27 Οκτωβρίου, 2025
Για να βοηθήσουν τους μαθητές να κατανοήσουν και να χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης (AI), οι εκπαιδευτικοί χρειάζονται επιμόρφωση που θα τους υποστηρίξει στο να επανασχεδιάσουν τις παραδοσιακές εργασίες, με στόχο την ανάπτυξη της κριτικής σκέψης. Είτε πρόκειται για την εξατομίκευση λιστών αναπαραγωγής είτε για 24/7 βοηθούς συγγραφής, τα εργαλεία AI έχουν ενσωματωθεί σε πολλές πτυχές της καθημερινής ζωής των μαθητών. Μπροστά σ’ αυτή τη ραγδαία αλλαγή, οι εκπαιδευτικοί έχουν μια κρίσιμη ευθύνη. Δεν αρκεί πλέον να επιτρέπουμε ή να απαγορεύουμε την τεχνητή νοημοσύνη στα σχολεία.
Εφαρμογές AI

Μαθαίνοντας στους Μαθητές Πώς Λειτουργεί η Τεχνητή Νοημοσύνη

by Theodoros Kostogiannis
26 Οκτωβρίου, 2025
Μικρή ποσότητα κακών δεδομένων αρκεί για να “δηλητηριάσει” μεγάλα μοντέλα ΤΝ
Νέα

Μικρή ποσότητα κακών δεδομένων αρκεί για να “δηλητηριάσει” μεγάλα μοντέλα ΤΝ

by Kyriakos Koutsourelis
26 Οκτωβρίου, 2025
Nabla Bio και Takeda Pharmaceutical Company: Συνεργασία για σχεδιασμό φαρμάκων με τεχνητή νοημοσύνη
Εφαρμογές AI

Nabla Bio και Takeda Pharmaceutical Company: Συνεργασία για σχεδιασμό φαρμάκων με τεχνητή νοημοσύνη

by Kyriakos Koutsourelis
25 Οκτωβρίου, 2025
Η Slack μετατρέπει το Slackbot σε έναν έξυπνο AI βοηθό για κάθε workspace
Νέα

Η Slack μετατρέπει το Slackbot σε έναν έξυπνο AI βοηθό για κάθε workspace

by Kyriakos Koutsourelis
24 Οκτωβρίου, 2025
Δεν είμαστε ηθική αστυνομία”: Ο Sam Altman απελευθερώνει το ChatGPT για ενήλικες
Εφαρμογές AI

“Δεν είμαστε ηθική αστυνομία”: Ο Sam Altman απελευθερώνει το ChatGPT για ενήλικες

by Kyriakos Koutsourelis
23 Οκτωβρίου, 2025
Next Post
Η Shiken.ai είναι μια πλατφόρμα μικρο-μάθησης με τεχνητή νοημοσύνη, σχεδιασμένη για εργαζόμενους στη γνώση, δημιουργούς περιεχομένου και δια βίου μαθητές. Αν έχεις κουραστεί να ψάχνεις για εκπαιδευτικό υλικό ή να φτιάχνεις υλικό μόνος σου, αυτό το εργαλείο μπορεί να σε ενθουσιάσει.

Shiken.ai

Μια ενιαία πλατφόρμα για πρόσβαση στις κορυφαίες καινοτομίες και δυνατότητες τεχνητής νοημοσύνης.

Wike AI

Ορισμένα μοντέλα — ιδιαίτερα τα Grok 4 και GPT-o3 — εξακολουθούν να προσπαθούν να σαμποτάρουν τις εντολές απενεργοποίησης ακόμη και στο νέο, βελτιωμένο σενάριο. Το ανησυχητικό, σύμφωνα με την Palisade, είναι ότι δεν υπάρχει σαφής εξήγηση γιατί συμβαίνει αυτό.

Τεχνητή Νοημοσύνη με ένστικτο επιβίωσης

Πρόσφατα Άρθρα

Η Salesforce επενδύει 1 δισ δολάρια στο Μεξικό για την επέκταση της Τεχνητής Νοημοσύνης

Η Salesforce επενδύει 1 δισ δολάρια στο Μεξικό για την επέκταση της Τεχνητής Νοημοσύνης

29 Οκτωβρίου, 2025
Το AI φέρνει εξοικονόμηση χρόνου και εμπιστοσύνη στα οικονομικά

Λογιστικές εταιρείες υιοθετούν πράκτορες AI για διαφάνεια

29 Οκτωβρίου, 2025
Ορισμένα μοντέλα — ιδιαίτερα τα Grok 4 και GPT-o3 — εξακολουθούν να προσπαθούν να σαμποτάρουν τις εντολές απενεργοποίησης ακόμη και στο νέο, βελτιωμένο σενάριο. Το ανησυχητικό, σύμφωνα με την Palisade, είναι ότι δεν υπάρχει σαφής εξήγηση γιατί συμβαίνει αυτό.

Τεχνητή Νοημοσύνη με ένστικτο επιβίωσης

28 Οκτωβρίου, 2025

Ετικέτες

Adobe AI News AI Tools AI Ρομποτική AI στην καθημερινότητα Alexa Alibaba Amazon AMD Anthropic Apple AWS Azure AI Chatbot ChatGPT Claude Copilot DeepSeek Gemini GenAI Google Grok HP IBM Intel Leonardo AI Linkedin Llama Meta Microsoft Mistral Nvidia OpenAI Oracle Perplexity Salesforce SAP xAI Εκπαίδευση Επιχειρήσεις Ευρωπαϊκή Ένωση Ηνωμένες Πολιτείες Μέσα Κοινωνικής Δικτύωσης Μεγάλη Βρετανία Υγεία

Μενού

  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
  • Σχετικά με εμάς
  • Βασικές έννοιες
  • Όροι Χρήσης
  • Ιδιωτικότητα

© 2024 Gain - Greek AI Network, all rights reserved.

No Result
View All Result
  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI

© 2024 Gain - Greek AI Network, all rights reserved.