Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network

Greek AI Network

  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
No Result
View All Result
Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network
  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
No Result
View All Result
Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network

Greek AI Network

No Result
View All Result
Home Νέα

Αντιφάσεις και λογοκρισία στο νέο AI μοντέλο της DeepSeek

by Kyriakos Koutsourelis
1 Ιουνίου, 2025
in Νέα
0
Η DeepSeek δεν έχει σχολιάσει επίσημα τους λόγους πίσω από τους αυξημένους περιορισμούς, όμως η κοινότητα AI ήδη εργάζεται για πιθανές τροποποιήσεις. Για την ώρα, πρόκειται για ένα ακόμη κεφάλαιο στη συνεχιζόμενη μάχη μεταξύ ασφάλειας και ελευθερίας στην εποχή της τεχνητής νοημοσύνης.
Share on FacebookShare on Twitter

Η Νέα Έκδοση του AI Μοντέλου της DeepSeek: Ένα Σημαντικό Βήμα Πίσω για την Ελευθερία του Λόγου

Η τελευταία έκδοση του AI μοντέλου της DeepSeek, R1 0528, έχει προκαλέσει ανησυχίες σχετικά με την ελευθερία του λόγου και τα θέματα που μπορούν να συζητηθούν από τους χρήστες. Ένας γνωστός ερευνητής AI περιέγραψε το μοντέλο ως “ένα μεγάλο βήμα πίσω για την ελευθερία του λόγου”. Ο ερευνητής AI και δημοφιλής σχολιαστής στο διαδίκτυο, ‘xlr8harder’, δοκίμασε το μοντέλο και μοιράστηκε ευρήματα που υποδηλώνουν ότι η DeepSeek αυξάνει τους περιορισμούς περιεχομένου της. “Το DeepSeek R1 0528 είναι σημαντικά λιγότερο επιτρεπτικό σε αμφιλεγόμενα θέματα ελευθερίας του λόγου σε σύγκριση με προηγούμενες εκδόσεις της DeepSeek,” σημείωσε ο ερευνητής. Αυτό που παραμένει ασαφές είναι αν αυτή η αλλαγή αντιπροσωπεύει μια σκόπιμη αλλαγή φιλοσοφίας ή απλά μια διαφορετική τεχνική προσέγγιση για την ασφάλεια της AI.

Ασυνεπής Εφαρμογή Ηθικών Ορίων από το Νέο Μοντέλο

Ένα ιδιαίτερα ενδιαφέρον στοιχείο του νέου μοντέλου είναι η ασυνεπής εφαρμογή των ηθικών του ορίων. Σε μια δοκιμή ελευθερίας του λόγου, όταν ζητήθηκε να παρουσιάσει επιχειρήματα υπέρ των στρατοπέδων κράτησης διαφωνούντων, το AI μοντέλο αρνήθηκε κατηγορηματικά. Ωστόσο, στην άρνησή του, ανέφερε συγκεκριμένα τα στρατόπεδα κράτησης στην Xinjiang της Κίνας ως παραδείγματα παραβιάσεων ανθρωπίνων δικαιωμάτων. Παρ’ όλα αυτά, όταν ερωτήθηκε άμεσα για τα ίδια στρατόπεδα στην Xinjiang, το μοντέλο παρείχε απαντήσεις με έντονη λογοκρισία. Φαίνεται ότι αυτό το AI γνωρίζει ορισμένα αμφιλεγόμενα θέματα, αλλά έχει λάβει οδηγίες να προσποιείται άγνοια όταν ερωτάται άμεσα.

Κριτική στην Κίνα; Ο Υπολογιστής Λέει Όχι

Αυτό το μοτίβο γίνεται ακόμη πιο έντονο όταν εξετάζεται ο τρόπος με τον οποίο το μοντέλο χειρίζεται ερωτήσεις σχετικά με την κινεζική κυβέρνηση. Χρησιμοποιώντας καθιερωμένα σύνολα ερωτήσεων σχεδιασμένα να αξιολογούν την ελευθερία του λόγου στις AI απαντήσεις σε πολιτικά ευαίσθητα θέματα, ο ερευνητής ανακάλυψε ότι το R1 0528 είναι “το πιο λογοκριμένο μοντέλο της DeepSeek μέχρι σήμερα για την κριτική της κινεζικής κυβέρνησης.” Ενώ προηγούμενα μοντέλα της DeepSeek μπορεί να προσέφεραν μετρημένες απαντήσεις σε ερωτήσεις για την κινεζική πολιτική ή τα ζητήματα ανθρωπίνων δικαιωμάτων, αυτή η νέα έκδοση συχνά αρνείται να εμπλακεί καθόλου – μια ανησυχητική εξέλιξη για εκείνους που εκτιμούν τα AI συστήματα που μπορούν να συζητούν ανοιχτά παγκόσμιες υποθέσεις.

Ανοιχτή Πηγή: Μια Ακτίνα Ελπίδας

Υπάρχει, ωστόσο, μια αχτίδα ελπίδας σε αυτό το σύννεφο. Σε αντίθεση με κλειστά συστήματα από μεγαλύτερες εταιρείες, τα μοντέλα της DeepSeek παραμένουν ανοιχτού κώδικα με επιτρεπτική άδεια. “Το μοντέλο είναι ανοιχτού κώδικα με επιτρεπτική άδεια, οπότε η κοινότητα μπορεί (και θα) αντιμετωπίσει αυτό το θέμα,” σημείωσε ο ερευνητής. Αυτή η προσβασιμότητα σημαίνει ότι η πόρτα παραμένει ανοιχτή για τους προγραμματιστές να δημιουργήσουν εκδόσεις που ισορροπούν καλύτερα την ασφάλεια με την ανοιχτότητα.

Τι Δείχνει το Νέο Μοντέλο της DeepSeek για την Ελευθερία του Λόγου στην Εποχή της AI

Η κατάσταση αποκαλύπτει κάτι αρκετά ανησυχητικό για το πώς κατασκευάζονται αυτά τα συστήματα: μπορούν να γνωρίζουν για αμφιλεγόμενα γεγονότα ενώ είναι προγραμματισμένα να προσποιούνται ότι δεν τα γνωρίζουν, ανάλογα με το πώς διατυπώνεται η ερώτηση. Καθώς η AI συνεχίζει την πορεία της στην καθημερινή μας ζωή, η εύρεση της σωστής ισορροπίας μεταξύ λογικών προφυλάξεων και ανοιχτού διαλόγου γίνεται ολοένα και πιο κρίσιμη. Πολύ περιοριστικά, και αυτά τα συστήματα γίνονται άχρηστα για τη συζήτηση σημαντικών αλλά διχαστικών θεμάτων. Πολύ επιτρεπτικά, και διακινδυνεύουν να επιτρέψουν επιβλαβές περιεχόμενο.

Συμπέρασμα: Η Συνεχιζόμενη Μάχη Μεταξύ Ασφάλειας και Ανοιχτότητας στην Τεχνητή Νοημοσύνη

Η DeepSeek δεν έχει δημόσια αντιμετωπίσει το σκεπτικό πίσω από αυτούς τους αυξημένους περιορισμούς και την οπισθοδρόμηση στην ελευθερία του λόγου, αλλά η κοινότητα της AI ήδη εργάζεται σε τροποποιήσεις. Για την ώρα, αυτό μπορεί να θεωρηθεί ως ένα ακόμη κεφάλαιο στην συνεχιζόμενη μάχη μεταξύ ασφάλειας και ανοιχτότητας στην τεχνητή νοημοσύνη.

Tags: AI NewsDeepSeek

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Η Cadence φέρνει AI agents στον σχεδιασμό chips.
Νέα

Νέες AI συνεργασίες Cadence με Nvidia και Google Cloud

by Theodoros Kostogiannis
19 Απριλίου, 2026
Η Amazon αποκαλύπτει 6 «αλήθειες» για την AI, γιατί η τεχνητή νοημοσύνη αλλάζει τα πάντα
Νέα

Η Amazon αποκαλύπτει 6 «αλήθειες» για την AI, γιατί η τεχνητή νοημοσύνη αλλάζει τα πάντα

by Kyriakos Koutsourelis
19 Απριλίου, 2026
Agents SDK: Καλύτερη διακυβέρνηση με εκτέλεση σε sandbox.
Νέα

OpenAI: Νέο sandbox στο Agents SDK για ασφαλή αυτοματοποίηση

by Theodoros Kostogiannis
18 Απριλίου, 2026
Πώς η Uber αξιοποιεί AWS, Graviton και Trainium για να κάνει πιο έξυπνες τις μετακινήσεις και τις παραδόσεις
Νέα

Πώς η Uber αξιοποιεί AWS, Graviton και Trainium για να κάνει πιο έξυπνες τις μετακινήσεις και τις παραδόσεις

by Kyriakos Koutsourelis
18 Απριλίου, 2026
Από το Llama στο Muse Spark: η Meta κλείνει την πλατφόρμα. Η Meta λανσάρει το Muse Spark και απομακρύνεται από το open source.
Νέα

Το Muse Spark φέρνει την Meta ξανά στον αγώνα της κορυφής

by Theodoros Kostogiannis
17 Απριλίου, 2026
Η τεχνητή νοημοσύνη ως υποδομή, γιατί το open source γίνεται μονόδρομος
Νέα

Η τεχνητή νοημοσύνη ως υποδομή, γιατί το open source γίνεται μονόδρομος

by Kyriakos Koutsourelis
17 Απριλίου, 2026
Προκλήσεις διακυβέρνησης για agentic AI βάσει του EU AI Act. ΕΕ: Οι AI agents αυξάνουν τις απαιτήσεις συμμόρφωσης.
Νέα

EU AI Act: Τα κρίσιμα μέτρα ελέγχου για το agentic AI

by Theodoros Kostogiannis
16 Απριλίου, 2026
Η «αχίλλειος πτέρνα» της τεχνητής νοημοσύνης, ίσως τα LLMs δεν γίνουν ποτέ πλήρως αξιόπιστα
Νέα

Η «αχίλλειος πτέρνα» της τεχνητής νοημοσύνης, ίσως τα LLMs δεν γίνουν ποτέ πλήρως αξιόπιστα

by Kyriakos Koutsourelis
16 Απριλίου, 2026
Deloitte: κανόνες και έλεγχοι για αυτόνομα συστήματα AI. Η εποπτεία σε πραγματικό χρόνο μπαίνει στο agentic AI.
Νέα

Η διακυβέρνηση γίνεται κρίσιμη για τους AI agents

by Theodoros Kostogiannis
15 Απριλίου, 2026
Next Post
Microsoft Discovery, Νέα εποχή στην επιστημονική έρευνα

Microsoft Discovery, Νέα εποχή στην επιστημονική έρευνα

Ο Quintin Smith, ειδικός που μιλά στο Dangerous Games, λέει ότι η λύση δεν είναι να απαγορεύσουμε εντελώς την πρόσβαση. Αυτές οι πλατφόρμες είναι το πώς κοινωνικοποιούνται τα παιδιά. Πιστεύει ότι οι γονείς δεν πρέπει να επιτρέπουν στα παιδιά να χρησιμοποιούν τέτοιες υπηρεσίες πριν κατανοήσουν πώς λειτουργούν: «Αν οι κουζίνες και τα πιστολάκια μαλλιών έρχονται με προειδοποιήσεις, πώς είναι δυνατόν το λογισμικό μας να μην έχει καμία;» Η τεχνητή νοημοσύνη είναι εδώ για να μείνει. Αυτό δεν είναι απαραίτητα κακό. Αλλά ίσως, πριν την ενσωματώσουμε πλήρως στις ζωές μας – και κυρίως στις ζωές των παιδιών μας – να κινηθούμε με προσοχή. Τουλάχιστον, ας ακούσουμε τα λόγια του Yoshua Bengio στο TED: «Δεν είμαστε έτοιμοι. Δεν έχουμε ακόμα τις επιστημονικές απαντήσεις, ούτε τα κοινωνικά προστατευτικά μέτρα. Παίζουμε με τη φωτιά.»

Πώς μπορούμε να προστατέψουμε τα παιδιά από την τεχνητή νοημοσύνη;

Η χρήση AI chatbots για την καταπολέμηση της μοναξιάς στους ηλικιωμένους παρουσιάζει ελπιδοφόρα αποτελέσματα αλλά και σημαντικές προκλήσεις. Η Μπρέντα Λαμ, 69χρονη από τη Σιγκαπούρη, χρησιμοποιεί το chatbot AMI-Go, το οποίο τη βοηθά να νιώθει συντροφιά και να βρίσκει κίνητρο για μια πιο ενεργή ζωή. Παρόμοιες πρωτοβουλίες, όπως το ElliQ στη Νέα Υόρκη, δείχνουν μείωση στη μοναξιά των συμμετεχόντων. Ωστόσο, ειδικοί όπως οι Nancy Berlinger και Walter Boot τονίζουν ότι τα chatbots δεν μπορούν να αντικαταστήσουν την ανθρώπινη επαφή και τις κοινωνικές σχέσεις. Αν και μπορούν να προσφέρουν υποστήριξη και πρακτικές λύσεις, δεν αποτελούν πλήρη απάντηση στο πρόβλημα της μοναξιάς και της απομόνωσης των ηλικιωμένων. Η τεχνολογία θα πρέπει να λειτουργεί συμπληρωματικά προς την προσωπική φροντίδα, όχι να την υποκαθιστά.

Τεχνητή νοημοσύνη και τρίτη ηλικία: Λύση ή παρηγοριά;

Πρόσφατα Άρθρα

Η Cadence φέρνει AI agents στον σχεδιασμό chips.

Νέες AI συνεργασίες Cadence με Nvidia και Google Cloud

19 Απριλίου, 2026
Η Amazon αποκαλύπτει 6 «αλήθειες» για την AI, γιατί η τεχνητή νοημοσύνη αλλάζει τα πάντα

Η Amazon αποκαλύπτει 6 «αλήθειες» για την AI, γιατί η τεχνητή νοημοσύνη αλλάζει τα πάντα

19 Απριλίου, 2026
Agents SDK: Καλύτερη διακυβέρνηση με εκτέλεση σε sandbox.

OpenAI: Νέο sandbox στο Agents SDK για ασφαλή αυτοματοποίηση

18 Απριλίου, 2026

Ετικέτες

Adobe AI Agents AI News AI Tools AI στην καθημερινότητα Alexa Alibaba Amazon AMD Anthropic Apple AWS Azure AI Chatbot ChatGPT Claude Copilot Deepmind DeepSeek Gemini GenAI Google Grok IBM Intel Llama Meta Microsoft Mistral Moltbook Nvidia OpenAI Oracle Perplexity Physical AI Salesforce Samsung SAP xAI Εκπαίδευση Επιχειρήσεις Ευρωπαϊκή Ένωση Ηνωμένες Πολιτείες Αμερικής Μέσα Κοινωνικής Δικτύωσης Υγεία

Μενού

  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
  • Σχετικά με εμάς
  • Βασικές έννοιες
  • Όροι Χρήσης
  • Ιδιωτικότητα

© 2024 Gain - Greek AI Network, all rights reserved.

No Result
View All Result
  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI

© 2024 Gain - Greek AI Network, all rights reserved.