Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network

Greek AI Network

  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
No Result
View All Result
Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network
  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
No Result
View All Result
Τεχνητή Νοημοσύνη – Νέα & Εργαλεία | Greek AI Network

Greek AI Network

No Result
View All Result
Home Νέα

Ο πρώην επικεφαλής της πολιτικής του OpenAI επικρίνει την εταιρεία για την ασφάλεια AI

by Kyriakos Koutsourelis
8 Μαρτίου, 2025
in Νέα
0
Ένας υψηλού προφίλ πρώην ερευνητής πολιτικής του OpenAI, ο Miles Brundage, ανέβηκε την Τετάρτη στα μέσα κοινωνικής δικτύωσης για να επικρίνει την OpenAI για το ότι «ξαναγράφει την ιστορία» της προσέγγισης ανάπτυξης των δυνητικά επικίνδυνων συστημάτων τεχνητής νοημοσύνης. Νωρίτερα αυτή την εβδομάδα, το OpenAI δημοσίευσε ένα έγγραφο που περιγράφει την τρέχουσα φιλοσοφία του σχετικά με την ασφάλεια και την ευθυγράμμιση της τεχνητής νοημοσύνης, τη διαδικασία σχεδιασμού συστημάτων τεχνητής νοημοσύνης που συμπεριφέρονται με επιθυμητούς και εξηγήσιμους τρόπους. Στο έγγραφο, το OpenAI δήλωσε ότι βλέπει την ανάπτυξη της ΑΓΙ, που ορίζεται ευρέως ως συστήματα ΤΝ που μπορούν να εκτελέσουν οποιαδήποτε εργασία μπορεί να εκτελέσει ένας άνθρωπος, ως μια «συνεχή πορεία» που απαιτεί «επαναληπτική ανάπτυξη και μάθηση» από τις τεχνολογίες ΤΝ.
Share on FacebookShare on Twitter

Η Αμφιλεγόμενη Σχέση της OpenAI με την Ασφάλεια και την Ανάπτυξη της Τεχνητής Νοημοσύνης

Ένας πρώην ερευνητής πολιτικής της OpenAI, ο Miles Brundage, εξέφρασε δημόσια την απογοήτευσή του για την OpenAI, κατηγορώντας την ότι “ξαναγράφει την ιστορία” της προσέγγισής της στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης που μπορεί να είναι επικίνδυνα. Πρόσφατα, η OpenAI δημοσίευσε ένα έγγραφο που περιγράφει τη φιλοσοφία της σχετικά με την ασφάλεια της τεχνητής νοημοσύνης και την ευθυγράμμιση, δηλαδή τη διαδικασία σχεδιασμού συστημάτων τεχνητής νοημοσύνης που λειτουργούν με επιθυμητούς και εξηγήσιμους τρόπους.

Η Σημασία της Συνεχούς Ανάπτυξης στην Τεχνητή Νοημοσύνη

Στο έγγραφο, η OpenAI υποστηρίζει ότι η ανάπτυξη της γενικής τεχνητής νοημοσύνης (AGI) είναι μια “συνεχής πορεία” που απαιτεί “σταδιακή ανάπτυξη και μάθηση” από τις τεχνολογίες τεχνητής νοημοσύνης. Αναφέρει ότι σε έναν κόσμο συνεχούς ανάπτυξης, η ασφάλεια επιτυγχάνεται μαθαίνοντας από τα τρέχοντα συστήματα. Ωστόσο, ο Brundage διαφωνεί, υποστηρίζοντας ότι το GPT-2, ένα από τα μοντέλα της OpenAI, απαιτούσε ιδιαίτερη προσοχή κατά την κυκλοφορία του, κάτι που ήταν απόλυτα συνεπές με τη στρατηγική της OpenAI για σταδιακή ανάπτυξη.

Η Ιστορία του GPT-2 και οι Αντιδράσεις

Το GPT-2, το οποίο ανακοινώθηκε το 2019, ήταν πρόδρομος των συστημάτων που τροφοδοτούν το ChatGPT. Παρότι σήμερα μπορεί να φαίνεται βασικό, τότε ήταν πρωτοποριακό. Λόγω του κινδύνου κακόβουλης χρήσης, η OpenAI αρχικά αρνήθηκε να δημοσιεύσει τον πηγαίο κώδικα του GPT-2, επιτρέποντας μόνο σε επιλεγμένα μέσα ενημέρωσης περιορισμένη πρόσβαση σε μια επίδειξη. Αυτή η απόφαση προκάλεσε ανάμεικτες αντιδράσεις, με πολλούς ειδικούς να υποστηρίζουν ότι οι κίνδυνοι ήταν υπερβολικοί.

Η Στρατηγική της OpenAI και οι Προκλήσεις Ασφαλείας

Ο Brundage, ο οποίος είχε σημαντικό ρόλο στην OpenAI, θεωρεί ότι η σταδιακή κυκλοφορία του GPT-2 ήταν η σωστή προσέγγιση. Υποστηρίζει ότι η προσοχή που δόθηκε δεν ήταν υπερβολική, δεδομένων των πληροφοριών της εποχής. Φοβάται ότι η OpenAI προσπαθεί να δημιουργήσει ένα πλαίσιο όπου οι ανησυχίες θεωρούνται υπερβολικές και απαιτείται συντριπτική απόδειξη για να ληφθούν μέτρα, κάτι που θεωρεί επικίνδυνο για τα προηγμένα συστήματα τεχνητής νοημοσύνης.

Οι Επιπτώσεις της Ανταγωνιστικής Πίεσης

Η OpenAI έχει κατηγορηθεί ότι δίνει προτεραιότητα στα “λαμπερά προϊόντα” εις βάρος της ασφάλειας και ότι βιάζεται να κυκλοφορήσει προϊόντα για να προλάβει ανταγωνιστές. Η διάλυση της ομάδας ετοιμότητας για AGI και η αποχώρηση πολλών ερευνητών ασφαλείας και πολιτικής έχουν εντείνει τις ανησυχίες. Οι ανταγωνιστικές πιέσεις έχουν αυξηθεί, με κινεζικά εργαστήρια τεχνητής νοημοσύνης να κερδίζουν έδαφος.

Συμπεράσματα και Προοπτικές για το Μέλλον

Η OpenAI αντιμετωπίζει σημαντικές προκλήσεις καθώς προσπαθεί να ισορροπήσει μεταξύ της ταχείας ανάπτυξης και της ασφάλειας. Η οικονομική πίεση και ο ανταγωνισμός μπορεί να οδηγήσουν σε πιο γρήγορες κυκλοφορίες προϊόντων, αλλά οι ειδικοί, όπως ο Brundage, αναρωτιούνται αν αξίζει το ρίσκο. Η προσεκτική προσέγγιση στην ανάπτυξη της τεχνητής νοημοσύνης είναι κρίσιμη για την αποφυγή δυνητικά επικίνδυνων καταστάσεων στο μέλλον.

Tags: AI NewsOpenAI

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Το Bob της IBM βάζει κανόνες στην AI ανάπτυξη κώδικα.
Νέα

IBM Bob: AI πλατφόρμα για ασφαλέστερη ανάπτυξη λογισμικού

by Theodoros Kostogiannis
29 Απριλίου, 2026
Η Lightelligence, η πρώτη εταιρεία photonics chips από την ηπειρωτική Κίνα που εισήχθη στο χρηματιστήριο του Χονγκ Κονγκ, είδε την τιμή της μετοχής της να εκτοξεύεται σχεδόν 400% στο χρηματιστηριακό της ντεμπούτο.
Νέα

Η Lightelligence ποντάρει στη φωτονική για την AI

by Theodoros Kostogiannis
29 Απριλίου, 2026
Claude Mythos Preview: η AI που αλλάζει τους κανόνες της κυβερνοασφάλειας
Για Εξειδικευμένες Εφαρμογές

Claude Mythos Preview: η AI που αλλάζει τους κανόνες της κυβερνοασφάλειας

by Kyriakos Koutsourelis
29 Απριλίου, 2026
Engineering the World: Το συνέδριο που φέρνει το AI από τη θεωρία στη βιομηχανία
Νέα

Engineering the World: Το συνέδριο που φέρνει το AI από τη θεωρία στη βιομηχανία

by Kyriakos Koutsourelis
28 Απριλίου, 2026
Οι κρυφές εντολές στο web απειλούν εταιρικά AI agents.
Νέα

Google: Κακόβουλες ιστοσελίδες παγιδεύουν AI agents

by Theodoros Kostogiannis
28 Απριλίου, 2026
Merck και Google Cloud επενδύουν 1 δισ. δολάρια στην Agentic AI
Εφαρμογές AI

Merck και Google Cloud επενδύουν 1 δισ. δολάρια στην Agentic AI

by Kyriakos Koutsourelis
28 Απριλίου, 2026
Claude Mythos και Κυβερνοασφάλεια: Η Τεχνητή Νοημοσύνη Περνά σε Νέα Εποχή
Για Εξειδικευμένες Εφαρμογές

Claude Mythos και Κυβερνοασφάλεια: Η Τεχνητή Νοημοσύνη Περνά σε Νέα Εποχή

by Kyriakos Koutsourelis
27 Απριλίου, 2026
ISACA: Ανεπαρκής έλεγχος στα εταιρικά συστήματα AI.
Νέα

Κενά στη διαχείριση κινδύνων από συστήματα AI

by Theodoros Kostogiannis
26 Απριλίου, 2026
Το Snowflake ενισχύει Intelligence και Cortex Code.
Νέα

Snowflake: Νέες AI πλατφόρμες για επιχειρήσεις και developers

by Theodoros Kostogiannis
25 Απριλίου, 2026
Next Post
Η κατάθεση, η οποία υποβλήθηκε από δικηγόρο των εναγόντων στο Περιφερειακό Δικαστήριο των ΗΠΑ στη Βόρεια Περιφέρεια της Καλιφόρνιας, ανέφερε ότι στον Ράντφορντ επιδόθηκε κλήτευση στις 25 Φεβρουαρίου. Ο Radford, ο οποίος εγκατέλειψε την OpenAI στα τέλη του περασμένου έτους για να ασχοληθεί με ανεξάρτητη έρευνα, ήταν ο κύριος συγγραφέας της θεμελιώδους ερευνητικής εργασίας της OpenAI σχετικά με τους γεννητικούς προ-εκπαιδευμένους μετασχηματιστές (GPT). Οι GPTs στηρίζουν τα πιο δημοφιλή προϊόντα της OpenAI, συμπεριλαμβανομένης της πλατφόρμας chatbot της εταιρείας με τεχνητή νοημοσύνη, ChatGPT. Ο Radford εντάχθηκε στην OpenAI το 2016, ένα χρόνο μετά την ίδρυση της εταιρείας. Εργάστηκε σε διάφορα μοντέλα της σειράς GPT της εταιρείας, καθώς και στο μοντέλο αναγνώρισης ομιλίας Whisper και στο DALL-E, το μοντέλο της εταιρείας που παράγει εικόνες.

Πρώην ερευνητής του OpenAI κλητεύθηκε σε υπόθεση πνευματικών δικαιωμάτων AI

Παρουσιάζοντας το Mercury, το πρώτο εμπορικό μοντέλο διάχυσης μεγάλης γλώσσας Εκπαιδεύσαμε μεγάλα γλωσσικά μοντέλα διάχυσης που είναι έως και 10 φορές ταχύτερα και φθηνότερα από τα τρέχοντα LLM, διευρύνοντας τα όρια της ευφυΐας και της ταχύτητας για τα γλωσσικά μοντέλα. Ανακοινώνουμε την οικογένεια Mercury των μεγάλων γλωσσικών μοντέλων διάχυσης (dLLMs), μια νέα γενιά LLMs που διευρύνει τα όρια της γρήγορης και υψηλής ποιότητας παραγωγής κειμένου.

 Το Mercury είναι έως και 10 φορές ταχύτερο από τα LLMs με βελτιστοποιημένη ταχύτητα στα όρια. Τα μοντέλα μας τρέχουν με ταχύτητα άνω των 1000 tokens/sec σε NVIDIA H100, ταχύτητα που προηγουμένως ήταν δυνατή μόνο με τη χρήση προσαρμοσμένων τσιπ. Ένα μοντέλο παραγωγής κώδικα, το Mercury Coder, είναι διαθέσιμο για δοκιμή σε μια παιδική χαρά. Προσφέρουμε στους εταιρικούς πελάτες πρόσβαση σε κώδικα και γενικευμένα μοντέλα μέσω ενός API και επιτόπιων αναπτύξεων.

Mercury, το πρώτο εμπορικό μοντέλο διάχυσης μεγάλων γλωσσών

Η Anthropic άντλησε 3,5 δισ. δολάρια σε αποτίμηση 61,5 δισ. δολαρίων μετά την καταβολή των χρημάτων. Ο γύρος πραγματοποιήθηκε υπό την ηγεσία της Lightspeed Venture Partners, με τη συμμετοχή των Bessemer Venture Partners, Cisco Investments, D1 Capital Partners, Fidelity Management & Research Company, General Catalyst, Jane Street, Menlo Ventures και Salesforce Ventures, μεταξύ άλλων νέων και υφιστάμενων επενδυτών. Με την επένδυση αυτή, η Anthropic θα προωθήσει την ανάπτυξη συστημάτων τεχνητής νοημοσύνης επόμενης γενιάς, θα επεκτείνει την υπολογιστική της ικανότητα, θα εμβαθύνει την έρευνά της στη μηχανιστική ερμηνευσιμότητα και ευθυγράμμιση και θα επιταχύνει τη διεθνή της επέκταση.

Η Anthropic συγκεντρώνει 3,5 δισ. δολάρια για να τροφοδοτήσει τις φιλοδοξίες της στον τομέα AI

Πρόσφατα Άρθρα

Το Bob της IBM βάζει κανόνες στην AI ανάπτυξη κώδικα.

IBM Bob: AI πλατφόρμα για ασφαλέστερη ανάπτυξη λογισμικού

29 Απριλίου, 2026
Η Lightelligence, η πρώτη εταιρεία photonics chips από την ηπειρωτική Κίνα που εισήχθη στο χρηματιστήριο του Χονγκ Κονγκ, είδε την τιμή της μετοχής της να εκτοξεύεται σχεδόν 400% στο χρηματιστηριακό της ντεμπούτο.

Η Lightelligence ποντάρει στη φωτονική για την AI

29 Απριλίου, 2026
Claude Mythos Preview: η AI που αλλάζει τους κανόνες της κυβερνοασφάλειας

Claude Mythos Preview: η AI που αλλάζει τους κανόνες της κυβερνοασφάλειας

29 Απριλίου, 2026

Ετικέτες

Adobe AI Agents AI News AI Tools AI στην καθημερινότητα Alexa Alibaba Amazon AMD Anthropic Apple AWS Azure AI Chatbot ChatGPT Claude Copilot Deepmind DeepSeek Gemini GenAI Google Grok IBM Intel Llama Meta Microsoft Mistral Moltbook Nvidia OpenAI Oracle Perplexity Physical AI Salesforce Samsung SAP xAI Εκπαίδευση Επιχειρήσεις Ευρωπαϊκή Ένωση Ηνωμένες Πολιτείες Αμερικής Μέσα Κοινωνικής Δικτύωσης Υγεία

Μενού

  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI
  • Σχετικά με εμάς
  • Βασικές έννοιες
  • Όροι Χρήσης
  • Ιδιωτικότητα

© 2024 Gain - Greek AI Network, all rights reserved.

No Result
View All Result
  • Αρχική
  • Νέα
  • Εργαλεία AI
    • Για Βίντεο
    • Για Εικόνα
    • Για Εκπαιδευτικούς
    • Για Εξειδικευμένες Εφαρμογές
    • Για Ήχο
    • Για Κείμενο
  • Εφαρμογές AI
  • Βασικές έννοιες
  • Εκπαιδευτικά Προγράμματα
    • Δωρεάν σεμινάρια AI
    • Κατάρτηση AI

© 2024 Gain - Greek AI Network, all rights reserved.