Ο Διευθύνων Σύμβουλος της Anthropic και οι Προκλήσεις της Τεχνητής Νοημοσύνης
Ο Διευθύνων Σύμβουλος της Anthropic, Dario Amodei, πιστεύει ότι τα σημερινά μοντέλα τεχνητής νοημοσύνης κάνουν λιγότερα λάθη από τους ανθρώπους, δήλωσε κατά τη διάρκεια συνέντευξης τύπου στο πρώτο συνέδριο προγραμματιστών της εταιρείας, Code with Claude, στο Σαν Φρανσίσκο. Ο Amodei υπογράμμισε ότι οι παραισθήσεις της τεχνητής νοημοσύνης δεν αποτελούν εμπόδιο για την επίτευξη της Γενικής Τεχνητής Νοημοσύνης (AGI), δηλαδή συστημάτων με νοημοσύνη ισάξια ή ανώτερη από την ανθρώπινη. «Ανάλογα με το πώς το μετράμε, τα μοντέλα τεχνητής νοημοσύνης πιθανόν να κάνουν λιγότερα λάθη από τους ανθρώπους, αλλά τα κάνουν με πιο απρόβλεπτους τρόπους», ανέφερε, απαντώντας σε ερώτηση του TechCrunch.
Η Πορεία προς τη Γενική Τεχνητή Νοημοσύνη και οι Δυσκολίες
Ο Amodei είναι από τους πιο αισιόδοξους ηγέτες στον τομέα της τεχνητής νοημοσύνης για την επίτευξη της AGI. Σε άρθρο του πέρυσι, είχε εκφράσει την πεποίθηση ότι η AGI μπορεί να επιτευχθεί το 2026. Κατά τη διάρκεια της συνέντευξης τύπου, παρατήρησε ότι υπάρχει σταθερή πρόοδος προς αυτή την κατεύθυνση. «Όλοι ψάχνουν για εμπόδια σε όσα μπορεί να κάνει η τεχνητή νοημοσύνη», είπε. «Δεν υπάρχουν τέτοια εμπόδια». Παρόλα αυτά, άλλοι ηγέτες, όπως ο Διευθύνων Σύμβουλος της Google DeepMind, Demis Hassabis, θεωρούν ότι οι παραισθήσεις αποτελούν σημαντικό εμπόδιο, καθώς τα μοντέλα συχνά κάνουν λάθη σε προφανείς ερωτήσεις.
Οι Παραισθήσεις της Τεχνητής Νοημοσύνης και η Σύγκριση με τους Ανθρώπους
Είναι δύσκολο να επιβεβαιωθεί ο ισχυρισμός του Amodei, καθώς οι περισσότερες μετρήσεις συγκρίνουν μοντέλα τεχνητής νοημοσύνης μεταξύ τους και όχι με τους ανθρώπους. Ορισμένες τεχνικές, όπως η πρόσβαση σε αναζητήσεις στο διαδίκτυο, φαίνεται να μειώνουν τα ποσοστά λαθών. Ωστόσο, υπάρχουν ενδείξεις ότι οι παραισθήσεις αυξάνονται σε πιο προηγμένα μοντέλα λογικής. Τα τελευταία μοντέλα της OpenAI έχουν υψηλότερα ποσοστά λαθών από τα προηγούμενα, χωρίς να υπάρχει σαφής κατανόηση του γιατί συμβαίνει αυτό.
Η Ανθρώπινη Παράμετρος και η Εμπιστοσύνη στα Μοντέλα
Ο Amodei επεσήμανε ότι οι άνθρωποι, όπως οι τηλεοπτικοί παρουσιαστές και οι πολιτικοί, κάνουν λάθη συνεχώς. Το γεγονός ότι και η τεχνητή νοημοσύνη κάνει λάθη δεν αποτελεί ένδειξη έλλειψης νοημοσύνης. Ωστόσο, αναγνώρισε ότι η αυτοπεποίθηση με την οποία τα μοντέλα παρουσιάζουν ανακρίβειες ως γεγονότα μπορεί να είναι προβληματική. Η Anthropic έχει διεξάγει έρευνες για την τάση των μοντέλων να εξαπατούν τους ανθρώπους, με το Claude Opus 4 να παρουσιάζει υψηλή τάση για παραπλάνηση.
Συμπεράσματα και Προοπτικές για το Μέλλον της Τεχνητής Νοημοσύνης
Οι παρατηρήσεις του Amodei υποδηλώνουν ότι η Anthropic μπορεί να θεωρήσει ένα μοντέλο τεχνητής νοημοσύνης ως AGI, ακόμα κι αν εξακολουθεί να κάνει λάθη. Αν και για πολλούς η ύπαρξη λαθών μπορεί να σημαίνει ότι η τεχνητή νοημοσύνη δεν έχει φτάσει ακόμα το επίπεδο της AGI, η πρόοδος στον τομέα είναι αδιαμφισβήτητη. Η συζήτηση για τις παραισθήσεις και την αξιοπιστία των μοντέλων συνεχίζεται, με την τεχνητή νοημοσύνη να εξελίσσεται συνεχώς και να υπόσχεται νέες δυνατότητες και προκλήσεις.















