Κατανόηση της Αναζήτησης για την Τεχνητή Γενική Νοημοσύνη και οι Επιπτώσεις της
Η επιδίωξη της Τεχνητής Γενικής Νοημοσύνης (AGI) αποτελεί έναν κοινό στόχο μεταξύ των ειδικών στον τομέα της τεχνητής νοημοσύνης. Σύμφωνα με τον ορισμό της OpenAI, η AGI αναφέρεται σε συστήματα που μπορούν να λειτουργούν αυτόνομα και να υπερβαίνουν τις ανθρώπινες ικανότητες στην πλειονότητα των οικονομικά σημαντικών εργασιών. Την περασμένη χρονιά, η OpenAI ανακοίνωσε τη φιλοδοξία της να επιτύχει την AGI εντός πενταετίας. Αν και ορισμένοι ερευνητές από εταιρείες όπως η Meta και η Anthropic αμφισβητούν την ορολογία, η AGI θεωρείται από πολλούς επιστήμονες της τεχνητής νοημοσύνης είτε άμεσος είτε έμμεσος στόχος. Η Google DeepMind έχει προχωρήσει ακόμη περισσότερο, δημιουργώντας μια κατηγοριοποίηση των «επιπέδων AGI», παρουσιάζοντας βασικές αρχές και ορισμούς που σχετίζονται με την έννοια αυτή.
Ωστόσο, η AGI δεν αποτελεί πλέον απλώς έναν τεχνικό στόχο· έχει εξελιχθεί και σε πολιτικό ορόσημο. Ισχυροί παράγοντες στον χώρο της τεχνολογίας επιδιώκουν να επιτύχουν αυτό το ασαφές αλλά φιλόδοξο επίτευγμα. Κατά την παρουσίαση της πρωτοβουλίας για το κέντρο δεδομένων “Stargate” στον Λευκό Οίκο στις 21 Ιανουαρίου, ο Masayoshi Son της SoftBank δήλωσε στον τότε Πρόεδρο των ΗΠΑ, Ντόναλντ Τραμπ, ότι η AGI θα μπορούσε να πραγματοποιηθεί κατά τη διάρκεια της προεδρίας του. «Η AGI πλησιάζει ραγδαία», ανέφερε χαρακτηριστικά, προσθέτοντας πως το επόμενο βήμα μετά την AGI θα είναι η Τεχνητή Υπερνοημοσύνη (ASI), η οποία θα μπορούσε να επιλύσει προβλήματα που η ανθρωπότητα δεν είχε φανταστεί ποτέ ως εφικτά. «Αυτό σηματοδοτεί την αυγή μιας νέας χρυσής εποχής», τόνισε.
Κριτική Προσέγγιση στην AGI ως Τελικό Στόχο της Έρευνας στην Τεχνητή Νοημοσύνη
Στο πλαίσιο μιας σύγχρονης συζήτησης σχετικά με την AGI, ορισμένοι ειδικοί αμφισβητούν εάν θα έπρεπε πράγματι να αποτελεί τον απόλυτο σκοπό της έρευνας στην τεχνητή νοημοσύνη. Συγκεκριμένα, πρόσφατη επιστημονική δημοσίευση υποστηρίζει ότι η AGI δεν θα έπρεπε να είναι ο κύριος προσανατολισμός του κλάδου.
Στη συζήτηση αυτή συμμετείχαν οι:
- Eryk Salvaggio, επισκέπτης καθηγητής στο Ινστιτούτο Τεχνολογίας του Ρότσεστερ και συνεργάτης του Tech Policy Press,
- Borhane Blili-Hamelin, ανεξάρτητος ερευνητής τεχνητής νοημοσύνης και επιστήμονας δεδομένων στην καναδική τράπεζα TD (ο οποίος διευκρινίζει ότι οι απόψεις του είναι προσωπικές και δεν εκπροσωπούν τον εργοδότη του),
- Margaret Mitchell, επικεφαλής επιστήμονας ηθικής στην εταιρεία Hugging Face, που εστιάζει στην ενσωμάτωση ηθικών αξιών στην τεχνολογία.
Η συζήτηση βασίστηκε σε ένα άρθρο που φέρει τον τίτλο “Σταματήστε να Αντιμετωπίζετε την AGI ως τον Απόλυτο Στόχο της Έρευνας στην Τεχνητή Νοημοσύνη”. Το κείμενο αυτό αμφισβητεί το αφήγημα που προωθεί την AGI ως την απόλυτη κατεύθυνση της τεχνητής νοημοσύνης και προσφέρει μια διαφορετική προσέγγιση ως προς το πώς πρέπει να καθορίζονται οι προτεραιότητες στον τομέα.
Η AGI ως Παραπλανητικός Στόχος
Η συζήτηση ξεκίνησε με τον δημοσιογράφο Justin Hendrix, ο οποίος εξέφρασε την επιθυμία να μάθει περισσότερα για τις απόψεις των συμμετεχόντων, υπογραμμίζοντας ότι η θέση τους δεν αντικατοπτρίζει απαραίτητα όλους τους συγγραφείς του άρθρου. Με αφορμή τη δήλωση του Masayoshi Son για την ταχεία έλευση της AGI, ο Hendrix ρώτησε γιατί αυτός ο στόχος θεωρείται προβληματικός.
Η Margaret Mitchell απάντησε ότι το πρόβλημα ξεκινά από την ίδια την έννοια της AGI, καθώς δεν υπάρχει σαφής ορισμός για το τι ακριβώς περιλαμβάνει. Σημείωσε ότι ο όρος χρησιμοποιείται συχνά για να εξυπηρετεί πολιτικά και επιχειρηματικά συμφέροντα, προωθώντας μια αφήγηση που επικεντρώνεται στην τεχνολογική πρόοδο εις βάρος των πραγματικών κοινωνικών αναγκών.
Ο Eryk Salvaggio πρόσθεσε ότι η ασάφεια γύρω από την AGI επιτρέπει σε διάφορους φορείς να την ερμηνεύουν κατά το δοκούν, χρησιμοποιώντας την ως ένα αφηρημένο σύμβολο προόδου, χωρίς ωστόσο να υπάρχει σαφής κατεύθυνση ή συναίνεση για το τι σημαίνει στην πράξη. Αυτό οδηγεί σε μια τυφλή πίστη στην AGI, με αποτέλεσμα να απομακρύνεται η προσοχή από πιο ουσιαστικές προκλήσεις, όπως οι κοινωνικές και ηθικές επιπτώσεις της τεχνητής νοημοσύνης.
Η Ψευδαίσθηση της Συναίνεσης και οι Επιπτώσεις της στην Έρευνα της ΤΝ
Ο Borhane Blili-Hamelin επισήμανε ότι η γενικόλογη χρήση του όρου AGI δημιουργεί την ψευδαίσθηση ότι υπάρχει συναίνεση γύρω από τον στόχο αυτό. Στην πραγματικότητα, υπάρχουν βαθιές διαφωνίες σχετικά με το ποιες προτεραιότητες θα έπρεπε να έχει η έρευνα στην τεχνητή νοημοσύνη, και αυτές οι διαφωνίες συχνά αγνοούνται.
Η Margaret Mitchell προειδοποίησε ότι η αντίληψη της AGI ως ενός αυτονόητα επιθυμητού στόχου μπορεί να αποκλείσει κρίσιμες αναλύσεις για το πώς η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για να ωφελήσει πραγματικά την κοινωνία. Αυτό, όπως εξηγεί, περιορίζει τη συζήτηση σε ένα ελιτίστικο πλαίσιο, όπου λίγοι ισχυροί παίκτες καθορίζουν την κατεύθυνση της τεχνολογικής εξέλιξης.
Ο Justin Hendrix συσχέτισε αυτή την ψευδαίσθηση συναίνεσης με το γενικότερο αφήγημα της Silicon Valley, που παρουσιάζει την AGI ως το αναπόφευκτο μέλλον της ανθρωπότητας, χωρίς να εξετάζει τις εναλλακτικές διαδρομές που θα μπορούσε να ακολουθήσει η τεχνητή νοημοσύνη.
Συμπέρασμα: Επανεξετάζοντας την Κατεύθυνση της Έρευνας στην Τεχνητή Νοημοσύνη
Η συζήτηση κατέληξε στην ανάγκη για μια πιο ισορροπημένη και δημοκρατική προσέγγιση στην έρευνα της τεχνητής νοημοσύνης. Ο Eryk Salvaggio τόνισε ότι η προώθηση της AGI ως απόλυτου στόχου μπορεί να χρησιμοποιηθεί ως μέσο παράκαμψης δημοκρατικών διαδικασιών και κοινωνικού διαλόγου.
Οι συμμετέχοντες συμφώνησαν ότι η ηθική και κοινωνική υπευθυνότητα πρέπει να βρίσκονται στο επίκεντρο της έρευνας στην τεχνητή νοημοσύνη, αντί της εμμονής με έναν ασαφή και πιθανώς μη ρεαλιστικό στόχο. Κάλεσαν την επιστημονική κοινότητα να επανεξετάσει τις προτεραιότητές της και να ενσωματώσει περισσότερες συμμετοχικές και συμπεριληπτικές συζητήσεις για το μέλλον της τεχνητής νοημοσύνης.












![Η Microsoft δρομολογεί ένα ερευνητικό έργο για την εκτίμηση της επιρροής συγκεκριμένων παραδειγμάτων εκπαίδευσης στα κείμενα, τις εικόνες και άλλους τύπους μέσων που δημιουργούν τα παραγωγικά μοντέλα τεχνητής νοημοσύνης. Αυτό προκύπτει από μια αγγελία εργασίας που χρονολογείται από τον Δεκέμβριο και ανακυκλώθηκε πρόσφατα στο LinkedIn. Σύμφωνα με την αγγελία, η οποία αναζητά έναν ασκούμενο ερευνητή, το έργο θα προσπαθήσει να αποδείξει ότι τα μοντέλα μπορούν να εκπαιδευτούν με τέτοιο τρόπο ώστε να μπορεί να εκτιμηθεί «αποτελεσματικά και χρήσιμα» ο αντίκτυπος συγκεκριμένων δεδομένων - π.χ. φωτογραφιών και βιβλίων - στα αποτελέσματά τους. «Οι τρέχουσες αρχιτεκτονικές νευρωνικών δικτύων είναι αδιαφανείς όσον αφορά την παροχή πηγών για τις γενιές τους και υπάρχουν [...] καλοί λόγοι να αλλάξει αυτό», αναφέρεται στην καταχώριση. «[Ο ένας είναι,] κίνητρα, αναγνώριση και ενδεχομένως αμοιβή για τους ανθρώπους που συνεισφέρουν ορισμένα πολύτιμα δεδομένα σε απρόβλεπτα είδη μοντέλων που θα θέλουμε στο μέλλον, υποθέτοντας ότι το μέλλον θα μας εκπλήξει ριζικά».](https://gain.gr/wp-content/uploads/2025/03/image_1421030803-75x75.webp)


