Τι αποκαλύπτει η νέα έρευνα του Stanford για την αυτοματοποίηση, την ενίσχυση και τις δεξιότητες
Μια φρέσκια, μεγάλης κλίμακας μελέτη από το Stanford χαρτογραφεί –με τη βοήθεια 1.500 εργαζομένων και 52 ειδικών– πού θέλουμε όντως να αυτοματοποιήσουμε εργασιακά tasks με AI agents, πού προτιμούμε συνεργασία ανθρώπου–μηχανής, πώς ταιριάζουν (ή συγκρούονται) αυτές οι επιθυμίες με τις σημερινές τεχνολογικές δυνατότητες και ποιες ανθρώπινες δεξιότητες αναμένεται να αναβαθμιστούν στην εποχή των πρακτόρων AI.
Γιατί αυτή η έρευνα είναι σημαντική
Το 2025 οι “AI agents” –συστήματα με στόχους, πρόσβαση σε εργαλεία και ικανότητα εκτέλεσης πολυβηματικών ροών– ξεφεύγουν από τα εργαστήρια και μπαίνουν στον πραγματικό χώρο εργασίας. Ωστόσο, ένα κενό παρέμενε: τι θέλουν οι ίδιοι οι εργαζόμενοι να κάνουν οι agents, τι μπορούν όντως να κάνουν σήμερα οι τεχνολογίες, και πώς εναρμονίζονται αυτά τα δύο; Τη σύγκλιση επιχειρεί η μελέτη “Future of Work with AI Agents: Auditing Automation and Augmentation Potential across the U.S. Workforce” (arXiv:2506.06576v2, 11 Ιουνίου 2025) της ομάδας του Stanford, εισάγοντας μια μεθοδική «επιθεώρηση» (audit) σε επίπεδο εργασιακών tasks και μια νέα κλίμακα «Ανθρώπινης Αυτοτέλειας» (Human Agency Scale — HAS).
Τι εξετάζει ακριβώς η μελέτη
Οι ερευνητές δημιούργησαν το WORKBank, μια βάση γνώσης για το πώς μπορούν (και θα έπρεπε) να ενσωματωθούν agents στην εργασία. Συγκέντρωσαν δεδομένα Ιανουάριο–Μάιο 2025 από 1.500 εργαζόμενους που κάλυψαν 104 επαγγέλματα και αξιολόγησαν 844 επιμέρους εργασιακά tasks, ενώ 52 ειδικοί AI βαθμολόγησαν την τρέχουσα τεχνική ικανότητα των agents στις ίδιες δραστηριότητες. Το δείγμα προήλθε από Prolific, Upwork και στοχευμένο LinkedIn outreach, με IRB-εγκεκριμένη διαδικασία και φίλτρα ποιότητας (task familiarity, πολλαπλές αξιολογήσεις ανά task κ.λπ.).
Για να διασφαλιστεί αντιπροσωπευτικότητα, οι ερευνητές ξεκίνησαν από το O*NET (βάση του Υπουργείου Εργασίας των ΗΠΑ), φιλτράροντας σε 2.131 “computer-performable” tasks από 287 επαγγέλματα, αλλά κράτησαν για ανάλυση μόνο επαγγέλματα με ≥10 έγκυρες εργαζομενικές απαντήσεις (τελικά 104 επαγγέλματα / 844 tasks).
Η «Κλίμακα Ανθρώπινης Αυτοτέλειας» (HAS): από την αυτοματοποίηση στη συνεργασία
Κεντρική καινοτομία της έρευνας είναι η Human Agency Scale (HAS), με πέντε επίπεδα που περιγράφουν πόση ανθρώπινη εμπλοκή απαιτείται ιδανικά σε ένα task: H1 (πλήρης αυτοματοποίηση), H2 (ελάχιστη ανθρώπινη είσοδος), H3 (ισότιμη συνεργασία ανθρώπου–agent), H4 (ουσιώδης ανθρώπινη συμβολή) και H5 (ανθρώπινη εμπλοκή αναντικατάστατη). Η κλίμακα μετατρέπει το κλασικό «να αυτοματοποιηθεί ή όχι;» σε φάσμα αυτοματοποίησης–ενίσχυσης, εστιάζοντας στη διατήρηση της ανθρώπινης αυτοτέλειας (agency) και στην προσαρμογή του ρόλου του agent ανάλογα με το task.
Ευρήματα #1: Οι εργαζόμενοι θέλουν αυτοματοποίηση εκεί που… πονάει
Στην ερώτηση «Αν ένας agent μπορούσε να κάνει πλήρως αυτό το task, πόσο θα ήθελες να το κάνει;» η πλειοψηφία δεν ήταν αρνητική: στο 46,1% των tasks οι εργαζόμενοι είχαν θετική στάση (>3 σε Likert 1–5). Μόλις 7,11% βαθμολογήθηκαν με ≥4 (ισχυρή επιθυμία), ενώ 6,16% με ≤2 (απροθυμία). Το πιο συχνό κίνητρο υπέρ της αυτοματοποίησης ήταν «να ελευθερώσω χρόνο για υψηλότερης αξίας εργασία» — το επέλεξε το 69,38% των θετικών απαντήσεων. Ακολούθησαν η επαναληπτικότητα (46,6%), η βελτίωση ποιότητας (46,6%) και το στρες/νοητική κόπωση (25,5%). Με απλά λόγια: οι εργαζόμενοι θέλουν agents για να τους βγάλουν από τα βαρετά/βαριά κομμάτια, όχι για να τους αντικαταστήσουν δημιουργικά.
Ο κλάδος «Τέχνες–Σχέδιο–ΜΜΕ» ξεχώρισε για την επιφυλακτικότητά του: μόνο 17,1% των tasks εκεί πήραν θετική επιθυμία αυτοματοποίησης (>3). Στις ηχογραφημένες απαντήσεις, συχνά εκφράστηκε ρητά «όχι στην παραγωγή περιεχομένου από AI», ναι όμως σε υποβοήθηση ροής εργασίας (οργάνωση, σύνοψη, έλεγχοι).
Ενδιαφέρον εύρημα είναι και το χάσμα επιθυμίας vs πραγματικής χρήσης: οι 10 κορυφαίες ειδικότητες με τη μεγαλύτερη μέση επιθυμία αυτοματοποίησης αντιστοιχούσαν μόλις στο 1,26% της συνολικής χρήσης του Claude.ai (Δεκ. 2024–Ιαν. 2025). Άρα, η σημερινή χρήση LLMs δεν αντικατοπτρίζει απαραίτητα τα πεδία όπου οι εργαζόμενοι πραγματικά θέλουν βοήθεια — πιθανό «τυφλό σημείο» για επενδυτές και product teams.
Την ίδια στιγμή, 28,0% των συμμετεχόντων εξέφρασαν φόβους/αρνητικό συναίσθημα για την καθημερινή χρήση AI. Τα τρία πιο συχνά θέματα: έλλειψη εμπιστοσύνης στην ακρίβεια/αξιοπιστία (45,0%), φόβος αντικατάστασης (23,0%), και απουσία ανθρώπινων ιδιοτήτων (16,3%).
Ευρήματα #2: Το «τοπίο επιθυμίας–ικανότητας» και οι τέσσερις ζώνες δράσης
Συνδυάζοντας δύο μετρήσεις για κάθε task —επιθυμία αυτοματοποίησης από εργαζόμενους (Aw) και τεχνολογική ικανότητα από ειδικούς (Ae)— οι ερευνητές χαρτογράφησαν το πεδίο σε τέσσερις ζώνες:
- “Green Light”: υψηλή επιθυμία & υψηλή ικανότητα — ισχυροί υποψήφιοι για ανάπτυξη και υιοθέτηση.
- “Red Light”: χαμηλή επιθυμία αλλά υψηλή ικανότητα — τεχνικά εφικτό, κοινωνικά/ηθικά ευαίσθητο.
- “R&D Opportunity”: υψηλή επιθυμία αλλά χαμηλή ικανότητα — προσανατολισμός έρευνας/καινοτομίας.
- Χαμηλή προτεραιότητα: χαμηλή επιθυμία & χαμηλή ικανότητα — αναμονή/παρακολούθηση.
Αποκαλυπτικό: η συσχέτιση επιθυμίας–ικανότητας ήταν ασθενής (Spearman ρ=0,17), ενώ η επιθυμία αυτοματοποίησης συσχετίστηκε αρνητικά με άγχος απώλειας δουλειάς και απόλαυση του task (πιο πολύ απολαμβάνω/θεωρώ κρίσιμο το task → λιγότερο θέλω να φύγει από τα χέρια μου).
Από την πλευρά των επενδύσεων, η χαρτογράφηση των YC startups στα tasks έδειξε ότι το 41,0% των αντιστοιχίσεων πέφτει σε Low Priority και Red Light ζώνες — δηλαδή, όχι εκεί όπου συγκλίνουν υψηλή κοινωνική επιθυμία και υψηλή τεχνική ωριμότητα. Αντίθετα, αρκετά promising tasks στο Green Light και στο R&D Opportunity υπο-εξυπηρετούνται σήμερα.
Ευρήματα #3: Πόση ανθρώπινη εμπλοκή θέλουμε πραγματικά; (HAS στην πράξη)
Σε επίπεδο HAS, οι εργαζόμενοι τείνουν να ζητούν περισσότερη ανθρώπινη αυτοτέλεια από όση θεωρούν εφικτή αναγκαία οι ειδικοί σήμερα. Συγκεκριμένα, μόνο στο 26,9% των tasks υπήρξε ταύτιση worker vs expert. Στο 47,5% των tasks οι εργαζόμενοι στόχευσαν υψηλότερο HAS από την εκτίμηση των ειδικών (κάτω τρίγωνο του heatmap), προοιωνίζοντας πιθανά σημεία τριβής όσο ωριμάζει η τεχνολογία.
Παράλληλα, αναδύεται ένα μοτίβο «ανεστραμμένου U»: σε πολλές ειδικότητες οι προτιμήσεις συγκλίνουν στο H3 — ισότιμη συνεργασία ανθρώπου–agent. Μάλιστα, το H3 είναι κυρίαρχο σε 47/104 επαγγέλματα (δηλ. 45,2%), δείχνοντας ότι το «collaboration-first» είναι η πιο ρεαλιστική και αποδεκτή αρχιτεκτονική χρήσης agents βραχυπρόθεσμα.
Στα άκρα της κλίμακας, λίγα επαγγέλματα είναι πραγματικά H5-dominant: οι Editors (από την πλευρά εργαζομένων), ενώ από τους ειδικούς μόνο οι Mathematicians και Aerospace Engineers κρίνονται ως H5. Χαρακτηριστικό γνώρισμα των H5-tasks είναι η διαπροσωπική επικοινωνία (workers) και ο συνδυασμός διαπροσωπικότητας + βαθιάς εξειδίκευσης (experts).
Ευρήματα #4: Μετατόπιση δεξιοτήτων — από το «information processing» στις «ανθρώπινες/οργανωτικές» ικανότητες
Χαρτογραφώντας tasks σε βασικές δεξιότητες (O*NET Generalized Work Activities) και συνδέοντάς τες με απαιτούμενο ανθρώπινο HAS (από τους ειδικούς) και μέσους μισθούς BLS, οι ερευνητές διακρίνουν τρεις τάσεις:
- Συρρίκνωση της σχετικής βαρύτητας δεξιοτήτων επεξεργασίας/ανάλυσης πληροφορίας (παραδοσιακά «καλοπληρωμένες»).
- Άνοδος δεξιοτήτων διαπροσωπικών, οργανωτικών, λήψης αποφάσεων και κρίσης ποιότητας, που εμφανίζονται συχνότερα σε tasks με υψηλό HAS.
- Το «πακέτο» των high-HAS δεξιοτήτων γίνεται ευρύτερο και πιο πολυδιάστατο (οργάνωση, επικοινωνία, καθοδήγηση, συντονισμός πόρων κ.ά.).
Με άλλα λόγια, όσο οι agents αναλαμβάνουν τη βαριά πληροφοριακή ρουτίνα, η ανθρώπινη αξία μετατοπίζεται προς ηγεσία, συνεργασία, κρίση, συντονισμό — δεξιότητες δύσκολα αυτοματοποιήσιμες και κρίσιμες για ποιοτική απόδοση.
Μεθοδολογικές σημειώσεις & αξιοπιστία
- Οι αξιολογήσεις των ειδικών εμφάνισαν κριτήριο συμφωνίας Krippendorff’s α γύρω στο 0,51–0,54 για τις δύο βασικές κλίμακες (ικανότητα και HAS), υποδηλώνοντας μέτρια σύγκλιση μεταξύ αξιολογητών — εύλογη σε ένα νέο, σύνθετο αντικείμενο.
- Μικτό μοντέλο έδειξε ότι περίπου 5% της διακύμανσης στην επιθυμία αυτοματοποίησης εξηγείται από ιδιότητες task (Intraclass Correlation ICC≈0,050), πέρα από δημογραφικά/στάσεις. Άρα, το ίδιο το task έχει ουσιαστικό ρόλο στο «θέλω/δεν θέλω» έναν agent.
Τι σημαίνουν όλα αυτά για οργανισμούς και ομάδες προϊόντος
- Ξεκινήστε από τη ζώνη “Green Light”: Εκεί όπου συνυπάρχουν υψηλή επιθυμία εργαζομένων και υψηλή τεχνική ικανότητα, η υιοθέτηση agents έχει πιθανότητα να προσφέρει πραγματική παραγωγικότητα χωρίς κοινωνική τριβή. Μην αφήνετε τις επενδύσεις να κατευθύνονται μόνο από το «τι είναι τεχνικά cool». Η έρευνα δείχνει ήδη ασυμμετρία (41,0% χαρτογραφήσεων σε Low Priority/Red Light).
- Σχεδιάστε για H3 (ισότιμη συνεργασία): Με 45,2% των επαγγελμάτων να «ψηφίζουν» H3 ως κυρίαρχο, τα προϊόντα agents θα πρέπει να δίνουν διαφάνεια, ελέγχους, συν-λήψη αποφάσεων, και απρόσκοπτη διεπαφή με ανθρώπους — όχι μόνο “fully-autonomous” pipelines.
- Μειώστε το ρίσκο “Red Light”: Σε tasks με τεχνική ικανότητα αλλά χαμηλή επιθυμία, η υιοθέτηση χωρίς συνεκτικό change management μπορεί να αποτύχει κοινωνικά/ηθικά. Επικοινωνία, επιλογή λειτουργίας “assistant mode”, σταδιακή εισαγωγή και ανθρωποκεντρικοί μηχανισμοί ελέγχου είναι απαραίτητα.
- Επενδύστε σε R&D όπου υπάρχει ζήτηση: Η “R&D Opportunity” ζώνη σηματοδοτεί ανεκπλήρωτες ανάγκες. Προτεραιοποιήστε applied research εκεί, ιδίως σε domains πέρα από software/devops, όπου σήμερα συγκεντρώνεται δυσανάλογη προσοχή.
- Reskilling με έμφαση στις «ανθρώπινες» δεξιότητες: Εκπαίδευση σε συντονισμό, επικοινωνία, ηγεσία, λήψη αποφάσεων, ποιότητα, σε συνδυασμό με AI literacy (έλεγχος, επιμέλεια, αξιολόγηση) — αυτό είναι το «δίπτυχο» που χτίζει ανθεκτικότητα εργατικού δυναμικού.
Πρακτικός οδηγός ενσωμάτωσης AI agents (βασισμένος στα ευρήματα)
- Χαρτογραφήστε tasks με βάση Aw & Ae για να ορίσετε τις δικές σας τέσσερις ζώνες. Ξεκινήστε πιλοτικά από Green Light.
- Σχεδιάστε διαδικασίες H3: αποφάσεις με «dual control», καθημερινή συμβίωση ανθρώπου–agent, human-in-the-loop αξιολογήσεις ποιότητας.
- Μετρήστε το “time freed”: Το 69,38% όσων θέλουν αυτοματοποίηση το ζητούν για να απελευθερώσουν χρόνο — κάντε το βασικό KPI (ώρες που επιστρέφουν σε high-value work).
- Διαχειριστείτε την εμπιστοσύνη: Αντιμετωπίστε την έλλειψη εμπιστοσύνης (45,0%) με auditability, τεκμηριωμένα data provenance, και ανιχνευσιμότητα λαθών.
- Σε “κόκκινες” περιοχές, προτιμήστε assistant modes με ρητές «χειρολαβές» ελέγχου (explain, approve, edit), όχι αυτόματη ανάληψη.
Περιορισμοί που πρέπει να θυμόμαστε
Η WORKBank αποτυπώνει ένα στιγμιότυπο της τεχνολογικής κατάστασης (αρχές 2025). Νέα ικανότητες agents μπορεί να μετακινήσουν tasks σε άλλες ζώνες, ενώ αναδυόμενες εργασίες (που δεν υπάρχουν στο O*NET) δεν καλύπτονται πλήρως. Επίσης, η κάλυψη αφορά 104 από 287 “computer-using” επαγγέλματα (όσα είχαν ≥10 απαντήσεις). Παρά τα ισχυρά ποιοτικά φίλτρα, πάντα υπάρχει ο κίνδυνος ασυμμετρίας πληροφόρησης εργαζομένων για τις τρέχουσες/μελλοντικές δυνατότητες agents.
Συμπέρασμα: Από το «AI θα μας αντικαταστήσει» στο «AI θα συνεργαστεί μαζί μας»
Η μελέτη του Stanford προσφέρει μια πρακτική πυξίδα για ηγέτες, product teams και εργαζόμενους: πού να βάλουμε agents τώρα, πώς να τους σχεδιάσουμε για συνεργασία (H3), και ποιες δεξιότητες να καλλιεργήσουμε ώστε να ανθίσουμε στο νέο τοπίο. Τα ποσοστά μιλούν καθαρά: 46,1% των tasks είναι ώριμα για κάποια μορφή αυτοματοποίησης από την πλευρά της επιθυμίας, όμως η εμπιστοσύνη, η απόλαυση της εργασίας και το αίσθημα ασφάλειας διαμορφώνουν τα όρια χρήσης. Οι οργανισμοί που θα κινηθούν με ανθρωποκεντρικό σχεδιασμό, ξεκινώντας από τις “Green Light” ευκαιρίες και επενδύοντας σε R&D όπου υπάρχει υψηλή ζήτηση, θα κερδίσουν χρόνο, ποιότητα και buy-in. Και καθώς οι agents θα απορροφούν τη ρουτίνα της πληροφορίας, η αξία του ανθρώπου θα μετριέται ακόμη περισσότερο σε συνεργασία, κρίση και ηγεσία — εκεί που το HAS γράφει ξεκάθαρα: H3 και πάνω.
Πηγή ανάλυσης και ποσοτικών στοιχείων: Stanford University — “Future of Work with AI Agents: Auditing Automation and Augmentation Potential across the U.S. Workforce” (arXiv:2506.06576v2, 11 Ιουνίου 2025).














