Νέα συνεργασία κυβέρνησης και Big Tech για ελέγχους ασφαλείας στην τεχνητή νοημοσύνη
Η κυβέρνηση των Ηνωμένων Πολιτειών προχωρά σε μια σημαντική αλλαγή στον τρόπο με τον οποίο θα παρακολουθεί την ανάπτυξη προηγμένων μοντέλων τεχνητής νοημοσύνης. Μεγάλες τεχνολογικές εταιρείες όπως η Google, η Microsoft και η xAI συμφώνησαν να επιτρέπουν στον αμερικανικό κρατικό μηχανισμό να αξιολογεί νέα AI μοντέλα πριν αυτά διατεθούν δημόσια.
Η πρωτοβουλία αυτή υλοποιείται μέσω του Center for AI Standards and Innovation, γνωστού ως CAISI, ενός οργανισμού που υπάγεται στο Υπουργείο Εμπορίου των ΗΠΑ και έχει στόχο την ανάπτυξη προτύπων και διαδικασιών ασφαλείας για frontier AI συστήματα.
Η εξέλιξη θεωρείται ιδιαίτερα σημαντική για τη διεθνή αγορά AI, καθώς αποτελεί μία από τις πρώτες οργανωμένες προσπάθειες κρατικού ελέγχου προηγμένων μοντέλων χωρίς την επιβολή αυστηρού ρυθμιστικού πλαισίου τύπου Ευρωπαϊκής Ένωσης.
Τι θα εξετάζουν οι νέοι έλεγχοι AI
Σύμφωνα με τις πληροφορίες που δημοσιοποιήθηκαν, οι αξιολογήσεις του CAISI θα επικεντρώνονται σε κρίσιμους τομείς εθνικής ασφάλειας και δυνητικών καταχρήσεων της τεχνητής νοημοσύνης.
Οι δοκιμές θα περιλαμβάνουν:
- κυβερνοασφάλεια,
- βιοασφάλεια,
- κινδύνους σχετικούς με χημικά όπλα,
- αξιολόγηση επιθετικών δυνατοτήτων AI,
- ανάλυση πιθανών misuse scenarios,
- ανάπτυξη βέλτιστων πρακτικών ασφαλείας.
Ο στόχος δεν είναι μόνο η τεχνική αξιολόγηση των μοντέλων αλλά και η δημιουργία κοινών προτύπων μεταξύ κυβέρνησης και βιομηχανίας.
Ο διευθυντής του CAISI, Chris Fall, δήλωσε πως η ανεξάρτητη και αυστηρή επιστημονική αξιολόγηση αποτελεί κρίσιμο παράγοντα για την κατανόηση των επιπτώσεων της frontier AI στην εθνική ασφάλεια των ΗΠΑ. Παράλληλα, υποστήριξε ότι οι συνεργασίες με τις εταιρείες επιτρέπουν στον οργανισμό να επεκτείνει σημαντικά τις δυνατότητες ελέγχου του σε μια περίοδο όπου οι εξελίξεις στην AI επιταχύνονται διαρκώς.
Η Microsoft επιβεβαίωσε δημόσια ότι θα συμμετέχει στις αξιολογήσεις μέσω του Copilot και άλλων AI συστημάτων της, τονίζοντας ότι οι δοκιμές βοηθούν στον εντοπισμό κινδύνων όπως AI-enabled cyberattacks και επιθετικές αυτοματοποιημένες ενέργειες.
Η νέα στρατηγική των ΗΠΑ απέναντι στην AI
Η νέα αυτή πολιτική παρουσιάζει ιδιαίτερο ενδιαφέρον επειδή διαφοροποιείται από τη μέχρι σήμερα ρητορική του προέδρου Donald Trump σχετικά με την τεχνητή νοημοσύνη.
Ο Trump έχει επανειλημμένα υποστηρίξει ότι η υπερβολική ρύθμιση μπορεί να επιβραδύνει την καινοτομία και να επιτρέψει στην Κίνα να αποκτήσει στρατηγικό πλεονέκτημα στην AI κούρσα.
Τον Μάρτιο, η αμερικανική κυβέρνηση παρουσίασε το νέο AI National Policy Framework, το οποίο επικεντρώνεται κυρίως στην επιτάχυνση της υιοθέτησης AI τεχνολογιών και στην απομάκρυνση εμποδίων για τις εταιρείες.
Το ίδιο πλαίσιο ξεκαθαρίζει ότι δεν σχεδιάζεται η δημιουργία νέων ομοσπονδιακών ρυθμιστικών αρχών αποκλειστικά για AI. Αντίθετα, η κυβέρνηση επιδιώκει να αξιοποιήσει υπάρχοντες οργανισμούς, ειδικούς και τεχνικούς φορείς ώστε να εξετάζουν τους κινδύνους ανά τομέα.
Αυτό σημαίνει ότι το μοντέλο που επιλέγουν οι ΗΠΑ διαφέρει σημαντικά από την προσέγγιση της Ευρωπαϊκής Ένωσης, όπου το AI Act εισάγει υποχρεωτικές κατηγοριοποιήσεις ρίσκου και αυστηρές ρυθμίσεις συμμόρφωσης.
Η αμερικανική στρατηγική δείχνει να στηρίζεται περισσότερο σε συνεργασία με τη βιομηχανία παρά σε επιθετική νομοθετική παρέμβαση.
OpenAI και Anthropic είχαν ήδη ξεκινήσει συνεργασία
Η OpenAI και η Anthropic είχαν ήδη υπογράψει αντίστοιχες συμφωνίες με το CAISI από το 2024, κατά την περίοδο της κυβέρνησης Biden.
Ωστόσο, το CAISI ανακοίνωσε τώρα ότι οι υπάρχουσες συμφωνίες “αναδιαπραγματεύθηκαν”, χωρίς να αποκαλύψει ποιες ακριβώς αλλαγές έγιναν στο πλαίσιο συνεργασίας.
Ο Chris Lehane, Chief Global Affairs Officer της OpenAI, αποκάλυψε ότι η εταιρεία έδωσε πρόσβαση στο ChatGPT 5.5 στην αμερικανική κυβέρνηση πριν από τη δημόσια κυκλοφορία του ώστε να πραγματοποιηθούν δοκιμές εθνικής ασφάλειας.
Παράλληλα, η OpenAI συνεργάζεται με το CAISI για ειδικά cybersecurity μοντέλα όπως το GPT-5.5-Cyber, το οποίο στοχεύει στην ενίσχυση αμυντικών δυνατοτήτων απέναντι σε κυβερνοεπιθέσεις.
Το συγκεκριμένο μοντέλο διατίθεται προς το παρόν μόνο σε περιορισμένο αριθμό χρηστών και οργανισμών, καθώς η εταιρεία προσπαθεί να αναπτύξει ασφαλή μοντέλα deployment και μηχανισμούς ελεγχόμενης χρήσης.
Η OpenAI ανέφερε επίσης ότι εργάζεται πάνω σε “responsible deployment strategy” για τέτοιου τύπου AI συστήματα, συμπεριλαμβανομένων playbooks για τη διάθεση των εργαλείων σε κρατικούς φορείς και δημόσιες υπηρεσίες.
Αυξάνονται οι ανησυχίες για τα frontier AI μοντέλα
Η πρωτοβουλία των ΗΠΑ έρχεται σε μια περίοδο όπου οι ανησυχίες γύρω από τα frontier AI μοντέλα αυξάνονται παγκοσμίως.
Τα τελευταία χρόνια, η βελτίωση των δυνατοτήτων μεγάλων γλωσσικών μοντέλων έχει προκαλέσει έντονες συζητήσεις για:
- κυβερνοεπιθέσεις μέσω AI,
- αυτοματοποίηση hacking,
- δημιουργία επικίνδυνων χημικών πληροφοριών,
- βιολογικούς κινδύνους,
- παραπληροφόρηση μεγάλης κλίμακας,
- autonomous agents με αυξημένες δυνατότητες δράσης.
Οι κυβερνήσεις προσπαθούν πλέον να ισορροπήσουν ανάμεσα στην ανάγκη καινοτομίας και στην ανάγκη προστασίας από πιθανές καταχρήσεις.
Το γεγονός ότι εταιρείες όπως η Google, η Microsoft, η OpenAI και η xAI δέχονται κρατικές αξιολογήσεις πριν τη δημόσια κυκλοφορία νέων μοντέλων θεωρείται ένδειξη ότι ακόμη και οι ίδιες οι Big Tech αναγνωρίζουν τους αυξανόμενους κινδύνους.
Παράλληλα, η συνεργασία αυτή επιτρέπει στις εταιρείες να διατηρήσουν πιο ευέλικτο περιβάλλον ανάπτυξης σε σύγκριση με αυστηρότερα κανονιστικά μοντέλα που εξετάζονται σε άλλες αγορές.
Το μέλλον των AI αξιολογήσεων στις ΗΠΑ
Το CAISI έχει ήδη πραγματοποιήσει περίπου 40 αξιολογήσεις AI μοντέλων, συμπεριλαμβανομένων ορισμένων state-of-the-art μοντέλων που δεν έχουν ακόμη κυκλοφορήσει δημόσια.
Αν και δεν έχουν αποκαλυφθεί λεπτομέρειες για τα μοντέλα αυτά, η ανακοίνωση δείχνει ότι οι κρατικοί έλεγχοι πιθανότατα θα επεκταθούν ακόμη περισσότερο τους επόμενους μήνες.
Η νέα στρατηγική των ΗΠΑ ίσως αποτελέσει πρότυπο και για άλλες χώρες που αναζητούν τρόπους να επιβλέπουν την AI ανάπτυξη χωρίς να επιβραδύνουν την τεχνολογική πρόοδο.
Το αν αυτή η ισορροπία μπορεί να επιτευχθεί στην πράξη παραμένει ανοιχτό ερώτημα, ιδιαίτερα καθώς τα AI μοντέλα αποκτούν ολοένα και μεγαλύτερες δυνατότητες και πιο άμεση επιρροή στην κυβερνοασφάλεια, την οικονομία και τη γεωπολιτική.










