Οδηγίες για την Συμμόρφωση των Παρόχων Γενικού Σκοπού Μοντέλων AI στην ΕΕ
Με την προθεσμία του Μαΐου να πλησιάζει για την οριστικοποίηση των οδηγιών προς τους παρόχους μοντέλων τεχνητής νοημοσύνης γενικού σκοπού (GPAI) σχετικά με τη συμμόρφωση με τις διατάξεις του Νόμου για την Τεχνητή Νοημοσύνη της ΕΕ, δημοσιεύθηκε την Τρίτη το τρίτο σχέδιο του Κώδικα Πρακτικής. Ο Κώδικας, που αναπτύσσεται από το προηγούμενο έτος, αναμένεται να είναι το τελευταίο σχέδιο. Παράλληλα, δημιουργήθηκε και ένας ιστότοπος με στόχο την αύξηση της προσβασιμότητας του Κώδικα. Οι ενδιαφερόμενοι μπορούν να υποβάλουν γραπτά σχόλια για το τελευταίο σχέδιο μέχρι τις 30 Μαρτίου 2025. Το κανονιστικό πλαίσιο της ΕΕ για την τεχνητή νοημοσύνη, που βασίζεται στον κίνδυνο, περιλαμβάνει υποχρεώσεις που αφορούν μόνο τους πιο ισχυρούς κατασκευαστές μοντέλων AI, καλύπτοντας τομείς όπως η διαφάνεια, τα πνευματικά δικαιώματα και η μείωση κινδύνων. Ο Κώδικας στοχεύει να βοηθήσει τους κατασκευαστές μοντέλων GPAI να κατανοήσουν πώς να πληρούν τις νομικές υποχρεώσεις και να αποφύγουν τον κίνδυνο κυρώσεων για μη συμμόρφωση. Οι ποινές για παραβάσεις των απαιτήσεων GPAI μπορεί να φτάσουν έως και το 3% των παγκόσμιων ετήσιων εσόδων.
Εστιασμένη Δομή και Υποχρεώσεις για τα Μοντέλα GPAI
Η τελευταία αναθεώρηση του Κώδικα χαρακτηρίζεται από μια πιο εστιασμένη δομή με βελτιωμένες δεσμεύσεις και μέτρα σε σύγκριση με προηγούμενες εκδόσεις, βασισμένη σε σχόλια για το δεύτερο σχέδιο που δημοσιεύθηκε τον Δεκέμβριο. Επιπλέον σχόλια, συζητήσεις σε ομάδες εργασίας και εργαστήρια θα συμβάλουν στη διαδικασία μετατροπής του τρίτου σχεδίου σε τελικές οδηγίες. Οι ειδικοί ελπίζουν να επιτύχουν μεγαλύτερη “σαφήνεια και συνοχή” στην τελική υιοθετημένη έκδοση του Κώδικα. Το σχέδιο είναι χωρισμένο σε τμήματα που καλύπτουν δεσμεύσεις για τα μοντέλα GPAI, μαζί με λεπτομερείς οδηγίες για μέτρα διαφάνειας και πνευματικών δικαιωμάτων. Υπάρχει επίσης ένα τμήμα για υποχρεώσεις ασφάλειας και προστασίας που ισχύουν για τα πιο ισχυρά μοντέλα.
Διαφάνεια, Πνευματικά Δικαιώματα και Ασφάλεια
Στο θέμα της διαφάνειας, οι οδηγίες περιλαμβάνουν ένα παράδειγμα φόρμας τεκμηρίωσης μοντέλου που μπορεί να αναμένεται να συμπληρώσουν τα GPAI, ώστε οι χρήστες της τεχνολογίας τους να έχουν πρόσβαση σε βασικές πληροφορίες για τη δική τους συμμόρφωση. Σε άλλα σημεία, το τμήμα για τα πνευματικά δικαιώματα παραμένει πιθανώς το πιο αμφιλεγόμενο για τις μεγάλες εταιρείες AI. Το τρέχον σχέδιο είναι γεμάτο με όρους όπως “καλύτερες προσπάθειες”, “λογικά μέτρα” και “κατάλληλα μέτρα” όσον αφορά τη συμμόρφωση με δεσμεύσεις όπως η σεβασμός των δικαιωμάτων κατά την περιήγηση στο διαδίκτυο για την απόκτηση δεδομένων για εκπαίδευση μοντέλων ή η μείωση του κινδύνου παραγωγής παραβιαστικών αποτελεσμάτων από τα μοντέλα. Η χρήση τέτοιας μεσολαβημένης γλώσσας υποδηλώνει ότι οι γίγαντες της τεχνητής νοημοσύνης μπορεί να αισθάνονται ότι έχουν αρκετό περιθώριο να συνεχίσουν να συλλέγουν προστατευμένες πληροφορίες για την εκπαίδευση των μοντέλων τους και να ζητήσουν συγχώρεση αργότερα.
Πίεση από τις Ηνωμένες Πολιτείες και Ευρωπαϊκές Αντιδράσεις
Αναφορές από τις Ηνωμένες Πολιτείες, ειδικά από την κυβέρνηση του προέδρου Ντόναλντ Τραμπ, ασκούν κριτική στο ευρωπαϊκό νομοθετικό πλαίσιο για την τεχνητή νοημοσύνη. Στην πρόσφατη σύνοδο κορυφής για την Τεχνητή Νοημοσύνη στο Παρίσι, ο αντιπρόεδρος των ΗΠΑ, JD Vance, απέρριψε την ανάγκη ρύθμισης για την ασφαλή εφαρμογή της τεχνητής νοημοσύνης, ενώ προειδοποίησε ότι η υπερβολική ρύθμιση στην Ευρώπη θα μπορούσε να βλάψει την καινοτομία. Από τότε, η ΕΕ έχει αποσύρει μια πρωτοβουλία για την ασφάλεια της τεχνητής νοημοσύνης και ετοιμάζει ένα “ομόφωνο” πακέτο μεταρρυθμίσεων για την απλοποίηση των υφιστάμενων κανόνων.
Συμπεράσματα και Επόμενα Βήματα για την ΕΕ
Καθώς ο Κώδικας GPAI συντάσσεται από ανεξάρτητους ειδικούς, η Ευρωπαϊκή Επιτροπή, μέσω του Γραφείου AI που επιβλέπει την επιβολή και άλλες δραστηριότητες που σχετίζονται με το νόμο, παράγει παράλληλα κάποιες “διευκρινιστικές” οδηγίες που θα καθορίσουν πώς εφαρμόζεται ο νόμος. Περιλαμβάνονται ορισμοί για τα GPAI και τις ευθύνες τους. Αναμένεται περαιτέρω καθοδήγηση από το Γραφείο AI “εν καιρώ”, καθώς αυτό θα μπορούσε να προσφέρει μια διέξοδο για τους νομοθέτες που ανησυχούν για την πίεση από τις Ηνωμένες Πολιτείες να απορυθμίσουν την τεχνητή νοημοσύνη.















