Νέα έρευνα δείχνει ότι το 77% των περιστατικών διαρροής ευαίσθητων δεδομένων προέρχεται από εργαζομένους που αντιγράφουν και επικολλούν πληροφορίες σε generative AI εργαλεία
Η τεχνητή νοημοσύνη (ΤΝ) αποτελεί πλέον αναπόσπαστο κομμάτι της καθημερινότητας εκατομμυρίων επαγγελματιών. Από τη συγγραφή email και παρουσιάσεων έως την παραγωγή κώδικα, η χρήση εργαλείων όπως το ChatGPT, το Gemini, το Claude ή το Copilot υπόσχεται ευκολία, ταχύτητα και αυτοματοποίηση. Ωστόσο, αυτή η νέα εποχή παραγωγικότητας συνοδεύεται από μια σιωπηλή, αλλά σοβαρή απειλή: τη διαρροή δεδομένων μέσω AI.
Μια νέα μελέτη της LayerX αποκαλύπτει ότι το 77% των περιστατικών διαρροής ευαίσθητων πληροφοριών προέρχεται από εργαζομένους, οι οποίοι —συχνά ασυναίσθητα— αντιγράφουν και επικολλούν εμπιστευτικά δεδομένα στα chatbots ΤΝ, είτε από προσωπικούς είτε από επαγγελματικούς λογαριασμούς.
Όταν η ευκολία ξεπερνά την ασφάλεια
Σύμφωνα με την έκθεση, το κύριο πρόβλημα δεν είναι ένα τεχνικό κενό ασφαλείας, αλλά η ανθρώπινη συμπεριφορά. Οι εργαζόμενοι επιδιώκουν να λύσουν ταχύτερα τα καθημερινά τους προβλήματα, και συχνά χρησιμοποιούν generative AI μοντέλα για να «βοηθηθούν» στη δουλειά τους — παραβλέποντας ότι έτσι αποκαλύπτουν ευαίσθητες πληροφορίες σε τρίτα συστήματα.
Ένα τυπικό παράδειγμα: ένας υπάλληλος προσπαθεί να συντάξει μια καλύτερη πρόταση συνεργασίας και επικολλά στο AI εργαλείο το αρχικό κείμενο που περιέχει οικονομικά στοιχεία, εσωτερικές πολιτικές ή δεδομένα πελατών. Παρόμοια, ένας προγραμματιστής μπορεί να ζητήσει βοήθεια για debugging επικολλώντας τμήμα του πηγαίου κώδικα ή API keys.
Αυτές οι κινήσεις, αν και καλοπροαίρετες, δημιουργούν έναν τεράστιο κίνδυνο παραβίασης εμπιστευτικότητας.
Το “AI Shadow Usage”: η νέα σιωπηλή απειλή
Η LayerX εισάγει τον όρο “AI Shadow Usage” για να περιγράψει τη μαζική, ανεπίσημη χρήση εργαλείων ΤΝ από εργαζομένους εκτός εταιρικού ελέγχου.
Πρόκειται για το φαινόμενο κατά το οποίο οι εργαζόμενοι χρησιμοποιούν προσωπικά προγράμματα περιήγησης ή συσκευές, παρακάμπτοντας τις εταιρικές πολιτικές ασφαλείας, για να αποκτήσουν πρόσβαση σε ΤΝ εργαλεία. Αυτό οδηγεί σε διαρροές δεδομένων που δεν καταγράφονται καν στα logs των εταιρικών δικτύων, καθιστώντας τις αόρατες για τα συστήματα ασφάλειας.
Η LayerX προειδοποιεί ότι το 2025, τέτοιες περιπτώσεις αποτελούν την κύρια αιτία περιστατικών ασφαλείας σε μεγάλες επιχειρήσεις, ξεπερνώντας ακόμη και τα phishing ή ransomware attacks.
Οι πιο εκτεθειμένοι κλάδοι
Η έρευνα δείχνει ότι οι περισσότερο εκτεθειμένοι τομείς είναι:
- Χρηματοοικονομικές υπηρεσίες: Εργαζόμενοι που χειρίζονται ευαίσθητα οικονομικά στοιχεία ή πελατειακά δεδομένα.
- Υγειονομική περίθαλψη: Διαρροές ιατρικών αρχείων ή προσωπικών δεδομένων ασθενών.
- Τεχνολογικές εταιρείες: Προγραμματιστές που κοινοποιούν πηγαίο κώδικα ή credentials.
- Νομικά γραφεία και δημόσιοι οργανισμοί: Αποκαλύψεις εγγράφων που καλύπτονται από εμπιστευτικότητα ή κρατικό απόρρητο.
Σε ορισμένες περιπτώσεις, ακόμη και μικρές φράσεις ή αποσπάσματα που επικολλούνται στα AI chatbots μπορούν να ανασυσταθούν μέσω machine learning και να αποκαλύψουν ολόκληρα ευαίσθητα έγγραφα ή συσχετίσεις δεδομένων.
Νομικές και ηθικές επιπτώσεις
Η διαρροή δεδομένων μέσω ΤΝ δεν αποτελεί μόνο τεχνικό πρόβλημα, αλλά και σοβαρό νομικό και ηθικό ζήτημα.
Στην Ευρώπη, όπου ισχύει ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR), οι επιχειρήσεις είναι υποχρεωμένες να αποδεικνύουν ότι λαμβάνουν επαρκή μέτρα για την προστασία των προσωπικών δεδομένων. Η χρήση εξωτερικών AI εργαλείων χωρίς σαφείς όρους επεξεργασίας μπορεί να θεωρηθεί παράνομη μεταφορά δεδομένων σε τρίτες χώρες.
Επιπλέον, το ενδεχόμενο τα δεδομένα να ενσωματωθούν σε datasets εκπαίδευσης ενός LLM σημαίνει ότι παραμένουν προσβάσιμα επ’ αόριστον, ακόμη και αν η εταιρεία τα έχει διαγράψει εσωτερικά. Αυτό δημιουργεί μόνιμο ρίσκο για την ιδιωτικότητα και τη φήμη ενός οργανισμού.
Πώς μπορούν να προστατευθούν οι οργανισμοί
Η LayerX προτείνει ένα πολυεπίπεδο πλαίσιο προστασίας, βασισμένο σε τρεις πυλώνες:
1. Πολιτική και κανονισμοί
- Δημιουργία σαφούς πολιτικής χρήσης ΤΝ σε όλα τα επίπεδα.
- Εισαγωγή κανόνων για “επιτρεπτά prompts”, ώστε να αποφεύγεται η αποστολή εμπιστευτικών δεδομένων.
- Έγκριση εργαλείων ΤΝ από τα τμήματα IT και ασφάλειας πριν τη χρήση τους.
2. Εκπαίδευση και κουλτούρα
- Συνεχής εκπαίδευση προσωπικού γύρω από τους κινδύνους των generative AI εργαλείων.
- Δημιουργία κουλτούρας “Think Before You Paste” — να εξετάζει κάθε εργαζόμενος τι δεδομένα κοινοποιεί.
- Προώθηση υπεύθυνης και ηθικής χρήσης της ΤΝ.
3. Τεχνολογία και παρακολούθηση
- Χρήση εταιρικών AI sandboxes ή on-premise LLMs που διατηρούν τα δεδομένα εντός της εταιρείας.
- Εφαρμογή AI Data Loss Prevention (AI-DLP) εργαλείων που εντοπίζουν διαρροές σε πραγματικό χρόνο.
- Υιοθέτηση Zero-Trust αρχιτεκτονικής: κανένας χρήστης ή εφαρμογή δεν θεωρείται αξιόπιστος από προεπιλογή.
Το νέο κεφάλαιο στην κυβερνοασφάλεια: “Human-AI Security”
Η εποχή των firewalls και των antivirus έχει περάσει. Σήμερα, η μεγαλύτερη πρόκληση είναι ο συνδυασμός ανθρώπου και ΤΝ.
Ο άνθρωπος, ως “τελευταία γραμμή άμυνας”, μπορεί να αποτελέσει είτε το πιο ισχυρό τείχος, είτε το πιο επικίνδυνο ρήγμα.
Οι εταιρείες που θα επιβιώσουν στην AI εποχή είναι εκείνες που θα κατανοήσουν ότι η ασφάλεια δεν είναι μόνο τεχνικό ζήτημα, αλλά και θέμα κουλτούρας, εκπαίδευσης και υπευθυνότητας.
Όπως σημειώνουν οι ειδικοί της LayerX:
«Η προστασία δεδομένων στην εποχή της ΤΝ δεν απαιτεί μόνο νέες τεχνολογίες — απαιτεί νέο τρόπο σκέψης».
Η διαρροή δεδομένων μέσω τεχνητής νοημοσύνης είναι ήδη η πραγματικότητα του 2025. Η λύση δεν βρίσκεται στο να απαγορευτεί η χρήση των AI εργαλείων, αλλά στο να εκπαιδευτεί ο άνθρωπος να τα χρησιμοποιεί με ασφάλεια. (TheHackerNews)