AI στην υπηρεσία των χάκερς: Πώς ανοίγουν οι «κερκόπορτες» μέσα από open-source μοντέλα
- 04/04/2025, 20:30
- SHARE

Οι «καταστροφολόγοι» της τεχνητής νοημοσύνης συνεχίζουν να ανησυχούν για ένα πιθανό κοινωνικό κραχ λόγω της τεχνολογίας. Όμως το πιο ρεαλιστικό σενάριο —προς το παρόν— είναι ότι μικροί χάκερς θα κάνουν… πάρτι.
Οι χάκερς έχουν συνήθως τρεις βασικούς στόχους, εξηγεί ο Yuval Fernbach, CTO της JFrog, μιας εταιρείας που εξειδικεύεται σε συστήματα ασφαλείας στην αλυσίδα εφοδιασμού λογισμικού: να προκαλέσουν διακοπή λειτουργίας, να υποκλέψουν πληροφορίες ή να αλλοιώσουν τα αποτελέσματα ενός website ή εργαλείου.
Οι απατεώνες και οι χάκερς, όπως κάθε άλλος επαγγελματίας, χρησιμοποιούν πλέον την AI για να αυξήσουν την «παραγωγικότητά» τους. Ωστόσο, τα ίδια τα AI μοντέλα προσφέρουν στους κακόβουλους χρήστες μια νέα δίοδο εισόδου στις επιχειρήσεις, αφού κακόβουλος κώδικας μπορεί να ενσωματωθεί με ευκολία σε open-source μοντέλα, τονίζει ο Fernbach.
«Βλέπουμε πολλές, πολλές επιθέσεις», λέει. Το να υπερφορτώσει κανείς ένα μοντέλο ώστε να σταματήσει να ανταποκρίνεται, είναι πλέον μια από τις πιο συχνές επιθέσεις.
Η JFrog έχει αναπτύξει εργαλείο σάρωσης μοντέλων πριν αυτά μπουν σε παραγωγή, αλλά, όπως λέει ο Fernbach, η ευθύνη παραμένει στους ώμους κάθε εταιρείας ξεχωριστά.
Κακόβουλα AI μοντέλα: Μια ανερχόμενη απειλή
Όταν μια εταιρεία θέλει να χρησιμοποιήσει AI, συνήθως επιλέγει μοντέλα από εταιρείες όπως η OpenAI, η Anthropic ή η Meta — αφού η ανάπτυξη ενός μοντέλου από το μηδέν είναι εξαιρετικά δαπανηρή. Τα «κλειστά» (proprietary) μοντέλα προσφέρουν μεγαλύτερη ασφάλεια, αλλά είναι ακριβά και δεν επιτρέπουν ελευθερία στη χρήση των δεδομένων.
Έτσι, πολλά brands επιλέγουν open-source μοντέλα, τα οποία είτε τα κατεβάζουν και τα τρέχουν τοπικά, είτε τα χρησιμοποιούν μέσω APIs. Σε πρόσφατη έρευνα 1.400 επιχειρήσεων από την JFrog και το InformationWeek, περίπου το 50% τρέχουν κατεβασμένα AI μοντέλα στους δικούς τους servers.
Καθώς η AI ωριμάζει, οι εταιρείες συνδυάζουν πολλαπλά μοντέλα με διαφορετικές δεξιότητες. Όμως ο έλεγχος κάθε νέας έκδοσης ή ενημέρωσης μοντέλου μπορεί να παραμεληθεί, δημιουργώντας τρύπες ασφαλείας.
Ο Fernbach προειδοποιεί: κάθε νέο μοντέλο ή update μπορεί να περιέχει είτε κακόβουλο κώδικα είτε αλλαγές που αλλοιώνουν την έξοδο του συστήματος.
Οι συνέπειες της αδράνειας
Το 2024, καναδικό δικαστήριο υποχρέωσε την Air Canada να αποζημιώσει επιβάτη, του οποίου το αίτημα για έκπτωση λόγω πένθους είχε γίνει δεκτό από chatbot — παρά τις αρνήσεις των ανθρώπινων υπαλλήλων. Η αεροπορική εταιρεία αναγκάστηκε να επιστρέψει χρήματα και να καλύψει τα νομικά έξοδα. «Σε μεγάλη κλίμακα, τέτοιου είδους λάθη μπορεί να στοιχίσουν ακριβά», σημειώνει ο Fernbach.
Σε συνεργασία με την πλατφόρμα Hugging Face, η JFrog εξέτασε πάνω από 1 εκατ. open-source μοντέλα — και εντόπισε ότι 400 περιείχαν κακόβουλο κώδικα. Πρόκειται για ποσοστό μικρότερο του 1%, αλλά αντιστοιχεί στο να πετύχεις καρέ στο πόκερ.
Όμως από τότε, ενώ ο αριθμός των μοντέλων έχει τριπλασιαστεί, οι επιθέσεις έχουν επταπλασιαστεί.
Σαν να μην έφτανε αυτό, δημοφιλή μοντέλα έχουν ψεύτικες «κλώνους» με παραπλήσια ονόματα, που εξαπατούν βιαστικούς μηχανικούς.
Στην ίδια έρευνα, το 58% των εταιρειών είτε δεν είχε πολιτική για open-source AI, είτε δεν ήξερε αν είχε. Το 68% δεν είχε τρόπο ελέγχου για το ποια μοντέλα χρησιμοποιούν οι developers — εκτός από χειροκίνητη ανασκόπηση.
Με την άνοδο των agentic AIs — μοντέλα που πλέον δεν δίνουν μόνο πληροφορίες, αλλά εκτελούν εντολές και αυτοματοποιούν ενέργειες — ο κίνδυνος γίνεται ακόμη μεγαλύτερος.