Γιατί η τεχνητή νοημοσύνη κάνει πιο δύσκολο των εντοπισμό κακόβουλων emails
- 03/04/2023, 20:30
- SHARE
Τα chatbots δυσκολεύουν την άμυνα ενάντια στα κακόβουλα μηνύματα ηλεκτρονικού “ψαρέματος” (phishing), διορθώνοντας τα γραμματικά και ορθογραφικά λάθη που συνήθως καθιστούν πιο εύκολο τον εντοπισμό τους, σύμφωνα με ειδικούς. Αυτό αναφέρει σε δημοσίευμά του ο The Guardian.
Η προειδοποίηση έρχεται παράλληλα με την έκδοση μιας διεθνούς προειδοποίησης από τη Europol σχετικά με την πιθανή εγκληματική χρήση του ChatGPT και άλλων «μεγάλων γλωσσικών μοντέλων».
Τα μηνύματα ηλεκτρονικού “ψαρέματος” είναι ένα κόλπο των εγκληματιών του κυβερνοχώρου με το οποίο εξαπατούν τους παραλήπτες να πατήσουν σε έναν σύνδεσμο που κατεβάζει κακόβουλο λογισμικό ή τους εξαπατά για να παραδώσουν προσωπικά στοιχεία, όπως κωδικούς πρόσβασης ή αριθμούς pin.
Σύμφωνα με το Γραφείο Εθνικής Στατιστικής Υπηρεσίας του ΗΒ, οι μισοί ενήλικες στην Αγγλία και την Ουαλία ανέφεραν ότι έλαβαν ένα ηλεκτρονικό μήνυμα ηλεκτρονικού “ψαρέματος” (phishing) πέρυσι, Αντίστοιχα, οι επιχειρήσεις του Ηνωμένου Βασιλείου χαρακτηρίζουν τις απόπειρες ηλεκτρονικού “ψαρέματος” ως την πιο κοινή μορφή απειλής στον κυβερνοχώρο.
Ένα βασικό ελάττωμα σε ορισμένες απόπειρες ηλεκτρονικού ψαρέματος – η κακή ορθογραφία και γραμματική – πλέον διορθώνεται από τα chatbots τεχνητής νοημοσύνης. Τα chatbots μπορούν να διορθώσουν τα λάθη που ενεργοποιούν τα φίλτρα ανεπιθύμητης αλληλογραφίας (spam) ή ειδοποιούν τους αναγνώστες.
Από τότε που κυκλοφόρησε και έγινε δημοφιλές το ChatGPT πέρυσι, ο συνολικός όγκος κακόβουλων απατών μέσω email που προσπαθούν να εξαπατήσουν τους χρήστες έχει μειωθεί και αντικαταστάθηκε από πιο περίπλοκα γλωσσικά email, σύμφωνα με στοιχεία εταιρειών ασφάλειας του κυβερνοχώρου. Αυτό υποδηλώνει ότι ένας σημαντικός αριθμός απατεώνων που στέλνουν phishing και άλλα κακόβουλα email έχουν αποκτήσει ικανότητα να συντάσσουν πιο μακροσκελή και περίπλοκα κείμενα, πιθανότατα μέσω χρήσεως μεγάλων γλωσσικών μοντέλων όπως το ChatGPT ή παρόμοιων.
Στην προειδοποίησή της, η Europol τόνισε και άλλα πιθανά προβλήματα που προκαλούνται από την άνοδο των chatbots τεχνητής νοημοσύνης, συμπεριλαμβανομένων της απάτης, της παραπληροφόρησης και του εγκλήματος στον κυβερνοχώρο.