Η έκρηξη των deepfakes έγινε πρόβλημα για επιχειρήσεις και εταιρικούς ηγέτες
- 20/10/2019, 19:00
- SHARE
του Adrian Croft
Τα deepfake βίντεο, τα οποία χρησιμοποιούν τεχνητή νοημοσύνη για να τοποθετείται το πρόσωπο ενός celebrity στο σώμα ενός αστέρα της βιομηχανίας του πορνό, ή για να εμφανίζεται ένα δημόσιο πρόσωπο να λέει ή να κάνει κάτι εξωφρενικό, επεκτείνονται με ραγδαίους ρυθμούς στο διαδίκτυο.
Η τεράστια πλειοψηφία αυτών των βίντεο είναι εμφανώς ψεύτικα, αλλά παρατηρείται μια άνοδος στα deepfake που βάζουν στο στόχαστρό τους γυναίκες. Επιπλέον, πληθαίνουν οι ενδείξεις ότι σκοτεινές δυνάμεις χρησιμοποιούν ψηφιακά εργαλεία που τροφοδοτούνται από την τεχνητή νοημοσύνη για να αποσταθεροποιήσουν κυβερνήσεις και να υπεξαιρέσουν χρήματα από εταιρείες.
Η Deeptrace, μια εταιρεία κυβερνοασφάλειας με έδρα στο Άμστερνταμ που κατασκευάζει εργαλεία για τον εντοπισμό ψευδών βίντεο, δημοσιοποίησε μια νέα έρευνα που στόχο έχει να ποσοτικοποιήσει την ανάπτυξη του φαινομένου των deepfake. Σύμφωνα με τα ευρήματα, τους τελευταίους εφτά μήνες ο αριθμός των deepfake βίντεο – ένας όρος που συνδυάζει τη βαθιά μάθηση (deep learning – κλάδος της τεχνητής νοημοσύνης) και τη λέξη fake (ψεύτικος) – διπλασιάστηκε στα 14.678.
Η τεράστια πλειοψηφία (96%) αυτών των βίντεο είναι πορνογραφικού περιεχομένου. Ένας πολύ μικρότερος αριθμός βίντεο βάζει στο στόχαστρο πολιτικούς ή γνωστούς επιχειρηματίες όπως ο διευθύνων σύμβουλος της Tesla, Elon Musk, ή της Amazon, Jeff Bezos.
Ένα 2% των deepfake βίντεο που εντόπισε η έρευνα στο YouTube εμφανίζουν προσωπικότητες από τον επιχειρηματικό χώρο. Η τάση αυτή θα πρέπει να ανησυχήσει τους επιχειρηματικούς ηγέτες καθώς, μελλοντικά, τα βίντεο αυτά θα μπορούσαν να αποτελέσουν ένα πανίσχυρο όπλο κατά της φήμης ατόμων και εταιρειών, όπως προειδοποιούν οι ερευνητές.
Πρόσφατα, υπήρξαν δημοσιεύματα σύμφωνα με τα οποία απατεώνες χρησιμοποίησαν τεχνητή νοημοσύνη για να μιμηθούν τη φωνή του επικεφαλής μιας εταιρείας – ένα είδος απάτης που ονομάζεται «συνθετική φωνητική πλαστοπροσωπεία».
«Έχουν αναφερθεί πολλές περιπτώσεις όπου χρησιμοποιήθηκε συνθετική φωνή για την εξαπάτηση εταιρειών. Αν και δεν έχουν δοθεί στοιχεία που να τεκμηριώνουν ότι πράγματι το ηχητικό αρχείο ήταν τεχνητό και όχι αληθινό, οι περιπτώσεις αυτές δείχνουν πώς θα μπορούσε δυνητικά να χρησιμοποιηθεί η συγκεκριμένη τεχνολογία για την αναβάθμιση των επιθέσεων ενάντια σε επιχειρήσεις και μεμονωμένα άτομα» καταλήγει η έρευνα.
Πηγή: fortune.com