Taylor Swift – Σκάνδαλο deepfake: «Είναι άντρες που λένε σε μια ισχυρή γυναίκα να επιστρέψει στο κουτί της»

Taylor Swift – Σκάνδαλο deepfake: «Είναι άντρες που λένε σε μια ισχυρή γυναίκα να επιστρέψει στο κουτί της»
epa11063316 US singer Taylor Swift arrives for the 81st annual Golden Globe Awards ceremony at the Beverly Hilton Hotel in Beverly Hills, California, USA, 07 January 2024. Artists in various film and television categories are awarded Golden Globes by the Hollywood Foreign Press Association. EPA/ALLISON DINNER Photo: ΑΠΕ-ΜΠΕ
Το πορνό που δημιουργείται με τεχνητή νοημοσύνη, τροφοδοτούμενο από μισογυνισμό, κατακλύζει το διαδίκτυο, με την Taylor Swift να είναι το τελευταίο θύμα υψηλού προφίλ.

Σχεδόν επί μία ολόκληρη ημέρα την περασμένη εβδομάδα, οι deepfake πορνογραφικές εικόνες της Taylor Swift εξαπλώθηκαν ταχύτατα μέσω του X. Η πλατφόρμα κοινωνικής δικτύωσης, πρώην Twitter, άργησε τόσο πολύ να αντιδράσει που μια εικόνα συγκέντρωσε 47 εκατομμύρια προβολές πριν κατέβει. Ήταν κυρίως οι θαυμαστές της Swift που κινητοποιήθηκαν και ανέφεραν μαζικά τις εικόνες και υπήρξε μια αίσθηση δημόσιας οργής, με ακόμη και τον Λευκό Οίκο να το χαρακτηρίζει «ανησυχητικό». Το X τελικά αφαίρεσε τις εικόνες και μπλόκαρε τις αναζητήσεις στο όνομα της ποπ σταρ το βράδυ της Κυριακής.

Για τις γυναίκες που έχουν πέσει θύματα της δημιουργίας και του διαμοιρασμού μη συναινετικής πορνογραφίας deepfake, τα γεγονότα της περασμένης εβδομάδας θα ήταν μια φρικτή υπενθύμιση της δικής τους κακοποίησης, ακόμη και αν ίσως ελπίζουν επίσης ότι το φως της δημοσιότητας θα αναγκάσει τους νομοθέτες να αναλάβουν δράση. Αλλά επειδή οι εικόνες αφαιρέθηκαν, η εμπειρία της Swift απέχει πολύ από τον κανόνα. Τα περισσότερα θύματα, ακόμη και αυτά που είναι διάσημα, είναι λιγότερο τυχερά. Η 17χρονη ηθοποιός της Marvel Xochitl Gomez μίλησε αυτό το μήνα για την αποτυχία του X να αφαιρέσει τα πορνογραφικά deepfakes της. «Αυτό δεν έχει καμία σχέση με εμένα. Και όμως είναι εδώ με το πρόσωπό μου», είπε, σύμφωνα με δημοσίευμα του Guardian.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η Noelle Martin είναι επιζήσασα της κακοποίησης με βάση την εικόνα, ένας όρος που καλύπτει την ανταλλαγή μη συναινετικών σεξουαλικών εικόνων και deepfakes. Ανακάλυψε για πρώτη φορά ότι το πρόσωπό της χρησιμοποιήθηκε σε πορνογραφικό περιεχόμενο πριν από 11 χρόνια. «Οι καθημερινές γυναίκες σαν εμένα δεν θα έχουν εκατομμύρια ανθρώπους που θα εργάζονται για να μας προστατεύσουν και να βοηθήσουν στην κατάργηση του περιεχομένου και δεν θα έχουμε το πλεονέκτημα ότι οι μεγάλες εταιρείες τεχνολογίας να ανταποκρίνονται», λέει.

Η Martin, ακτιβίστρια και ερευνήτρια στο Tech & Policy Lab του Πανεπιστημίου της Δυτικής Αυστραλίας, λέει ότι στην αρχή ήταν παραποιημένες φωτογραφίες της, αλλά τα τελευταία χρόνια, καθώς η γενετική τεχνητή νοημοσύνη έχει γνωρίσει άνθιση, είναι βίντεο, τα οποία μοιράζονται κυρίως σε πορνογραφικούς ιστότοπους. «Είναι αηδιαστικό, σοκαριστικό», λέει. «Προσπαθώ να μην τα βλέπω. Αν το συναντήσω, είναι απλά …». Κάνει μια παύση. «Δεν ξέρω καν πώς να το περιγράψω. Απλά ένα “μπάνιο” πόνου, πραγματικά».

Όταν η ακτιβίστρια και συγγραφέας Laura Bates δημοσίευσε το βιβλίο της «Men Who Hate Women», μια έρευνα για τους βόθρους του διαδικτυακού μισογυνισμού, οι άνδρες της έστελναν εικόνες που έκαναν να φαίνεται ότι η Bates εκτελούσε «όλα τα είδη σεξουαλικών πράξεων, συμπεριλαμβανομένων ατόμων που μου έστελναν εικόνες του εαυτού μου αλλαγμένες ώστε να φαίνεται ότι τους έκανα στοματικό σεξ».

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Είναι δύσκολο για τους ανθρώπους να καταλάβουν τον αντίκτυπο, λέει, ακόμη και όταν ξέρεις ότι δεν είναι αληθινό. «Υπάρχει κάτι πραγματικά ενστικτώδες στο να βλέπεις μια απίστευτα υπερρεαλιστική εικόνα του εαυτού σου στην ακραία μισογυνική φαντασίωση κάποιου για σένα», λέει. «Υπάρχει κάτι πραγματικά εξευτελιστικό σε αυτό, πολύ ταπεινωτικό. Σου μένει στο μυαλό». Και αυτή η εικόνα μπορεί να μοιραστεί ενδεχομένως με εκατομμύρια ανθρώπους, προσθέτει.

Οι deepfake πορνογραφικές εικόνες και βίντεο, λέει η Bates, «κυκλοφορούν απολύτως μέσα σε εξτρεμιστικές μισογυνιστικές κοινότητες». Αυτό που ήταν ιδιαίτερα αξιοσημείωτο στην περίπτωση της Swift ήταν «πόσο πολύ τους επιτρεπόταν να κυκλοφορούν και στις κύριες πλατφόρμες κοινωνικής δικτύωσης. Ακόμη και όταν στη συνέχεια αναλαμβάνουν δράση και ισχυρίζονται ότι το κλείνουν, μέχρι τότε οι εικόνες αυτές έχουν εξαπλωθεί σε τόσες άλλες χιλιάδες φόρουμ και ιστότοπους».

Μια μελέτη του 2019 από την εταιρεία κυβερνοασφάλειας Deeptrace διαπίστωσε ότι το 96% του διαδικτυακού περιεχομένου βίντεο deepfake ήταν μη συναινετικής πορνογραφίας. Όταν η συντριπτική πλειονότητα της τεχνητής νοημοσύνης χρησιμοποιείται για τη δημιουργία deepfake πορνογραφίας, επισημαίνει, «αυτό δεν είναι ένα εξειδικευμένο πρόβλημα».

Είναι, λέει, «απλώς ο νέος τρόπος ελέγχου των γυναικών. Παίρνεις κάποια σαν τη Swift, η οποία είναι εξαιρετικά επιτυχημένη και ισχυρή, και είναι ένας τρόπος να τη βάλεις πίσω στο κουτί της. Είναι ένας τρόπος να πεις σε κάθε γυναίκα: δεν έχει σημασία ποια είσαι, πόσο ισχυρή είσαι – μπορούμε να σε υποβιβάσουμε σε σεξουαλικό αντικείμενο και δεν μπορείς να κάνεις τίποτα γι’ αυτό». Από αυτή την άποψη, δεν είναι κάτι καινούργιο, λέει η Bates, «αλλά είναι η διευκολυνόμενη εξάπλωση αυτής της συγκεκριμένης μορφής παθολογικού μισογυνισμού που θα πρέπει να μας ανησυχεί, και το πόσο ομαλοποιημένη και αποδεκτή είναι».

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: