Ανησυχητική «έξαρση» AI περιεχομένου παιδικής κακοποίησης στο διαδίκτυο

Ανησυχητική «έξαρση» AI περιεχομένου παιδικής κακοποίησης στο διαδίκτυο
epa07524577 Internet browser in Dutch, in Hilversum, The Netherlands, 17 November 2013. issued 24 April 2019. Media reports on 24 April 2019 state that the Internet Watch Foundation (IWF) found record amounts (105,047 URLs) of child sexual abuse imagery last year due to improving its technology to help speed up the detection and assessment of the criminal images. Almost half (47 percent) of all the imagery found last year was discovered in the Netherlands. EPA/SANDER KONING Photo: ΑΠΕ-ΜΠΕ
Το Internet Watch Foundation λέει ότι το παράνομο περιεχόμενο παιδικής σεξουαλικής κακοποίησης από Τεχνητή Νοημοσύνη αυξάνεται σε ποσότητα και επίπεδο πολυπλοκότητας.

Σε πάρα πολύ ανησυχητικό επίπεδο έχει φτάσει ο αριθμός περιεχομένου παιδικής σεξουαλικής κακοποίησης κατασκευασμένο με Τεχνητή Νοημοσύνη (AI), σύμφωνα με τον οργανισμό-παρατηρητήριο Internet Watch Foundation (IWF).

To IWF, που ως στόχο του έχει «να σταματήσει την online παιδική σεξουαλική κακοποίηση» είπε ότι το περιεχόμενο αυτό μπορεί να βρεθεί εύκολα παντού στο διαδίκτυο, και δεν αποτελεί μόνο εύρημα του σκοτεινού διαδικτύου (dark web), στο οποίο ο μέσος χρήστης δεν έχει εύκολη πρόσβαση.

Σύμφωνα με αξιωματούχους σχετικούς με το θέμα, έχουμε φτάσει σε «κρίσιμο σημείο», αφού πλέον είναι ολοένα και πιο δυσδιάκριτο και δύσκολο για τις αρμόδιες αρχές να καταλάβουν εάν μια εικόνα ή ένα βίντεο απεικονίζει ένα πραγματικό παιδί ή είναι δημιούργημα Τεχνητής Νοημοσύνης, με αποτέλεσμα να οδηγούμαστε σε μια τρομερή πιθανότητα όπου ένα παιδί που χρειάζεται βοήθεια να μην είναι δυνατό να τη λάβει.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Το πρόβλημα έχει φτάσει σε τέτοιο βαθμό επικινδυνότητας που φαίνεται να αυξάνεται πλέον εκθετικά, καθώς οι περιπτώσεις που το παρατηρητήριο έχει εντοπίσει και αντιμετωπίσει είναι περισσότερες κατά τη διάρκεια των τελευταίων έξι μηνών απ’ ότι ήταν ολόκληρο το προηγούμενο έτος.

Ο υπηρεσιακός διευθύνων σύμβουλος του IWF, Ντέρεκ Ρέι-Χιλ, δήλωσε ότι το επίπεδο πολύπλοκης επιμέλειας στις εικόνες έδειξε ότι τα εργαλεία Τεχνητής Νοημοσύνης που χρησιμοποιήθηκαν είχαν εκπαιδευτεί σε εικόνες και βίντεο πραγματικών θυμάτων. «Οι πρόσφατοι μήνες δείχνουν ότι αυτό το πρόβλημα δε φεύγει, και στην πραγματικότητα χειροτερεύει», είπε.

Πολλές εικόνες ή συλλογές εικόνων που έχουν εντοπιστεί παρουσιάζουν πραγματικά θύματα που έχουν υποστεί σεξουαλική κακοποίηση, ενώ η «ποικιλία» σοκάρει. Έχουν χρησιμοποιηθεί εργαλεία ψηφιακής αφαίρεσης ρούχων σε συνηθισμένες παιδικές φωτογραφίες, ακόμα και εργαλεία «de-aging» (ψηφιακής απογήρανσης) σε σκηνές επαγγελματικής πορνογραφίας, ώστε οι πρωταγωνιστές να προσομοιάζουν περισσότερο παιδιά και εφήβους.

Εν τω μεταξύ, το Instagram ανακοίνωσε νέα μέτρα για την αντιμετώπιση του sextortion, έναν όρο που περιγράφει όταν ένας χρήστης εξαπατάται για να στείλει προσωπικές εικόνες σε εγκληματίες, οι οποίοι συνήθως προσποιούνται ότι είναι νεαρές γυναίκες, και στη συνέχεια υποβάλλεται σε απειλές εκβιασμού.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: