«Επικίνδυνο» το AI chatbot του Snapchat; Γιατί θα μπορούσε να απαγορευτεί στη Βρετανία

«Επικίνδυνο» το AI chatbot του Snapchat; Γιατί θα μπορούσε να απαγορευτεί στη Βρετανία
Photo: pixabay.com
Τί αναφέρει η ρυθμιστική αρχή και ποιά η απάντηση της εταιρείας.

Το Snapchat ενδέχεται να μην έχει αξιολογήσει σωστά τους κινδύνους για την προστασία της ιδιωτικής ζωής των παιδιών από το chatbot τεχνητής νοημοσύνης του, δήλωσε την Παρασκευή η βρετανική υπηρεσία παρακολούθησης δεδομένων, προσθέτοντας ότι θα εξετάσει την απάντηση της εταιρείας προτού λάβει οποιαδήποτε τελική απόφαση.

Το Γραφείο Επιτρόπου Πληροφοριών (ICO) δήλωσε ότι αν η αμερικανική εταιρεία δεν αντιμετωπίσει επαρκώς τις ανησυχίες της ρυθμιστικής αρχής, το «My AI», που ξεκίνησε τον Απρίλιο, θα μπορούσε να απαγορευτεί στο Ηνωμένο Βασίλειο.

«Τα προσωρινά ευρήματα της έρευνάς μας υποδηλώνουν μια ανησυχητική αποτυχία της Snap να εντοπίσει και να αξιολογήσει επαρκώς τους κινδύνους για την προστασία της ιδιωτικής ζωής των παιδιών και άλλων χρηστών πριν ξεκινήσει το “My AI”», δήλωσε ο Επίτροπος Πληροφοριών John Edwards.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Τα ευρήματα δεν σημαίνουν απαραίτητα ότι η εφαρμογή άμεσων μηνυμάτων, που χρησιμοποιείται κυρίως από νεαρά άτομα έχει παραβιάσει τους βρετανικούς νόμους περί προστασίας δεδομένων ή ότι η ICO θα καταλήξει σε κυρώσεις, δήλωσε η ρυθμιστική αρχή.

Η Snap δήλωσε ότι εξετάζει την ειδοποίηση της ICO και ότι δεσμεύεται για την προστασία της ιδιωτικής ζωής των χρηστών.

«Το “My AI” πέρασε από μια ισχυρή διαδικασία νομικής και ιδιωτικής αναθεώρησης πριν διατεθεί στο κοινό», δήλωσε εκπρόσωπος της Snap. «Θα συνεχίσουμε να συνεργαζόμαστε εποικοδομητικά με την ICO για να διασφαλίσουμε ότι αισθάνεται άνετα με τις διαδικασίες αξιολόγησης κινδύνου που εφαρμόζουμε».

Η ICO διερευνά τον τρόπο με τον οποίο το «My AI», -το οποίο τροφοδοτείται από το ChatGPT της OpenAI– επεξεργάζεται τα προσωπικά δεδομένα των περίπου 21 εκατομμυρίων χρηστών του Snapchat στο Ηνωμένο Βασίλειο, συμπεριλαμβανομένων παιδιών ηλικίας 13-17 ετών.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: