Η Apple δεν θέλει οι υπάλληλοί της να χρησιμοποιούν το ChatGPT

Η Apple δεν θέλει οι υπάλληλοί της να χρησιμοποιούν το ChatGPT
epa10511142 An illustration picture shows the introduction page of ChatGPT, an interactive AI chatbot model trained and developed by OpenAI, on its website in Beijing, China, 09 March 2023. According to the White Paper on the Development of Artificial Intelligence Industry released by Beijing economy and information technology bureau on 13 February 2023, the capital city will support leading enterprises in developing artificial intelligence (AI) models that can challenge ChatGPT. EPA/WU HAO Photo: ΑΠΕ-ΜΠΕ
Ολοένα και περισσότερες εταιρείες ανησυχούν ότι τα μοντέλα τεχνητής νοημοσύνης μπορεί να οδηγήσουν σε διαρροή εμπιστευτικών πληροφοριών.

Η Apple προστίθεται στον κατάλογο των εταιρειών που εμποδίζουν τους υπαλλήλους τους να χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT.

Η Apple περιορίζει ορισμένους εργαζόμενους από τη χρήση αυτών των εργαλείων λόγω φόβων ότι μπορεί να ανεβάσουν κατά λάθος εμπιστευτικές πληροφορίες, αναφέρει η Wall Street Journal επικαλούμενη εσωτερικό έγγραφο και πηγές της εταιρείας.

Η κατασκευάστρια εταιρεία των iPhone ζητά επίσης από τους υπαλλήλους να μην χρησιμοποιούν ένα παρόμοιο εργαλείο που ανήκει στη Microsoft, το CoPilot της GitHub, το οποίο βοηθάει στη συγγραφή κώδικα.

Η Apple δεν απάντησε αμέσως σε αίτημα για σχολιασμό.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η OpenAI, η ιδιοκτήτρια του ChatGPT, λέει ότι χρησιμοποιεί προτροπές και άλλα δεδομένα που υποβάλλονται από τους χρήστες για να εκπαιδεύσει τα μοντέλα της, και γι’ αυτό προειδοποιεί να μην ανεβάζουν τίποτα εμπιστευτικό ή ευαίσθητο.

Πολλές άλλες εταιρείες έχουν προσπαθήσει να περιορίσουν τη χρήση του ChatGPT και παρόμοιων εργαλείων μετά από ανησυχίες σχετικά με την προστασία του απορρήτου των δεδομένων.

Η Amazon προειδοποίησε τον Γενάρη τους υπαλλήλους της να μην ανεβάζουν πληροφορίες σε τέτοιες υπηρεσίες ενώ τράπεζες όπως η JPMorgan και η Bank of America φέρεται να έχουν απαγορεύσει στους υπαλλήλους τους να χρησιμοποιούν το ChatGPT.

Ορισμένες εταιρείες ενδέχεται να έχουν ήδη υποστεί διαρροή δεδομένων. Τα κορεατικά μέσα ενημέρωσης ανέφεραν τον Μάρτιο ότι ένας μηχανικός της Samsung είχε ανεβάσει εμπιστευτικό πηγαίο κώδικα στο ChatGPT προκειμένου να ζητήσει τη βοήθειά του για τη διόρθωση μιας ελαττωματικής βάσης δεδομένων.

Νωρίτερα αυτό το μήνα, η Samsung Electronics επέβαλε προσωρινή απαγόρευση της χρήσης του ChatGPT, σημειώνοντας ότι η χρήση της υπηρεσίας θα μπορούσε να παραβιάσει την πολιτική ασφαλείας της εταιρείας. Η εταιρεία δήλωσε ότι εργάζεται πάνω στα δικά της εργαλεία τεχνητής νοημοσύνης.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Οι κυβερνήσεις ανησυχούν επίσης για την προστασία της ιδιωτικότητας.

Η Ιταλία απαγόρευσε για λίγο το ChatGPT από τη χώρα λόγω ανησυχιών για διαρροή προσωπικών δεδομένων, αν και ανακάλεσε το μέτρο λίγες εβδομάδες αργότερα αφότου η OpenAI ικανοποίησε τις απαιτήσεις της κυβέρνησης.

Οι προγραμματιστές τεχνητής νοημοσύνης αρχίζουν να αντιλαμβάνονται ότι τόσο οι εταιρείες όσο και οι χρήστες ανησυχούν για τη διαρροή δεδομένων και έτσι αρχίζουν να προσφέρουν επιλογές με περισσότερη ιδιωτικότητα.

Το ChatGPT εισήγαγε τον περασμένο μήνα μια λειτουργία incognito, η οποία δεν θα αποθηκεύει μόνιμα τις συνομιλίες και τις προτροπές (αν και η OpenAI δήλωσε ότι θα εξακολουθήσει να διατηρεί προσωρινά τις προτροπές για να τις παρακολουθεί για κατάχρηση).

Η Microsoft φέρεται επίσης να εργάζεται πάνω σε μια ιδιωτική έκδοση του λογισμικού της OpenAI που απευθύνεται σε εταιρείες, η οποία επίσης θα κρατάει τα εταιρικά δεδομένα ιδιωτικά και δεν θα τα χρησιμοποιεί για την εκπαίδευση των μοντέλων τεχνητής νοημοσύνης.

ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: