Το μέλλον της τεχνητής νοημοσύνης βρίσκεται στην προστασία της ιδιωτικότητας
- 22/06/2020, 16:10
- SHARE
του Jeremy Kahn
Πέρασα ένα μεγάλο μέρος της περασμένης εβδομάδας ακούγοντας παρουσιάσεις σε πάνελ στo πλαίσιo του CogX, του «φεστιβάλ τεχνητής νοημοσύνης και αναδυόμενης τεχνολογίας» που πραγματοποιείται κάθε χρόνο στο Λονδίνο. Φέτος, εξαιτίας του Covid-19, το event πραγματοποιήθηκε εξ ολοκλήρου διαδικτυακά.
Υπήρξαν αμέτρητες ενδιαφέρουσες συζητήσεις σχετικά με ζητήματα που σχετίζονται με την τεχνητή νοημοσύνη. Μία από τις πιο συναρπαστικές συνεδρίες αφορούσαν τη μηχανική μάθηση που προφυλάσσει την ιδιωτικότητα. Το θέμα αυτό γίνεται ολοένα και πιο «καυτό», ιδιαίτερα στην υγειονομική περίθαλψη, και ειδικά τώρα που η πανδημία του κορονοϊού βοηθά στην επιτάχυνση του ενδιαφέροντος για την εφαρμογή της μηχανικής μάθησης σε αρχεία υγειονομικής περίθαλψης.
Επί του παρόντος, η λύση για την προστασία της ιδιωτικότητας των ασθενών στα περισσότερα σύνολα δεδομένων που χρησιμοποιούνται για την υγειονομική περίθαλψη είναι με την ανωνυμία των δεδομένων: Με άλλα λόγια, προσωπικές πληροφορίες ταυτοποίησης όπως ονόματα, διευθύνσεις, αριθμοί τηλεφώνου και αριθμοί κοινωνικής ασφάλισης απλώς αφαιρούνται από το σύνολο δεδομένων προτού τροφοδοτηθούν στον αλγόριθμο της τεχνητής νοημοσύνης. Η ανωνυμία είναι επίσης το πρότυπο σε άλλους κλάδους, ειδικά σε αυτούς που υπόκεινται σε μεγάλη νομοθετική ρύθμιση, όπως η λήψη δανείων και η ασφάλιση.
Ωστόσο, οι ερευνητές έχουν δείξει ότι αυτό το είδος ανωνυμίας δεν εγγυάται το απόρρητο: Συχνά υπάρχουν άλλα πεδία στα δεδομένα, όπως η τοποθεσία, η ηλικία ή το επάγγελμα, που μπορεί να επιτρέψουν την ταυτοποίηση ενός ατόμου, ειδικά εάν υπάρχει η δυνατότητα της αντιπαραβολής με ένα άλλο σύνολο δεδομένων που περιλαμβάνει προσωπικά στοιχεία.
Η μηχανική μάθηση που διατηρεί το απόρρητο, αντίθετα, υπόσχεται πολύ περισσότερη ασφάλεια – στην πραγματικότητα, οι περισσότερες μέθοδοι εξασφαλίζουν με μαθηματική βεβαιότητα ότι τα μεμονωμένα αρχεία δεν μπορούν να αναγνωριστούν εκ νέου από το άτομο που εκπαιδεύεται ή εκτελεί τον αλγόριθμο τεχνητής νοημοσύνης. Αλλά έχει πλεονεκτήματα και μειονεκτήματα.
Ένα από τα μεγάλα μειονεκτήματα είναι ότι ορισμένες μέθοδοι διατήρησης απορρήτου είναι λιγότερο ακριβείς. Ένα άλλο είναι ότι ορισμένες μέθοδοι διατήρησης της ιδιωτικής ζωής απαιτούν περισσότερη υπολογιστική ισχύ ή χρειάζονται περισσότερο χρόνο για να λειτουργήσουν.
Την περασμένη εβδομάδα, ο Eric Topol, καρδιολόγος που είναι ταυτόχρονα και μεγάλος υποστηρικτής της δυνατότητας της τεχνητής νοημοσύνης να μετασχηματίσει την υγειονομική περίθαλψη και επιδεικνύει αξιοσημείωτο σκεπτικισμό σχετικά με την διαφημιστική εκστρατεία μέχρι τώρα για την τεχνητή νοημοσύνη στην υγειονομική περίθαλψη, δημοσίευσε στο Twitter ένα σχόλιο για να επισημάνει μια εργασία που δημοσιεύθηκε στο Nature σχετικά με την πιθανή χρήση της ενοποιημένης μάθησης, μιας τεχνικής μηχανικής μάθησης που διατηρεί το απόρρητο, για να δημιουργήσει πολύ μεγαλύτερα και καλύτερα ποιοτικά σύνολα δεδομένων ιατρικών εικόνων για εφαρμογές τεχνητής νοημοσύνης.
Όπως είπαν πρόσφατα διάφοροι συμμετέχοντες στο CogX, το γνωστό event τεχνητής νοημοσύνης που φέτος έλαβε χώρα διαδικτυακά, η ικανότητα άντλησης πληροφοριών από μεγάλα σύνολα δεδομένων χωρίς να διακυβεύονται κρίσιμα προσωπικά στοιχεία έχει δυνητικό ενδιαφέρον πέρα από την υγειονομική περίθαλψη. Θα μπορούσε να βοηθήσει τις βιομηχανίες να δημιουργήσουν καλύτερα σημεία αναφοράς χωρίς να θέσουν σε κίνδυνο ανταγωνιστικές πληροφορίες ή να βοηθήσει τις εταιρείες να εξυπηρετήσουν τους πελάτες τους καλύτερα χωρίς να χρειάζεται να συλλέγουν και να αποθηκεύουν τεράστιες ποσότητες προσωπικών δεδομένων γι’ αυτούς.
Μάλιστα, ο Blaise Thomson, ιδρυτής και διευθύνων σύμβουλος της Bitfount, μιας εταιρείας που αναπτύσσει λογισμικό για να επιτρέπει αυτό το είδος διαμοιρασμού μεταξύ εταιρειών (και που πούλησε την προηγούμενη εταιρεία του στην Apple) πήγε ένα βήμα παραπέρα. Συγκεκριμένα, υποστήριξε ότι η τεχνητή νοημοσύνη που προφυλάσσει την ιδιωτικότητα θα συνιστούσε χτύπημα εναντίον των μονοπωλίων. Θα μπορούσε, δηλαδή, να αντιστραφεί η τάση της τεχνητής νοημοσύνης να ενισχύει αγορές τύπου «ο νικητής τα παίρνει όλα», όπου η μεγαλύτερη εταιρεία έχει πρόσβαση σε περισσότερα δεδομένα, παγιώνοντας την ηγετική της θέση στην αγορά. Παρόλο που δεν ανέφερε ονόματα, εύκολα μπορούμε να φανταστούμε ότι εννοούσε εταιρείες όπως η Google και η Facebook. Ο ίδιος ο Thomson είναι υποστηρικτής μιας μεθόδου προστασίας της ιδιωτικότητας που λέγεται «υπολογιστική πολλαπλών μερών».
Ο M.M. Hassan Mahmoud, επικεφαλής τεχνολόγος στη Digital Catapult, εξήγησε με τη σειρά του την ενοποιημένη μάθηση. Η μέθοδος αυτή λειτουργεί ως δίκτυο, όπου κάθε κόμβος διατηρεί όλα τα δικά του δεδομένα τοπικά και χρησιμοποιεί αυτά τα δεδομένα για να εκπαιδεύσει ένα τοπικό μοντέλο τεχνητής νοημοσύνης. Οι πτυχές κάθε τοπικού μοντέλου κοινοποιούνται σε έναν κεντρικό διακομιστή, ο οποίος χρησιμοποιεί τις πληροφορίες για να δημιουργήσει ένα καλύτερο, παγκόσμιο μοντέλο που στη συνέχεια μεταδίδεται στους κόμβους.
Το πρόβλημα: Ο συντονισμός όλων αυτών των πληροφοριών απαιτεί εξειδικευμένες πλατφόρμες λογισμικού, και αυτή τη στιγμή, τα διαφορετικά συστήματα λογισμικού για την εκτέλεση ενοποιημένης μάθησης από διαφορετικούς προμηθευτές (η Google, ο κατασκευαστής τσιπ γραφικών Nvidia και η WeBank της Κίνας έχουν από ένα) δεν είναι συμβατά. Έτσι, η ομάδα του Mahmoud κατασκεύασε ένα σύστημα ενοποιημένης μάθησης που μπορεί να λειτουργεί με όλα αυτά τα λογισμικά. «Είναι θαυμάσιο που μπορούμε να αναπτύξουμε έναν κοινό, ανοιχτό, κλιμακούμενο πυρήνα που να μπορούν όλοι να εμπιστευτούν» είπε ο Mahmoud.
Τέλος, ο Oliver Smith, διευθυντής στρατηγικής στην Telefonica Innovation Alpha, ανέφερε στη δική του παρέμβαση ότι η ομάδα του έχει διερευνήσει έξι διαφορετικές τεχνικές για την εφαρμογή τεχνητής νοημοσύνης που προστατεύει την ιδιωτικότητα. «Το όνειρο μου, ότι θα μπορούσαμε να πάρουμε μια τεχνολογία και να την εφαρμόσουμε σε κάθε περίπτωση, δεν είναι στην πραγματικότητα σωστό» συμπέρανε. Αντίθετα, κάθε περίπτωση χρήσης απαιτεί και μια διαφορετική τεχνική.
Αλλά συνολικά ο κλάδος έχει μεγάλο δυναμικό: «Όλες οι τεχνικές αυτές υπόσχονται να αποδείξουν μαθηματικά την ιδιωτικότητα» κατέληξε ο Smith. «Αυτό είναι καλύτερο από την ανωνυμοποίηση κι εκεί ακριβώς πρέπει να πάμε». Πρόκειται για μια τάση που ο οποιοσδήποτε εφαρμόζει ένα σύστημα τεχνητής νοημοσύνης – ειδικά κάποιο που αφορά προσωπικές πληροφορίες – πρέπει να λάβει σοβαρά υπόψη του.