Mira Murati: Ποια είναι η 35χρονη πίσω από το ChatGPT που πήρε τη θέση του Sam Altman
- 19/11/2023, 09:48
- SHARE
Λίγα λεπτά πριν η Mira Murati, η επικεφαλής τεχνολογίας της OpenAI, μας συναντήσει σε μια αίθουσα συνεδριάσεων στα κεντρικά γραφεία της εταιρείας στο Σαν Φρανσίσκο, ένα άλλο στέλεχος βγαίνει από την αίθουσα: ο συνιδρυτής και διευθύνων σύμβουλος, Sam Altman. Ο «σπασίκλας» πρωτοπόρος της επανάστασης της τεχνητής νοημοσύνης μπαίνει από ένα άλλο δωμάτιο, μαζεύει τα πράγματά του – που, κατά γενική ομολογία, αποτελούνται μόνο από έναν φορητό υπολογιστή- και απομακρύνεται αθόρυβα, ανοίγοντας το δρόμο για να έρθει η Murati.
Ο Altman ήταν συνήθως το δημόσιο πρόσωπο της πιο γνωστής εταιρείας στον τομέα της τεχνητής νοημοσύνης – μάλιστα, είχε πρόσφατα επιστρέψει αεροπορικώς από την Ουάσινγκτον, από συνομιλίες με το Κογκρέσο για το ρυθμιστικό πλαίσιο της τεχνητής νοημοσύνης. Λιγότερο γνωστή, αλλά εξίσου σημαντική για την ανοδική πορεία της OpenAI, είναι η Murati, η οποία συχνά λειτουργεί μακριά από τα φώτα της δημοσιότητας. Η 34χρονη Murati είναι το στέλεχος που διαχειρίζεται το δημοφιλές chatbot ChatGPT καθώς και το DALL-E, ένα σύστημα τεχνητής νοημοσύνης που δημιουργεί τέχνη από κείμενο – τα προϊόντα που έχουν ωθήσει την OpenAI, η οποία ξεκίνησε πριν από οκτώ χρόνια ως μη κερδοσκοπικό ερευνητικό εργαστήριο, σε ανεπανάληπτα ύψη.
Καθίσαμε με την Murati (μόλις ο Altman έφυγε από το δωμάτιο) για να μάθουμε περισσότερα για την πορεία της στην OpenAI, τις προκλήσεις που πρέπει να αντιμετωπίσει η εταιρεία καθώς τα προϊόντα της γίνονται πανταχού παρόντα, καθώς και τις τελευταίες εκδόσεις του DALL-E και τα νέα χαρακτηριστικά του ChatGPT, το οποίο θα περιλαμβάνει για πρώτη φορά φωνητικές εντολές – μια κίνηση που θα μπορούσε να κάνει την επόμενη έκδοση της δημιουργικής τεχνητής νοημοσύνης ακόμα πιο φιλική προς το χρήστη και να την φέρει (και τους κατασκευαστές της) ένα βήμα πιο κοντά στην «πανταχού παρουσία».
Ποιες είναι οι καλύτερες περιπτώσεις χρήσης που βλέπετε με το DALL-E και ειδικά με αυτή τη νέα έκδοση [DALL-E 3, η οποία ενσωματώνεται με το ChatGPT για να επιτρέπει στους χρήστες να δημιουργούν εικόνες από κείμενο];
Μόλις το βάλαμε σε προεπισκόπηση έρευνας, οπότε δεν έχουμε ακόμη δει πώς θα το χρησιμοποιήσει ο κόσμος ευρύτερα. Και αρχικά, επικεντρωθήκαμε αρκετά στο ποια είναι όλα τα πράγματα που μπορούν να πάνε στραβά.
Αλλά όσον αφορά τις καλές περιπτώσεις χρήσης, νομίζω ότι υπάρχουν δημιουργικές χρήσεις. Μπορείτε να φτιάξετε κάτι πραγματικά προσαρμοσμένο – όπως αν το παιδί σας αγαπάει πολύ τους βατράχους και θέλετε να φτιάξετε μια ιστορία γι’ αυτό, σε πραγματικό χρόνο, και στη συνέχεια μπορεί να συνεισφέρει στην ιστορία. Έτσι, υπάρχει πολλή δημιουργικότητα και συν-δημιουργία. Και στη συνέχεια, νομίζω ότι στο χώρο εργασίας η δημιουργία πρωτοτύπων ιδεών μπορεί να είναι πολύ πιο εύκολη. Κάνει τον επαναληπτικό πρώιμο κύκλο της δημιουργίας οποιουδήποτε πράγματος πολύ πιο γρήγορο.
Έχετε κάποια πρόσθετα νέα για το προϊόν. Μπορείτε να μας παρουσιάσετε τα σημαντικότερα σημεία εδώ;
Η συνολική εικόνα, και αυτό είναι που συζητάμε εδώ και δύο χρόνια, είναι ότι ο στόχος μας είναι να φτάσουμε στην AGI [Τεχνητή Γενική Νοημοσύνη], και θέλουμε να φτάσουμε εκεί με τρόπο που να διασφαλίζει ότι η AGI θα πάει καλά για την ανθρωπότητα και ότι χτίζουμε κάτι που είναι τελικά επωφελές. Για να το πετύχουμε αυτό, πρέπει αυτά τα μοντέλα να έχουν μια ισχυρή αντίληψη του κόσμου, σε κείμενο και εικόνες και φωνή και σε διάφορες μορφές.
Έτσι, αυτό που κάνουμε είναι ότι φέρνουμε όλες αυτές τις μεθόδους μαζί, στο ChatGPT. Φέρνουμε το DALL-E 3 στο ChatGPT, και προβλέπω ότι θα είναι τεράστια επιτυχία και ένα υπέροχο πράγμα για να αλληλεπιδράσετε μαζί του. Και μια άλλη μορφή είναι η φωνή. Έτσι, θα έχετε τώρα τη δυνατότητα να μιλάτε με το ChatGPT σε πραγματικό χρόνο. Δεν πρόκειται να κάνω επίδειξη. Αλλά μπορείτε απλά να του μιλήσετε και είναι …
[Η Murati πιάνει το τηλέφωνό της και ανοίγει το ChatGPT, και στη συνέχεια ρωτάει την εφαρμογή να της πει «κάτι ενδιαφέρον» μέσω φωνητικής εντολής. Το chatbot ανταποκρίνεται: «Το ήξερες ότι το μέλι δεν χαλάει ποτέ;»]
Αναπτύσσετε λοιπόν ένα demo.
Είναι πολύ πιο εύκολο να δείξεις παρά να περιγράψεις. Ουσιαστικά, αυτό που πάει να γίνει είναι ότι δίνεται στον κόσμο η δυνατότητα να αλληλεπιδρά με την τεχνολογία με έναν τρόπο που είναι πολύ φυσικός.
Ας πάμε λίγο πιο πίσω: Υπάρχει τόσο μεγάλο ενδιαφέρον όχι μόνο για το προϊόν, αλλά και για τους ανθρώπους που το υλοποιούν. Ποιες πιστεύετε ότι είναι οι πιο καθοριστικές εμπειρίες που είχατε και σας διαμόρφωσαν και ποιά είστε σήμερα;
Σίγουρα το να μεγαλώνω στην Αλβανία. Αλλά επίσης, ξεκίνησα από την αεροδιαστημική και η θητεία μου στην Tesla ήταν σίγουρα μια πολύ καθοριστική στιγμή – βιώνοντας όλη την εμπειρία του σχεδιασμού και της ανάπτυξης ενός ολόκληρου οχήματος. Και σίγουρα όταν ήρθα στην OpenAI. Από 40 ή 50 άτομα που ήμασταν όταν ήρθα και ήμασταν ουσιαστικά ένα ερευνητικό εργαστήριο, τώρα είμαστε μια εταιρεία ολοκληρωμένων προϊόντων με εκατομμύρια χρήστες και πολλούς τεχνολόγους. [Η OpenAI έχει τώρα περίπου 500 υπαλλήλους.]
Πείτε μας για τότε που πρωτοκυκλοφορήσατε το ChatGPT στο κοινό. Είχατε την παραμικρή ιδέα ότι θα ήταν τόσο σημαντικό, ότι θα έφερνε τόση προσοχή στην ομάδα;
Όχι. Πιστεύαμε ότι θα ήταν σημαντικό και προετοιμαστήκαμε γι’ αυτό. Και φυσικά, όλες οι προετοιμασίες κατέστησαν άσχετες, λίγες ώρες αργότερα. Έπρεπε πραγματικά να προσαρμοστούμε και να αλλάξουμε τον τρόπο λειτουργίας μας. Αλλά νομίζω ότι αυτό είναι στην πραγματικότητα το κλειδί για όλα όσα κάνουμε, επειδή ο ρυθμός προόδου της τεχνολογίας είναι απίστευτα γρήγορος.
Έπρεπε να το κάνουμε αυτό με το ChatGPT. Ξέρετε, το χρησιμοποιούσαμε εσωτερικά. Και δεν ήμασταν τόσο εντυπωσιασμένοι με αυτό, επειδή χρησιμοποιούσαμε ήδη το GPT-4. Και έτσι δεν νομίζαμε ότι θα δημιουργείτο τόσος «ντόρος». Αλλά δεν ήταν έτσι.
Μεταξύ των πραγμάτων που συνέβησαν καθώς κυκλοφόρησε το ChatGPT είναι μια άτυπη «κούρσα εξοπλισμών». Υπάρχει η Google, προφανώς, αλλά και ένα σωρό άλλοι ανταγωνιστές. Ποια είναι τα μειονεκτήματα σε αυτό;
Νομίζω ότι το μειονέκτημα είναι η «κούρσα προς τον πάτο» όσον αφορά την ασφάλεια. Αυτό είναι το μειονέκτημα, σίγουρα.
Αυτό είναι ένα μεγάλο μειονέκτημα.
Ναι. Ο καθένας μας πρέπει να δεσμευτεί να μην το κάνει και να αντισταθεί στις πιέσεις. Νομίζω ότι η OpenAI έχει τα κατάλληλα κίνητρα για να μην το κάνει αυτό. Αλλά πιστεύω επίσης ότι ο ανταγωνισμός είναι καλός γιατί μπορεί να ωθήσει την πρόοδο. Γίνεται πιο πιθανό το ενδεχόμενο ο κόσμος να αποκτήσει προϊόντα που του αρέσουν. Δεν νομίζω ότι ο ανταγωνισμός είναι κακός, αυτός καθαυτός. Το θέμα είναι ότι αν όλοι παρακινούνται κυρίως από αυτό το κίνητρο και αγνοούν τους κινδύνους και το τι διακυβεύεται, αυτό μπορεί να αναδειχθεί σε ένα τεράστιο πρόβλημα.
Αισθάνεστε σίγουρη καθώς ο ανταγωνισμός συνεχίζει να επιταχύνεται – και οι επενδυτές σας αναμένουν κέρδη – ότι τα κίνητρα αυτά μπορούν να αντέξουν σε όλες αυτές τις πιέσεις;
Αισθάνομαι σίγουρη για τη δομή των κινήτρων μας και το σχεδιασμό που έχουμε. Με τους εταίρους μας, επίσης, ο τρόπος που έχουμε δομήσει τα πράγματα, είμαστε πολύ ευθυγραμμισμένοι. Τώρα, νομίζω ότι το κομμάτι που είναι πιο δύσκολο να πούμε με σιγουριά, είναι να είμαστε σε θέση να προβλέψουμε τις αναδυόμενες δυνατότητες και να προλάβουμε ορισμένους από τους κινδύνους ανάπτυξης. Επειδή τελικά, πρέπει να θεσμοθετηθούν και να τεθούν σε λειτουργία αυτά τα πράγματα, και δεν μπορούν να είναι απλώς πολιτικές και ιδέες.
Πώς διασφαλίζετε ότι η έγνοια αυτή παραμένει με κάθε νέα έκδοση; Πώς είναι αυτές οι συζητήσεις καθώς εξετάζετε τα χειρότερα σενάρια;
Ξεκινάει με την εσωτερική ομάδα, σωστά; Πριν καν έχουμε ένα πρωτότυπο, σκεφτόμαστε πολύ για τα δεδομένα που χρησιμοποιούμε και βεβαιωνόμαστε ότι αισθανόμαστε καλά για τις διάφορες πτυχές τους. Είναι ένας πολύ επαναληπτικός κύκλος, και μαθαίνουμε πράγματα στην πορεία, και τα επαναλαμβάνουμε.
Μόλις έχουμε ένα πρωτότυπο, το πρώτο πράγμα που κάνουμε είναι να το δοκιμάσουμε εσωτερικά και να βάλουμε συνεργάτες (εμπειρογνώμονες των οποίων η δουλειά είναι να βρίσκουν τρωτά σημεία) σε συγκεκριμένες «περιοχές» για τις οποίες ανησυχούμε. Όπως, αν δούμε ότι το μοντέλο είναι απλά απίστευτα καλό στο να φτιάχνει φωτορεαλιστικά πρόσωπα, ας πούμε, τότε θα το εξετάσουμε και θα δούμε πόσο άσχημα είναι τα κακά πράγματα που μπορούν να γίνουν με αυτό το μοντέλο. Πώς μοιάζει η κακή χρήση και η επιβλαβής προκατάληψη; Και στη συνέχεια, με βάση αυτά τα ευρήματα, θα το ξαναεπεξεργαστούμε και θα επιβάλουμε μέτρα. Αλλά κάθε φορά που υπάρχει μια παρέμβαση, ελέγχουμε πώς μοιάζει το αποτέλεσμα, επειδή θέλουμε να βεβαιωθούμε ότι υπάρχει κάποιου είδους ισορροπία – ότι δεν κάναμε το προϊόν εντελώς άχρηστο ή πραγματικά απογοητευτικό για να δουλέψει κάποιος με αυτό. Και αυτή είναι μια δύσκολη ισορροπία, το να το κάνεις χρήσιμο, υπέροχο και ασφαλές.
Έτσι, αυτή τη στιγμή με το DALL-E 3, αν υπάρχει κάτι στην φωνητική εντολή σχετικά με τη δημιουργία προσώπων που εμείς ορίζουμε ότι έχουν ευαίσθητα χαρακτηριστικά, τότε το μοντέλο απλώς θα απορρίψει την εντολή. Αλλά δεν πρέπει επίσης να απορρίπτονται αιτήματα όπου ο χρήστης θέλει πραγματικά το μοντέλο να κάνει κάτι που δεν είναι κακό. Και έτσι αυτό είναι το είδος των αποχρώσεων που πρέπει να αντιμετωπίσουμε, αλλά πρέπει να ξεκινήσουμε από κάπου, και αυτή τη στιγμή είμαστε πιο συντηρητικοί και λιγότερο δεκτικοί επειδή η τεχνολογία είναι νέα. Και στη συνέχεια, καθώς θα κατανοούμε περισσότερο τι κάνει το μοντέλο και θα λαμβάνουμε περισσότερες πληροφορίες από τους εργαζομένους που τεστάρουν τις αδυναμίες του, θα μπορούμε να χρησιμοποιήσουμε αυτά τα δεδομένα για να κάνουμε τις πολιτικές μας ή τις περιπτώσεις χρήσης πιο διαφοροποιημένες και να είμαστε πιο επιεικείς σε ό,τι κάνει η τεχνολογία. Αυτή είναι η τάση.
Γνωρίζω ότι υπάρχουν αρκετές προκλήσεις για τα πνευματικά δικαιώματα αυτή τη στιγμή. [Τους τελευταίους μήνες, αρκετοί συγγραφείς και άλλοι δημιουργοί έχουν μηνύσει την OpenAI, λέγοντας ότι η εταιρεία εκπαιδεύει τα μοντέλα της χρησιμοποιώντας τα γραπτά τους χωρίς τη συγκατάθεσή τους ή αποζημίωση]. Πιστεύετε ότι αυτά αποτελούν μακροπρόθεσμη απειλή για την ύπαρξη των σωστών μοντέλων εκπαίδευσης που είναι αρκετά εκτεταμένα;
Αυτή τη στιγμή συνεργαζόμαστε πολύ με εκδότες και δημιουργούς περιεχομένου. Νομίζω ότι τελικά, ο κόσμος θέλει αυτή η τεχνολογία να προοδεύσει, να είναι χρήσιμη και να βελτιώσει τη ζωή μας. Και προσπαθούμε να καταλάβουμε τι θα μπορούσε να λειτουργήσει, είμαστε κάπως στην πρώτη γραμμή. Πρέπει να πάρουμε κάποιες πολύ δύσκολες αποφάσεις και πρέπει να συνεργαστούμε με τον κόσμο για να καταλάβουμε πώς θα μπορούσε να μοιάζει αυτό, πώς θα μοιράζονται τα έσοδα, πώς θα είναι τα οικονομικά. Πρόκειται για μια διαφορετική τεχνολογία, οπότε γιατί χρησιμοποιούμε τις ίδιες πολιτικές ή νοοτροπίες που χρησιμοποιούσαμε πριν; Και έτσι εργαζόμαστε πάνω σε αυτό, αλλά δεν έχουμε λύση. Είναι πιθανό να είναι πολύπλοκο, αλλά συνεργαζόμαστε με τους εκδότες και τους δημιουργούς περιεχομένου για να καταλάβουμε τι πρέπει να κάνουμε. Αλλά αυτό είναι σίγουρα πολύπλοκο και θα εξελιχθεί πολύ. Αυτό που κάνουμε σήμερα είναι πιθανώς το ξεκίνημα της κατανόησης των οικονομικών της κοινής χρήσης δεδομένων και της απόδοσης δεδομένων. Όταν οι άνθρωποι παράγουν και προσδίδουν μεγάλη αξία στην αναδυόμενη συμπεριφορά ενός μοντέλου, πώς μπορούμε να το μετρήσουμε αυτό;
Όσον αφορά το ρυθμιστικό πλαίσιο, έχετε πει ότι είστε υπέρ της ρύθμισης, αλλά ποια θα λέγατε ότι είναι τα πιο σημαντικά κομμάτια της ρύθμισης της τεχνητής νοημοσύνης που πιστεύετε ότι πρέπει να γίνουν γρήγορα; Και τι σας ανησυχεί περισσότερο σχετικά με τη διάθεση της τεχνητής νοημοσύνης στο κοινό;
Νομίζω ότι το πιο σημαντικό πράγμα που μπορούν να κάνουν οι άνθρωποι αυτή τη στιγμή είναι να την κατανοήσουν. Αλλά κοιτάζοντας στο μέλλον, θέλουμε αυτές οι τεχνολογίες να ενσωματωθούν βαθιά στις υποδομές μας. Και αν αυτές οι τεχνολογίες πρόκειται να ενσωματωθούν στην ηλεκτρική μας υποδομή, χρειαζόμαστε όχι μόνο τις τεχνικές πτυχές της, αλλά και το ρυθμιστικό πλαίσιο. Πρέπει να ξεκινήσουμε από κάπου για να γίνει αυτό τελικά πραγματικότητα.
Ένας άλλος τομέας που είναι πολύ σημαντικός είναι να σκεφτούμε τα μοντέλα που θα έχουν αυτό που ονομάζουμε επικίνδυνες δυνατότητες. Υπάρχουν δύο τύποι κακής χρήσης: Υπάρχει η «κανονική» κακή χρήση και υπάρχει μια ύπουλη χρήση αυτών των συστημάτων τεχνητής νοημοσύνης. Και για την περίπτωση που υπάρχει αυτή η ύπουλη χρήση, πώς πρέπει να το σκεφτούμε; Διότι δεν πρόκειται μόνο για καθημερινή χρήση. Πρόκειται για τεχνολογία που πιθανότατα θα επηρεάσει τη διεθνή πολιτική περισσότερο από οτιδήποτε άλλο έχουμε κατασκευάσει ποτέ. Η πιο κοντινή περίπτωση είναι αυτή των πυρηνικών όπλων, φυσικά. Επομένως, το θέμα είναι πώς μπορούμε να δημιουργήσουμε κανονισμούς που θα το μετριάσουν αυτό.
Έχουμε δει δύο στρατόπεδα να αναδύονται σχετικά με το μέλλον της τεχνητής νοημοσύνης – ένα πολύ ουτοπικό και ένα που το βλέπει ως υπαρξιακή απειλή. Ποιες είναι οι ελπίδες σας για το πώς θα είναι αυτό το μέλλον;
Νομίζω ότι είναι και τα δύο πιθανότητες. Είμαι πολύ αισιόδοξη ότι μπορούμε να διασφαλίσουμε ότι όλα θα πάνε καλά. Αλλά η ίδια η τεχνολογία εμπεριέχει εγγενώς και τις δύο πιθανότητες, και δεν διαφέρει από άλλα εργαλεία που έχουμε κατασκευάσει στον τρόπο που υπάρχει κατάχρηση και υπάρχει η δυνατότητα για πραγματικά φρικτά πράγματα, ακόμη και καταστροφικά γεγονότα. Και αυτό που είναι μοναδικό σε αυτό είναι το γεγονός ότι υπάρχει επίσης η υπαρξιακή απειλή ότι, ξέρετε, μπορεί να είναι ουσιαστικά το τέλος του πολιτισμού. Νομίζω ότι υπάρχει μόνο μια μικρή πιθανότητα να συμβεί αυτό, αλλά υπάρχει κάποια μικρή πιθανότητα, και γι’ αυτό πρέπει να το σκεφτούμε πολύ.
Έχουμε μια ολόκληρη ομάδα αφιερωμένη σε αυτό και άπειρη υπολογιστική ισχύ. Ονομάζουμε αυτό το έργο Super Alignment, και έχει να κάνει με το πώς θα ευθυγραμμίσουμε αυτά τα συστήματα και θα διασφαλίσουμε ότι ενεργούν πάντα σύμφωνα με τις αξίες μας. Και αυτό είναι δύσκολο.
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:
- BBG: Η αύξηση στις τιμές σπιτιών στην Αθήνα είναι η μεγαλύτερη στην Ευρώπη
- ΤτΕ: Στα 5,8 δισ. ευρώ το πρωτογενές πλεόνασμα στο 10μηνο του 2023
Πηγή: Fortune