OpenAI vs. DeepSeek: Η «μάχη» για το μέλλον της Τεχνητής Νοημοσύνης και το δίλημμα του ανοιχτού κώδικα

OpenAI vs. DeepSeek: Η «μάχη» για το μέλλον της Τεχνητής Νοημοσύνης και το δίλημμα του ανοιχτού κώδικα
Photo: Shutterstock
Η DeepSeek έχει στρέψει την προσοχή της αγοράς προς την τεχνητή νοημοσύνη ανοιχτού κώδικα, αλλά παραμένουν μεγάλα ζητήματα ασφάλειας.

του Jeremy Kahn

Μετά την αναταραχή της αγοράς της περασμένης εβδομάδας γύρω από την άνοδο της εταιρείας τεχνητής νοημοσύνης DeepSeek με έδρα την Κίνα, η OpenAI παρουσίασε αρκετά νέα μοντέλα και χαρακτηριστικά. Δεν είναι σαφές εάν κάποια από αυτές τις εκδόσεις επιταχύνθηκε προκειμένου να αντιμετωπιστεί η αντίληψη ότι η DeepSeek είχε ξεπεράσει την OpenAI και άλλα εργαστήρια των ΗΠΑ ή εάν η OpenAI σχεδίαζε εξαρχής να κάνει αυτές τις ανακοινώσεις τώρα. Ίσως η πιο εντυπωσιακή δήλωση που έκανε ο διευθύνων σύμβουλος της OpenAI, Sam Altman την περασμένη εβδομάδα, προέκυψε κατά τη διάρκεια μιας συνεδρίας «ρωτήστε με οτιδήποτε» (ΑΜΑ) στο Reddit, όπου, απαντώντας σε μια ερώτηση σχετικά με το εάν η OpenAI σκέφτεται να κυκλοφορήσει μοντέλα ανοιχτού κώδικα, ο Altman απάντησε:

«Ναι το συζητάμε. Προσωπικά πιστεύω ότι βρισκόμαστε στη λάθος πλευρά της ιστορίας και πρέπει να βρούμε μια διαφορετική στρατηγική ανοιχτού κώδικα. Δεν συμμερίζονται όλοι στην ΟpenΑΙ αυτήν την άποψη και επίσης δεν είναι η τρέχουσα ύψιστη προτεραιότητά μας».

Αυτό είναι μεγάλη υπόθεση καθώς προέρχεται από τον επικεφαλής ενός εργαστηρίου που, αν και αρχικά ιδρύθηκε στην αρχή του ανοιχτού κώδικα όλων των ερευνών και μοντέλων του, τα τελευταία χρόνια έχει επενδύσει πλήρως σε ένα ιδιόκτητο μοντέλο ΤΝ, όπου οι χρήστες μπορούν να αλληλεπιδρούν με το λογισμικό του μόνο μέσω μιας διεπαφής προγραμματισμού εφαρμογών (API).

Είναι σημαντικό να θυμόμαστε ότι η OpenAI υιοθέτησε ένα ιδιόκτητο μοντέλο για δύο λόγους. Το πρώτο ήταν εμπορικό – είναι πολύ πιο δύσκολο να βγάλεις χρήματα από το προϊόν που δίνεις και πολύ πιο δύσκολο να διατηρήσεις οποιοδήποτε είδος τεχνολογικού πλεονεκτήματος έναντι των ανταγωνιστών, αν αφήσεις όλους να κάνουν reverse engineering στο λογισμικό σου. Αλλά το δεύτερο αφορούσε την Ασφάλεια της Τεχνητής Νοημοσύνης. Είναι πολύ πιο δύσκολο να αποτρέψουμε τους ανθρώπους από το να χρησιμοποιήσουν ένα μοντέλο ανοιχτού κώδικα και μάλιστα να το χρησιμοποιήσουν για επιβλαβείς σκοπούς. Έχει γίνει πολλή συζήτηση σε κύκλους πολιτικής για την τεχνητή νοημοσύνη σχετικά με την κρίσιμη σημασία της «διασφάλισης μοντέλων βαρών» ως ένας τρόπος για να διασφαλιστεί ότι οι ΗΠΑ διατηρούν ένα τεχνολογικό πλεονέκτημα έναντι πιθανών αντιπάλων, όπως η Κίνα, και ως ένας τρόπος για να αποτραπούν οι απατεώνες από τη χρήση της τεχνητής νοημοσύνης με επικίνδυνους τρόπους.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η δημοτικότητα του μοντέλου R1 της DeepSeek έχει αλλάξει και τις δύο πτυχές αυτού του λογισμού με ορισμένους κρίσιμους τρόπους. Πρώτον, η αγορά φαίνεται να στρέφεται όλο και περισσότερο στον ανοιχτό κώδικα. Καθ’ όλη τη διάρκεια του 2023, όταν τα ιδιόκτητα μοντέλα των OpenAI, Anthropic και Google ήταν σαφώς ανώτερα σε απόδοση, πολλοί CTO και CIO σκέφτηκαν ότι ο μόνος τρόπος με τον οποίο μπορούσαν να κατασκευάσουν συστήματα ΤΝ για να επιτύχουν επιχειρηματικούς στόχους ήταν να πληρώσουν για τα πιο ικανά ιδιόκτητα συστήματα.

Από τότε, ωστόσο, τα μοντέλα ελεύθερου, ανοιχτού βάρους πλησιάζουν όλο και περισσότερο τις επιδόσεις των ιδιόκτητων. Αυτό ίσχυε με τα μοντέλα της σειράς Llama 3 της Meta, τα οποία προσεγγίζουν το GPT-4 σε απόδοση. Τώρα η DeepSeek έδειξε ότι ισχύει και για τα νέα μοντέλα συλλογιστικής – τα οποία έχουν σχεδιαστεί για να τα καταφέρνουν καλύτερα σε λογικά προβλήματα, μαθηματικά και προγραμματισμό και τα οποία παρέχουν επίσης καλύτερες απαντήσεις όσο περισσότερος χρόνος τους δίνεται για να «σκεφτούν» ένα πρόβλημα. Το R1 της DeepSeek πλησιάζει την απόδοση του o1 της OpenAI.

Όσον αφορά την ασφάλεια, η αυξανόμενη δημοτικότητα των ισχυρών μοντέλων ανοιχτού κώδικα παρουσιάζει επίσης ένα δίλημμα. Τα μοντέλα ανοιχτού βάρους παραμένουν ουσιαστικά λιγότερο ασφαλή από τα ιδιόκτητα. Ερευνητές από το Πανεπιστήμιο της Πενσυλβάνια και τη Cisco δημοσίευσαν μια μελέτη την περασμένη εβδομάδα στην οποία «παρακίνησαν» το chatbot της DeepSeek χρησιμοποιώντας 50 κοινές τεχνικές jailbreaking – χρησιμοποιώντας προτροπές που προσπαθούν να ξεγελάσουν ένα μοντέλο για να ξεπεράσει τα προστατευτικά κιγκλιδώματα του και να παράξει δυνητικά επιβλαβές περιεχόμενο. Απέτυχε σε κάθε μια από αυτές, σύμφωνα με τη μελέτη. Αυτό σημαίνει ότι όλες εκείνες οι εταιρείες που βιάζονται να βάλουν το DeepSeek στα συστήματά τους, ενδέχεται να ενσωματώνουν άθελά τους ορισμένες μεγάλες ευπάθειες ασφαλείας. Σημαίνει επίσης ότι οι επιτήδειοι μπορούν να χρησιμοποιήσουν εύκολα τα μοντέλα της DeepSeek για να τους βοηθήσουν να δημιουργήσουν κακόβουλο λογισμικό και επιθέσεις στον κυβερνοχώρο, να εκτελέσουν απάτες ηλεκτρονικού ψαρέματος ή ακόμα και να σχεδιάσουν μια τρομοκρατική επίθεση. Γι’ αυτό θα πρέπει να καταβληθούν περισσότερα χρήματα και περισσότερη προσπάθεια για την εξεύρεση τρόπων υπεράσπισης των μοντέλων ανοιχτού κώδικα.

Θα είναι δύσκολο να συγκεραστούν αυτές οι ανησυχίες για την ασφάλεια με την επιχειρηματική δυναμική πίσω από μοντέλα ανοιχτού κώδικα. Ο Altman μπορεί να αισθάνεται ότι η OpenAI βρίσκεται «στη λάθος πλευρά της ιστορίας» – αλλά και πάλι, είναι διατεθειμένος να διακινδυνεύσει απερίσκεπτα να βοηθήσει να επιφέρει το «τέλος της ιστορίας» μόνο και μόνο για να αυξήσει τη δημοτικότητα της εταιρείας του στους προγραμματιστές;

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: Fortune.com