Η DeepSeek θέλει να μειώσει τον χρόνο εκπαίδευσης για τα μοντέλα τεχνητής νοημοσύνης της

Η DeepSeek θέλει να μειώσει τον χρόνο εκπαίδευσης για τα μοντέλα τεχνητής νοημοσύνης της
The DeepSeek AI application is seen on a mobile phone in this photo illustration taken in Warsaw, Poland on 27 January, 2025. (Photo by Jaap Arriens/NurPhoto) (Photo by Jaap Arriens / NurPhoto / NurPhoto via AFP) Photo: AFP
Μια νέα προσέγγιση στην ενισχυτική μάθηση για να γίνουν τα μοντέλα πιο αποδοτικά.

Η DeepSeek συνεργάζεται με το Πανεπιστήμιο Τσινγκουά για τη μείωση της εκπαίδευσης που χρειάζονται τα μοντέλα τεχνητής νοημοσύνης της, σε μια προσπάθεια να μειώσει το λειτουργικό κόστος.

Το Bloomberg μετέδωσε πως η κινεζική νεοφυής επιχείρηση, η οποία αναστάτωσε τις αγορές με το χαμηλού κόστους μοντέλο της που εμφανίστηκε τον Ιανουάριο, συνεργάστηκε με ερευνητές από το ίδρυμα του Πεκίνου σε ένα έγγραφο που περιγράφει λεπτομερώς μια νέα προσέγγιση στην ενισχυτική μάθηση για να γίνουν τα μοντέλα πιο αποδοτικά.

Η νέα μέθοδος έχει ως στόχο να βοηθήσει τα μοντέλα τεχνητής νοημοσύνης να τηρούν καλύτερα τις ανθρώπινες προτιμήσεις, προσφέροντας ανταμοιβές για πιο ακριβείς και κατανοητές απαντήσεις, έγραψαν οι ερευνητές.

Η ενισχυτική μάθηση έχει αποδειχθεί αποτελεσματική στην επιτάχυνση των εργασιών της τεχνητής νοημοσύνης σε στενές εφαρμογές και τομείς.

Ωστόσο, η επέκτασή της σε πιο γενικές εφαρμογές έχει αποδειχθεί πρόκληση – και αυτό είναι το πρόβλημα που προσπαθεί να λύσει η ομάδα της DeepSeek με κάτι που αποκαλεί ρύθμιση κριτικής με βάση τις αρχές του εαυτού της. Η στρατηγική ξεπέρασε τις υπάρχουσες μεθόδους και μοντέλα σε διάφορα benchmarks και το αποτέλεσμα έδειξε καλύτερες επιδόσεις με λιγότερους υπολογιστικούς πόρους, σύμφωνα με το έγγραφο.

Η DeepSeek ονομάζει αυτά τα νέα μοντέλα DeepSeek-GRM -συντομογραφία για τη «γενικευμένη μοντελοποίηση ανταμοιβής»– και θα τα κυκλοφορήσει σε βάση ανοιχτού κώδικα, ανέφερε η εταιρεία.

Άλλοι προγραμματιστές τεχνητής νοημοσύνης, συμπεριλαμβανομένου του κινεζικού τεχνολογικού γίγαντα Alibaba και της OpenAI με έδρα το Σαν Φρανσίσκο , προωθούνται επίσης σε ένα νέο σύνορο βελτίωσης της συλλογιστικής και των δυνατοτήτων αυτο-αναβάθμισης, ενώ ένα μοντέλο τεχνητής νοημοσύνης εκτελεί εργασίες σε πραγματικό χρόνο.

Η Meta με έδρα το Menlo Park της Καλιφόρνιας κυκλοφόρησε την τελευταία της οικογένεια μοντέλων τεχνητής νοημοσύνης, το Llama 4, το Σαββατοκύριακο και τα χαρακτήρισε ως τα πρώτα που χρησιμοποιούν την αρχιτεκτονική Mixture of Experts (MoE).

Τα μοντέλα της DeepSeek βασίζονται σημαντικά στην MoE για την αποδοτικότερη χρήση των πόρων και η Meta έκανε συγκριτική αξιολόγηση της νέας της έκδοσης με τη νεοσύστατη εταιρεία με έδρα την Χανγκζού. Η DeepSeek δεν έχει διευκρινίσει πότε μπορεί να κυκλοφορήσει το επόμενο μοντέλο-ναυαρχίδα της.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: Bloomberg.com