H DeepSeek αναπτύσσει μοντέλα ΑΙ που βελτιώνουν τον εαυτό τους
- Κατηγορία ΤΕΧΝΟΛΟΓΙΑ
- 0 σχόλια
Η DeepSeek ονομάζει τα νέα μοντέλα DeepSeek-GRM - συντομογραφία για τη «γενικευμένη μοντελοποίηση ανταμοιβής» - και θα τα κυκλοφορήσει σε βάση ανοιχτού κώδικα.
Σε μια προσπάθεια να μειώσει το λειτουργικό κόστος, η κινεζική DeepSeek που «τάραξε τα νερά» στο χώρο της ΑΙ, συνεργάζεται με το Πανεπιστήμιο Tsinghua για τη μείωση της εκπαίδευσης που χρειάζονται τα μοντέλα τεχνητής νοημοσύνης της.
Η κινεζική startup, η οποία αναστάτωσε τις αγορές με το χαμηλού κόστους μοντέλο συλλογιστικής που εμφανίστηκε τον Ιανουάριο, συνεργάστηκε με ερευνητές από το ίδρυμα του Πεκίνου σε ένα έγγραφο που περιγράφει λεπτομερώς μια νέα προσέγγιση στην ενισχυτική μάθηση για να γίνουν τα μοντέλα πιο αποδοτικά.
Η νέα μέθοδος έχει ως στόχο να βοηθήσει τα μοντέλα τεχνητής νοημοσύνης να τηρούν καλύτερα τις ανθρώπινες προτιμήσεις, προσφέροντας ανταμοιβές για πιο ακριβείς και κατανοητές απαντήσεις, έγραψαν οι ερευνητές.
Καλύτερες επιδόσεις
Η στρατηγική ξεπέρασε τις υπάρχουσες μεθόδους και μοντέλα σε διάφορα benchmarks και το αποτέλεσμα έδειξε καλύτερες επιδόσεις με λιγότερους υπολογιστικούς πόρους, σύμφωνα με το έγγραφο που επικαλείται το Bloomberg.
Η DeepSeek ονομάζει αυτά τα νέα μοντέλα DeepSeek-GRM – συντομογραφία για τη «γενικευμένη μοντελοποίηση ανταμοιβής» – και θα τα κυκλοφορήσει σε βάση ανοιχτού κώδικα, δήλωσε η εταιρεία.
Η Meta Platforms Inc. με έδρα το Menlo Park της Καλιφόρνιας κυκλοφόρησε την τελευταία οικογένεια μοντέλων τεχνητής νοημοσύνης, το Llama 4, το Σαββατοκύριακο και τα χαρακτήρισε ως τα πρώτα που χρησιμοποιούν την αρχιτεκτονική Mixture of Experts (MoE).
Τα μοντέλα της DeepSeek βασίζονται σημαντικά στην MoE για την αποδοτικότερη χρήση των πόρων και η Meta έκανε συγκριτική αξιολόγηση της νέας της έκδοσης με τη νεοσύστατη εταιρεία με έδρα την Hangzhou. Η DeepSeek δεν έχει διευκρινίσει πότε μπορεί να κυκλοφορήσει το επόμενο μοντέλο-ναυαρχίδα της.
Πηγή: OT.gr