approfondimento

Ecco DeepSeek v3-0324, modello linguistico da 671 mld di parametri



Indirizzo copiato

Addestrato su 14,8 trilioni di token, il modello cinese si comporta ottimamente in matematica, codifica e ragionamento. Mantiene un’inferenza efficiente e supporta una finestra di contesto di 128K. Disponibile tramite API e download, stabilisce nuovi standard nell’AI

Pubblicato il 26 mar 2025



DeepSeek V3

D eepSeek v3-0324 segna un passo avanti fondamentale nel campo dei modelli linguistici basati sull’intelligenza artificiale. Questo modello avanzato vanta una mastodontica architettura Mixture-of-Experts (MoE) con un totale di 671 miliardi di parametri, di cui 37 miliardi attivati per ciascun token, garantendo prestazioni all’avanguardia pur mantenendo un’inferenza efficiente.

Continua a leggere questo articolo

Articoli correlati