tecnologia

Meta: la nuova Llama API è 18 volte più veloce dei concorrenti



Indirizzo copiato

Grazie a una partnership strategica con Cerebras Systems che segna l’ingresso ufficiale di Meta nel mercato dei servizi di inferenza AI. L’annuncio è stato dato nel corso della conferenza inaugurale LlamaCon. Secondo benchmark indipendenti, il sistema Cerebras è in grado di elaborare 2.648 token al secondo per il modello Llama 4 Scout, superando ampiamente i concorrenti

Pubblicato il 30 apr 2025



Llama Api Meta

Durante la conferenza inaugurale LlamaCon tenutasi a Menlo Park il 29 aprile, Meta ha annunciato una partnership con Cerebras Systems per il lancio della nuova Llama API. L’obiettivo è chiaro: competere ad armi pari con giganti come OpenAI, Anthropic e Google nel mercato dell’inferenza, un segmento in rapida espansione dove gli sviluppatori acquistano miliardi di token per alimentare le proprie applicazioni AI. La mossa rappresenta la trasformazione dei modelli Llama da risorsa open source – con oltre un miliardo di download – a servizio commerciale scalabile.

Continua a leggere questo articolo

Articoli correlati