Negli ultimi anni, il panorama dei chip per l’intelligenza artificiale ha visto un cambiamento significativo, guidato dall’aumento della domanda di inferenza, il processo in cui un modello AI risponde alle richieste degli utenti. Aziende come DeepSeek hanno accelerato questo cambiamento con modelli come R1, che richiedono più risorse computazionali durante l’inferenza rispetto all’addestramento. Questo ha spostato l’attenzione del mercato dai modelli di addestramento all’inferenza, aprendo nuove opportunità per i concorrenti di Nvidia, come Cerebras e Groq, oltre ai giganti tecnologici come Google, Amazon, Microsoft e Meta, che stanno cercando di sfidare il dominio di Nvidia nel settore.
tecnologia
La sfida all’egemonia di Nvidia nei chip AI: l’importanza dell’inferenza
Con l’aumento della domanda di applicazioni AI avanzate, l’inferenza sta diventando un campo di battaglia chiave per i concorrenti di Nvidia. Aziende emergenti e giganti della tecnologia stanno cercando di rompere il dominio nei chip AI, concentrandosi su soluzioni più efficienti per l’inferenza rispetto all’addestramento dei modelli

Continua a leggere questo articolo
Aziende
Argomenti
Canali