tecnologia

La sfida all’egemonia di Nvidia nei chip AI: l’importanza dell’inferenza



Indirizzo copiato

Con l’aumento della domanda di applicazioni AI avanzate, l’inferenza sta diventando un campo di battaglia chiave per i concorrenti di Nvidia. Aziende emergenti e giganti della tecnologia stanno cercando di rompere il dominio nei chip AI, concentrandosi su soluzioni più efficienti per l’inferenza rispetto all’addestramento dei modelli

Pubblicato il 11 mar 2025



Immagine in primo piano per articolo con titolo: La sfida all’egemonia di Nvidia nei chip AI: l’importanza dell’inferenza

Negli ultimi anni, il panorama dei chip per l’intelligenza artificiale ha visto un cambiamento significativo, guidato dall’aumento della domanda di inferenza, il processo in cui un modello AI risponde alle richieste degli utenti. Aziende come DeepSeek hanno accelerato questo cambiamento con modelli come R1, che richiedono più risorse computazionali durante l’inferenza rispetto all’addestramento. Questo ha spostato l’attenzione del mercato dai modelli di addestramento all’inferenza, aprendo nuove opportunità per i concorrenti di Nvidia, come Cerebras e Groq, oltre ai giganti tecnologici come Google, Amazon, Microsoft e Meta, che stanno cercando di sfidare il dominio di Nvidia nel settore.

Continua a leggere questo articolo

Articoli correlati