tecnologia

I nuovi chip che guideranno la stagione dell’inferenza AI



Indirizzo copiato

L’inferenza AI diventerà il carico dominante nei data center, spingendo l’industria verso nuove architetture hardware. Il limite della memoria (“memory wall”) ridisegna la competizione tra chip: più SRAM, percorsi dati efficienti, integrazione memoria-calcolo e ASIC specializzati. Il futuro non sarà deciso da singoli acceleratori, ma da sistemi completi e integrati

Pubblicato il 26 mar 2026

Alessandro Longo

Direttore AI4business.it e Agenda Digitale



inferenza AI chip
Fonte: Cerebras

L’intelligenza artificiale sta cambiando bersaglio. Dopo due anni in cui l’attenzione si è concentrata soprattutto sull’addestramento dei modelli, il collo di bottiglia si sta spostando sull’inferenza: la fase in cui un modello già addestrato risponde a una richiesta, genera testo, codice, immagini o prende decisioni operative. McKinsey stima che entro il 2030 l’inferenza supererà il training e diventerà il carico dominante nei data center per l’AI, con un peso superiore alla metà del compute AI complessivo e pari a circa il 30-40% della domanda totale dei data center.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x