L’intelligenza artificiale sta cambiando bersaglio. Dopo due anni in cui l’attenzione si è concentrata soprattutto sull’addestramento dei modelli, il collo di bottiglia si sta spostando sull’inferenza: la fase in cui un modello già addestrato risponde a una richiesta, genera testo, codice, immagini o prende decisioni operative. McKinsey stima che entro il 2030 l’inferenza supererà il training e diventerà il carico dominante nei data center per l’AI, con un peso superiore alla metà del compute AI complessivo e pari a circa il 30-40% della domanda totale dei data center.
tecnologia
I nuovi chip che guideranno la stagione dell’inferenza AI
L’inferenza AI diventerà il carico dominante nei data center, spingendo l’industria verso nuove architetture hardware. Il limite della memoria (“memory wall”) ridisegna la competizione tra chip: più SRAM, percorsi dati efficienti, integrazione memoria-calcolo e ASIC specializzati. Il futuro non sarà deciso da singoli acceleratori, ma da sistemi completi e integrati
Direttore AI4business.it e Agenda Digitale

Continua a leggere questo articolo
Argomenti
Canali





