News

IBM presenta il suo primo chip per il deep learning

Il SoC AI può eseguire e addestrare i modelli di intelligenza artificiale più velocemente della CPU generale [...]
Pierluigi Sandonnini

giornalista

IBM chip
  1. Home
  2. News
  3. IBM presenta il suo primo chip per il deep learning

IBM ha presentato un nuovo chip AI che può eseguire e addestrare modelli di deep learning più velocemente di una CPU generica. Il prototipo di chip, IBM Research Artificial Intelligence Unit o AIU, è il primo system-on-chip (SOC) completo appositamente costruito per il deep learning dall’azienda.

È un semiconduttore progettato da ASIC che può essere programmato per eseguire qualsiasi tipo di attività di deep learning, inclusa l’elaborazione del linguaggio parlato o di parole e immagini su uno schermo.

“Il cavallo di battaglia del computing tradizionale, i chip standard noti come CPU o unità di elaborazione centrale, sono stati progettati prima della rivoluzione nel deep learning, una forma di apprendimento automatico che fa previsioni basate su modelli statistici in set di big data”, si legge in un post sul blog IBM.

“La flessibilità e l’elevata precisione delle CPU sono adatte per applicazioni software generiche. Ma queste qualità vincenti li mettono in una posizione di svantaggio quando si tratta di addestrare ed eseguire modelli di deep learning che richiedono operazioni di intelligenza artificiale massicciamente parallele”.

Progettato come una scheda grafica

Il prototipo di AIU presenta 32 core di elaborazione e 23 miliardi di transistor, circa lo stesso del suo chip z16 per l’elaborazione delle transazioni basata sull’intelligenza artificiale. IBM AIU è inoltre progettato per essere semplice come una scheda grafica, in grado di essere collegato a qualsiasi computer o server con uno slot PCIe.

WHITEPAPER
Contact Center, AI e Real Time Analytics: stai adottando l’innovazione in modo corretto?
Big Data
CRM

Il chip utilizza la tecnica di calcolo approssimativo di IBM per ridurre la quantità di crunching necessaria per addestrare ed eseguire un modello AI, senza sacrificare la precisione. AIU utilizza formati di bit più piccoli per eseguire un modello AI a una velocità che richiede molta meno memoria.

L’AIU IBM è stato anche progettato per inviare dati direttamente da un motore di elaborazione all’altro, cosa che secondo l’azienda può creare “enormi risparmi energetici”.

IBM ha lanciato il suo AI Hardware Center nel 2019. L’obiettivo dell’azienda è quello di addestrare ed eseguire modelli di intelligenza artificiale mille volte più velocemente entro il 2029.

La società promette di condividere presto la data di rilascio del chip AIU.

 

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn