Intelligenza Artificiale: quali sono le infrastrutture che la abilitano e come generano vantaggi
21 settembre 2018
FacebookTwitterLinkedIn

Network, computing e storage: perché le infrastrutture per abilitare l’Intelligenza Artificiale devono evolvere

Supercomputer Data Center
Nicoletta Boldrini

Riuscire ad emulare il funzionamento del cervello umano oggi è ancora molto complesso, soprattutto dalla prospettiva tecnologica del calcolo computazionale: richiede molte risorse che risultano poco sostenibili sia dal punto di vista economico sia dal punto di vista energetico (ma va detto che la ricerca scientifica sta facendo passi da gigante su questo fronte con nanotecnologie sempre più miniaturizzate ma grandi capacità di calcolo). L’accelerata evoluzione dell’Intelligenza Artificiale degli ultimi 5 anni ha fatto sì che anche le infrastrutture a supporto si siano evolute, tanto da supportare oggi un ventaglio sempre più ampio di attività e processi di business.

Tanto per fare un esempio specifico, l’Intelligenza Artificiale è diventata un driver critico per le soluzioni “best-in-class” di predictive analytics e per il decision making tanto da spingere Gartner a considerare Artificial Intelligence (AI), Advanced Machine Learning e Data Science come le principali tecnologie in grado di supportare i business delle aziende dal 2017 in poi, complici anche la sempre più ampia disponibilità di dati e la maturità delle tecnologie di analisi (questo quanto emerge dal report (Gartner’s Top 10 Strategic Technology Trends for 2017).

Si tratta di sistemi che hanno bisogno, alla base, di infrastrutture potenti, affidabili, scalabili performanti, ancor di più se pensiamo alle prossime evoluzioni dell’Intelligenza Artificiale che si baseranno su processi analitici e workload molto più estesi rispetto a quelli cui ci siamo abituati a vedere fino ad oggi.

Intelligenza Artificiale: le infrastrutture abilitanti

Nel panorama tecnologico attuale, la maggior parte degli algoritmi di Artificial Intelligence ha bisogno di enormi quantità di dati e di potenza di calcolo per poter funzionare. Ecco allora che l’AI riaccende i riflettori sulle tre

componenti tecnologiche principali dell’IT:

– l’infrastruttura di rete (e la connettività);

– l’infrastruttura server (intesa in questa accezione come elevata capacità di elaborazione);

– lo storage.

Secondo quanto emerge dalla più recente analisi di McKinsey Global Institute [condotta su oltre 200 realtà aziendali in Usa ed Europa, operative in 15 settori industriali, correlando il “tradizionale” Digital Index di McKinsey – l’indice di utilizzo e sviluppo delle tecnologie digitali – con il più attuale AI index, l’indice sviluppato ad hoc dalla società di analisi e consulenza per monitorare gli investimenti e i livelli di utilizzo dell’Intelligenza Artificiale da parte delle aziende utenti – ndr], l’adozione delle tecnologie e delle soluzioni legate al mondo dell’Intelligenza Artificiale è maggiore e decisamente più frequente in tutte le realtà dove, in passato, si erano già fatti investimenti infrastrutturali, soprattutto nell’ambito delle cloud-based architecture, delle infrastrutture iperconvergenti e dei sistemi ingegnerizzati (soprattutto quelli nati e sviluppati appositamente per l’analisi in real-time dei Big Data).

Se guardiamo poi alla potenza di calcolo, i processori, le architetture e le piattaforme tradizionali richiedono ancora molto tempo (in alcuni casi si parla addirittura di settimane) per calcolare, a titolo di esempio, l’ampio ventaglio di opzioni che si prospettano nel funzionamento di una rete neurale (Deep Learning algorithm). La tecnologia tutto sommato ha però già dato alcune interessanti risposte a questa criticità: i più avanzati processori e le GPU – Graphic Processor Units stanno contribuendo a risolvere parzialmente il problema perché offrono capacità di calcolo e velocità superiori; tuttavia, per supportare soluzioni avanzate di Intelligenza Artificiale, questo non sembra essere sufficiente. Una risposta più efficace arriva, al contrario, dalle nuove piattaforme e architetture ottimizzate per l’AI disponibili in cloud (che comunque sfruttano alla base i più avanzati sistemi di calcolo computazionale disponibili oggi).

Intelligenza Artificiale: dove focalizzare l’attenzione

Per poter adottare con efficacia soluzioni di Intelligenza Artificiale è necessario prima di tutto ri-focalizzare l’attenzione sul proprio data center aziendale, in particolare serve guardare con occhio critico e “mettere mano” a: network, server e storage.

1) Infrastrutture di rete: per l’AI devono essere dinamiche e scalabili

Le infrastrutture di rete sono tra le componenti tecnologiche messe più “sotto pressione” dai processi generati dall’Intelligenza Artificiale; in particolare, il focus deve andare sulla loro scalabilità, elemento che, secondo gli analisti di Gartner, rappresenta una delle sfide principali da affrontare, insieme all’automazione.

Ad incidere in particolar modo sulla scalabilità dei sistemi, sono gli algoritmi di Machine e Deep Learning perché estremamente “communication-intensive”: in base all’evolvere dell’algoritmo e delle attività da esso svolte, aumentano la richiesta di risorse a disposizione (ecco perché è necessario prevedere una certa flessibilità delle infrastrutture, un livello avanzato di virtualizzazione e di automazione).

In particolare, disegnare e sviluppare una infrastruttura di rete ottimizzata e performante per l’Intelligenza Artificiale significa focalizzare l’attenzione su tre ambiti:

– high-bandwidth,

– minima latenza del network

– architetture di rete innovative.

Gli analisti di Gartner, in realtà, dicono che la vera svolta è data dai livelli di automazione: è di vitale importanza rendere tutta l’architettura di rete “agile” affinché le risorse possano essere allocate in modo dinamico in funzione dei workload e delle risorse di cui realmente necessitano.

2) Capacità computazione per l’AI: la risposta sta nelle GPU e nei nuovi chip neuromorfici

Tutto sommato, oggi un ambiente data center basato su CPU potrebbe anche risultare sufficientemente performante in processi di Intelligenza Artificiale poco complessi, per esempio per sostenere il Machine Learning legato al riconoscimento di pattern o per il clustering. I “guai” iniziano però quando la capacità di calcolo è chiamata a “reggere” carichi più pesanti come quelli degli algoritmi di Deep Learning per i quali l’infrastruttura deve evolvere verso le GPU.

Gli esperti di Gartner suggeriscono di ridefinire le proprie infrastrutture verso modelli ibridi ed eterogenei dove CPU e processori core si integrano con veri e propri “acceleratori” ottimizzati puntualmente per i carichi degli algoritmi di Intelligenza Artificiale (stanno per esempio prendendo piede nell’ambito delle nanotecnologie i cosiddetti chip neuromorfici che integrano capacità di calcolo e memoria per emulare il funzionamento delle attività cerebrali biologiche). L’ideale è poi che il tutto possa essere configurato in ambienti ad alta densità (senza però tralasciare l’analisi dei costi: consumo energetico ed eventuali spese per il raffreddamento dei sistemi devono far parte del business case).

«Tutti accorgimenti che i più moderni sistemi convergenti ed iperconvergenti sono in grado di indirizzare adeguatamente, anche se in questo momento ad un costo abbastanza alto. La maturità tecnologica, come sempre, consentirà comunque un abbassamento dei prezzi», sono le parole di Christian Perry, Research Manager di 451 Research.

3) Algoritmi avanzati richiedono ampi set di dati: scalabilità è il must per lor storage

«Se gli algoritmi di Machine Learning sono prevalentemente basati su processi “di regressione” (test di regressione per verificarne l’efficacia), allora potrebbero bastare set di dati limitati. Tuttavia, per reti neurali sofisticate e algoritmi avanzati si presenta un problema di scalabilità (dei dati e delle infrastrutture che li devono supportare)», è l’analisi di Chirag Dekate, Research Director di Gartner. «Le tradizionali architetture NAS – Network Attached Storage offrono risultati immediati in termini di deployment semplificato ed efficienza out-of-the-box ma problemi di scalabilità dell’I/O e di latenza si presentano comunque».

Dalla prospettiva dello storage, dunque, Deep Learning e applicazioni di AI richiedono ampi volumi di dati per “formare”, testare e validare gli algoritmi delle reti neurali, situazione che per gli amministratori dei data center può sollevare qualche criticità. Sul mercato, iniziano a fare la loro comparsa alcune interessanti startup specializzate nello sviluppo di tecnologie di “high-bandwidth parallel file systems” per aumentare la velocità di throughput (cioè la trasmissione dei dati) nonché la scalabilità dei sistemi per rendere effettivamente disponibili i dati alle applicazioni di Intelligenza Artificiale.

Quello dello storage a supporto dell’Intelligenza Artificiale è forse l’ambito più critico dove vedremo le tecnologie maturare di pari passo con l’AI stessa, un po’ come è avvenuto per le infrastrutture a sostegno dei Big Data e sta avvenendo per l’IoT.

Giornalista del mondo Tech | Ho scoperto di essere una “multipotentialite” innamorata di #Innovation #Tech #AI | Il mio motto: sempre in marcia a caccia di innovazione | Direttore di AI4Business e condirettore di Digital4Trade

FacebookTwitterLinkedIn

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


FacebookTwitterLinkedIn

Questo sito utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all’uso dei cookie. Leggi la nostra Cookie Policy per esteso

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi