News

Novità per il Quantum Computing, l’addestramento dell’AI generativa e la security



Indirizzo copiato

Axyon AI ha ottenuto un finanziamento per applicare il suo modello di previsioni finanziarie basato sull’AI al Quantum computing. Hewlett Packard Enterprise ha presentato una soluzione dedicata a centri di ricerca e grandi imprese per accelerare l’AI generativa. Rubrik ha rilasciato Ruby, assistente di AI generativa che accelera il rilevamento, il recupero e la resilienza informatica

Pubblicato il 15 nov 2023



nvidia H200

Axyon AI

Axyon AI, società fintech specializzata in soluzioni predittive di intelligenza artificiale e deep learning per il settore dell’asset management, ha ottenuto due finanziamenti che ne riconoscono il valore della ricerca e il continuo sviluppo della tecnologia, per un totale di 348mila euro.

Axyon AI ha ottenuto il primo finanziamento per applicare il suo modello di previsioni finanziarie basato sull’AI al Quantum computing. Si tratta di un riconoscimento importante perché ricerca e sviluppo si stanno spostando dall’evoluzione del Quantum computing alle applicazioni che possono farne uso.

Questo finanziamento è stato erogato da ELISE, rete di centri di ricerca sull’intelligenza artificiale che lavora in collaborazione con ELLIS (European Laboratory for Learning and Intelligent Systems).

L’organizzazione ha riconosciuto Axyon AI quale una delle migliori PMI europee di intelligenza artificiale per il suo progetto di machine learning (ML) quantitativo e basato sulla fisica.

La collaborazione con ELLIS consentirà ad Axyon AI di sfruttare la potenza della tecnologia del Quantum computing per migliorare ulteriormente una delle fasi cruciali della pipeline di costruzione dei suoi modelli. Grazie all’enorme potenza di calcolo del Quantum Computing, Axyon AI sarà in grado di esplorare l’universo dei modelli disponibili e, nella fase di apprendimento, di identificare quelli con le migliori prestazioni.

L’ambizioso progetto di Axyon AI, in collaborazione con l’Università di Modena e Reggio Emilia (UNIMORE), si concentrerà sull’integrazione e il potenziamento dei modelli di Machine Learning e Deep Learning per ottimizzare le strategie di investimento che Axyon AI già offre ai propri clienti.

Hewlett Packard Enterprise

Hewlett Packard Enterprise ha annunciato una soluzione di supercomputing per l’intelligenza artificiale generativa progettata per grandi imprese, istituti di ricerca e organizzazioni governative per accelerare la formazione e la messa a punto dei modelli di intelligenza artificiale (AI) utilizzando set di dati privati. Questa soluzione comprende una suite software che consente ai clienti di addestrare e mettere a punto modelli e sviluppare applicazioni AI. La soluzione include anche supercomputer raffreddati a liquido, elaborazione accelerata, reti, storage e servizi per aiutare le organizzazioni a sbloccare il valore dell’intelligenza artificiale più rapidamente.

Gli strumenti software per creare applicazioni di intelligenza artificiale, personalizzare modelli predefiniti e sviluppare e modificare codice sono componenti chiave di questa soluzione di supercalcolo per l’intelligenza artificiale generativa. Il software è integrato con la tecnologia di supercalcolo HPE Cray, basata sulla stessa potente architettura utilizzata nel supercomputer più veloce del mondo, e sfrutta i superchip NVIDIA Grace Hopper™ GH200. Così, questa soluzione offre alle organizzazioni la scalabilità e le prestazioni senza precedenti richieste per i grandi carichi di lavoro di intelligenza artificiale, come il training degli LLM (Large Language Model) e dei DLRM (Deep Learning Recommendation Model). Utilizzando HPE Machine Learning Development Environment su questo sistema, il modello open source da 70 miliardi di parametri “Llama2” è stato messo a punto in meno di 3 minuti[1] per un immediato e più veloce time to market per i clienti[2]. Le funzionalità avanzate di supercalcolo di HPE, supportate dalle tecnologie NVIDIA, migliorano le performance del sistema di circa 2-3 volte rispetto al passato

La nuova soluzione di supercalcolo per l’intelligenza artificiale generativa rappresenta un’offerta AI-native, integrata e appositamente creata che include le seguenti tecnologie e servizi in modalità “end-to-end”:

  • Software di accelerazione AI/ML – Una suite di tre strumenti software aiuterà i clienti ad addestrare e ottimizzare i modelli di intelligenza artificiale e a creare le proprie applicazioni AI.
    • HPE Machine Learning Development Environment è una piattaforma software di machine learning (ML) che consente ai clienti di sviluppare e distribuire modelli di intelligenza artificiale più rapidamente integrandosi con i framework di ML più diffusi e semplificando la preparazione dei dati.
    • NVIDIA AI Enterprise apre le porte verso un’intelligenza artificiale all’avanguardia con sicurezza, stabilità, gestibilità e supporto. Offre framework estesi, modelli preaddestrati e strumenti che semplificano lo sviluppo e l’implementazione dell’IA di produzione.
    • La suite HPE Cray Programming Environment offre ai programmatori un set completo di strumenti per lo sviluppo, il porting, il debug e il perfezionamento del codice.
  • Progettata per la scalabilità – basata su HPE Cray EX2500, un sistema di classe exascale e dotata dei superchip Grace Hopper NVIDIA GH200 leader del settore, la soluzione è scalabile fino a migliaia di unità di elaborazione grafica (GPU) con la possibilità di dedicare l’intera capacità dei nodi a supporto di un singolo carico di lavoro AI per un time-to-value più rapido. Il sistema è il primo a offrire la configurazione quad NVIDIA Grace Hopper GH200 Superchip.
  • Un network per l’AI in real time – HPE Slingshot Interconnect offre un open network ad alte prestazioni basato su Ethernet e progettato per supportare workload di classe exascale. Basato sulla tecnologia HPE Cray, questo network personalizzabile potenzia le prestazioni dell’intero sistema consentendo una velocità di networking estremamente elevata.
  • Chiavi in mano – La soluzione è completata da HPE Complete Care Services, che mette a disposizione specialisti per la configurazione, l’installazione e l’assistenza per l’intero ciclo di vita, così da semplificare l’adozione dell’AI.

La soluzione di supercalcolo per l’intelligenza artificiale generativa sarà generalmente disponibile a dicembre tramite HPE in più di 30 paesi.

Ulteriori informazioni

Note

  • Utilizzando 32 nodi HPE Cray EX 2500 con 128 GPU NVIDIA H100 al 97% di efficienza di scaling, un modello Llama 2 da 70 miliardi di parametri è stato messo a punto in test interni su un corpus di 10 milioni di token in meno di 3 minuti. Il codice di regolazione del modello e i parametri di addestramento non sono stati ottimizzati tra un’esecuzione e l’altra.
  • I benchmark standard dell’intelligenza artificiale, BERT e Mask R-CNN, sono stati eseguiti con un sistema pronto all’uso, non sintonizzato, che comprende il supercomputer HPE Cray EX2500 e un acceleratore blade HPE Cray EX254n con quattro superchip NVIDIA GH200 Grace Hopper. I test eseguiti in modo indipendente hanno mostrato un miglioramento delle prestazioni di 2-3 volte rispetto ai risultati pubblicati da MLPerf 3.0 per un sistema basato su A100 comprendente due processori AMD EPYC 7763 e quattro GPU NVIDIA A100 con interconnessioni NVLINK

Rubrik

Rubrik, la Zero Trust Data Security Company, presenta Rubrik Ruby, assistente di AI generativa per Rubrik Security Cloud progettato per accelerare il rilevamento, il ripristino e la resilienza informatica. L’azienda sfrutterà Azure OpenAI di Microsoft, in combinazione con il suo Data Threat Engine basato sul machine learning, per scoprire, investigare, rimediare e segnalare gli incidenti informatici. Ruby, nuovo AI companion di Rubrik, estende Rubrik Security Cloud tramite AI generativa e automazione. Aiuta i clienti, indipendentemente dal loro livello di competenza informatica, attraverso un processo di risposta guidato che consente loro di esplorare, comprendere e rispondere a un incidente, con l’obiettivo finale di ripristinare più rapidamente le operazioni aziendali critiche. Rubrik utilizza l’AI per operare a vantaggio dei clienti in tre modi fondamentali:

  • Rileva attività anomale nei dati delle applicazioni aziendali, cloud e SaaS, per consentire ai clienti di identificare attività dannose e determinare la portata di un cyberattacco o di un incidente tramite il Data Threat Engine di Rubrik;

  • Aumenta la soddisfazione dei clienti grazie a un team di assistenza fortemente motivato, che può essere ancor più proattivo e mirato nell’avvisare di potenziali problemi prima che questi abbiano un impatto generale sui sistemi delle aziende, grazie alla piattaforma Sentry AI sviluppata internamente da Rubrik;

  • Fornisce le migliori competenze in materia di sicurezza con un processo di risposta rapida e guidata che aiuta a gestire i flussi di lavoro più difficili e che accelera un ripristino sicuro dagli incidenti informatici grazie a Ruby.
In risposta agli alert generati da Rubrik Security Cloud, gli utenti possono interagire con Ruby, l’assistente AI dell’azienda, per porre domande di approfondimento, ad esempio sull’eventuale impatto sui dati sensibili o sulle azioni da intraprendere per ripristinare l’ambiente. Ruby fornirà indicazioni ed ulteriori domande da porre per aiutare i clienti a risolvere più rapidamente gli incidenti. Ruby sarà disponibile nei prossimi mesi per chi già dispone della Enterprise Edition e nel corso del tempo Ruby si estenderà per aiutare i clienti a riprendersi in modo ancora più rapido ed efficace dagli attacchi informatici. Per saperne di più, è possibile leggere questo blog.

Articoli correlati

Articolo 1 di 3