LLM

Snowflake lancia Arctic, il più aperto LLM sul mercato enterprise



Indirizzo copiato

Caratterizzato da un’architettura Mixture-of-Experts (MoE), il modello è progettato per gestire carichi di lavoro complessi. Il team di ricerca ha impiegato meno di tre mesi e ha speso circa un ottavo del costo di formazione di modelli simili

Pubblicato il 29 apr 2024




Snowflake, azienda operante nel settore Data Cloud, ha presentato Arctic, definito come il Large Language Model di livello enterprise più aperto sul mercato. Grazie all’architettura Mixture-of-Experts (MoE), Arctic è progettato per gestire carichi di lavoro complessi e ha superato vari benchmark del settore in termini di generazione di codice SQL, esecuzione di istruzioni e altro ancora. Si aggiunge così alla famiglia di modelli Snowflake Arctic che include anche i migliori modelli pratici di text-embedding per i casi d’uso di retrieval.

Snowflake sta rilasciando i carichi di lavoro di Arctic sotto licenza Apache 2.0 e i dettagli della ricerca che ha portato al suo addestramento, stabilendo un nuovo standard di apertura per la tecnologia AI enterprise. Snowflake Arctic LLM è parte integrante della famiglia Snowflake Arctic, una serie di modelli sviluppati da Snowflake che comprende anche i migliori modelli pratici di text-embedding per i casi d’uso di retrieval.

“Questo rappresenta un momento storico per Snowflake in termini di innovazione AI”, afferma Sridhar Ramaswamy, CEO di Snowflake. “Fornendo la migliore intelligenza ed efficienza del settore in modo autenticamente aperto alla comunità AI, stiamo ridefinendo i limiti di ciò che l’intelligenza artificiale open source può fare”.

Arctic apre la strada a una collaborazione aperta e accessibile

Secondo un recente report di Forrester, circa il 46% dei responsabili delle decisioni in materia di AI a livello aziendale ha dichiarato di sfruttare gli LLM open source esistenti per adottare l’AI generativa come parte della strategia della propria organizzazione. Snowflake, che costituisce la base dei dati per oltre 9.400 aziende e organizzazioni in tutto il mondo, consente a tutti gli utenti di sfruttare i propri dati con LLM aperti e innovativi, offrendo loro flessibilità e possibilità di scelta dei modelli con cui lavorare. Ora, con il lancio di Arctic, Snowflake offre un modello potente e veramente aperto, con una licenza Apache 2.0 che consente l’uso personale, di ricerca e commerciale senza restrizioni. Facendo un ulteriore passo avanti, Snowflake fornisce anche modelli di codice, oltre a opzioni flessibili di inferenza e formazione, in modo che gli utenti possano iniziare rapidamente a distribuire e personalizzare Arctic utilizzando i loro framework preferiti. Questi includono Nvidia NIM con Nvidia TensorRT-LLM, vLLM e Hugging Face.

Per l’utilizzo immediato, Arctic è disponibile per l’inferenza serverless in Snowflake Cortex, il servizio completamente gestito di Snowflake che offre soluzioni di machine learning e AI nel Data Cloud. Sarà anche disponibile su Amazon Web Services (AWS), insieme ad altri modelli e cataloghi, tra cui Hugging Face, Lamini, Microsoft Azure, NVIDIA API catalog, Perplexity, Together AI ed altri.

Un modello sviluppato in meno di tre mesi

Il team di ricerca sull’AI di Snowflake, composto da ricercatori e ingegneri di sistema, ha impiegato meno di tre mesi e ha speso circa un ottavo del costo di formazione di modelli simili per la creazione di Arctic. Addestrato utilizzando istanze P5 di Amazon Elastic Compute Cloud (Amazon ED2) Snowflake sta diventando il punto di riferimento per quanto riguarda la velocità di addestramento di modelli aperti enterprise allo stato dell’arte, consentendo, in ultima analisi, agli utenti di creare modelli personalizzati ed efficienti in termini di costi su scala.

Nell’ambito di questo sforzo strategico, il design differenziato del MoE di Arctic migliora sia i sistemi di addestramento che le prestazioni del modello, con una composizione dei dati meticolosamente progettata e focalizzata sulle esigenze aziendali. Arctic offre anche risultati di qualità, attivando 17 dei 480 miliardi di parametri alla volta per ottenere un’efficienza di token senza precedenti. Per l’appunto, Arctic attiva circa il 50% di parametri in meno rispetto a DBRX e il 75% in meno rispetto a Llama 3 70B durante l’inferenza o l’addestramento. Inoltre, supera i principali modelli aperti, tra cui DBRX, Mixtral-8x7B e altri ancora, nella codifica (HumanEval+, MBPP+) e nella generazione di SQL (Spider), fornendo al contempo ottime prestazioni nella comprensione del linguaggio generale (MMLU).

Snowflake continua ad accelerare l’innovazione AI per tutti gli utenti

Snowflake continua a fornire alle aziende la base di dati e i building block avanzati di cui hanno bisogno per creare potenti app di intelligenza artificiale e machine learning con i loro dati. Accedendo a Snowflake Cortex, Arctic accelererà la capacità dei clienti di creare app AI su scala, all’interno del perimetro di sicurezza e governance del Data Cloud. Oltre ad Arctic LLM, la famiglia di modelli Snowflake Arctic comprende anche Arctic embed, recentemente annunciato, una famiglia di modelli di text embedding all’avanguardia, disponibili per la comunità open source con licenza Apache 2.0. La famiglia di cinque modelli è disponibile su Hugging Face per l’uso immediato e sarà presto disponibile come parte della funzione Snowflake Cortex embed (in private preview). Questi modelli di embedding sono ottimizzati per fornire prestazioni di retrieval a circa un terzo delle dimensioni di modelli analoghi, offrendo una soluzione potente ed economica quando si combinano insiemi di dati proprietari con LLM come parte di un servizio di Retrieval Augmented Generation o di ricerca semantica. Snowflake dà inoltre accesso ai più recenti e potenti LLM del Data Cloud, comprese le recenti aggiunte dei modelli Reka e Mistral AI.

Inoltre, Snowflake ha recentemente annunciato una partnership ampliata con Nvidia che prevede l’integrazione della piattaforma accelerata full-stack di Nvidia con il Data Cloud di Snowflake per offrire una combinazione sicura di infrastrutture e capacità di calcolo volta a sbloccare la produttività dell’AI. Snowflake Ventures ha anche recentemente annunciato investimenti in Landing AI, Mistral AI, Reka e altri ne verranno, per proseguire l’impegno di Snowflake nell’aiutare i clienti a creare valore dai loro dati aziendali con LLM e AI.

I commenti degli esperti di AI

“Snowflake Arctic è in grado di produrre risultati significativi che estendono la nostra partnership strategica, favorendo l’accesso all’intelligenza artificiale, la democratizzazione e l’innovazione per tutti”, dichiara Yoav Shoham, co-fondatore e co-CEO di AI21 Labs.

“Siamo entusiasti di vedere Snowflake aiutare le imprese a sfruttare la potenza dei modelli open source, come abbiamo fatto con il nostro recente rilascio di Jamba, il primo modello Transformer-SSM basato su Mamba di livello produttivo. Il continuo investimento di Snowflake nell’AI è un fattore importante nella nostra scelta di costruire su Data Cloud, e non vediamo l’ora di continuare a creare maggior valore per i nostri clienti comuni.”

“Snowflake e AWS sono allineati nella convinzione che l’IA generativa trasformerà praticamente tutte le esperienze dei clienti che conosciamo”, dichiara David Brown, Vice President Compute and Networking di AWS. “Con AWS, Snowflake ha potuto personalizzare la propria infrastruttura per accelerare il time-to-market della formazione di Snowflake Arctic. Utilizzando le istanze Amazon EC2 P5 con l’efficiente sistema di formazione di Snowflake e la co-progettazione dell’architettura del modello, Snowflake è stata in grado di sviluppare e fornire rapidamente ai clienti un nuovo modello di livello aziendale. E con i piani per rendere Snowflake Arctic disponibile su AWS, i clienti avranno una scelta più ampia per sfruttare la potente tecnologia AI per accelerare la loro trasformazione”.

“Mentre il ritmo dell’AI continua ad accelerare, Snowflake si è affermata come innovatore dell’AI con il lancio di Snowflake Arctic”, dichiara Shishir Mehrotra, co-fondatore e CEO di Coda. “I nostri principi di innovazione e design sono in linea con l’approccio lungimirante di Snowflake all’AI e non solo, e siamo entusiasti di essere un partner in questo viaggio di trasformazione delle app e dei flussi di lavoro quotidiani attraverso l’intelligenza artificiale”.

“Negli ultimi mesi abbiamo registrato una massiccia ondata di AI open-source”, dichiara Clement Delangue, CEO e co-fondatore di Hugging Face. “Siamo entusiasti di vedere Snowflake contribuire in modo significativo con questo rilascio non solo del modello con licenza Apache 2.0, ma anche dei dettagli su come è stato addestrato. Questo fornisce la trasparenza e il controllo necessari alle imprese per costruire l’AI e al settore nel suo complesso per aprire nuovi orizzonti.”

“La visione di Lamini è quella di democratizzare l’intelligenza artificiale, consentendo a tutti di costruire la propria super intelligenza. Crediamo che il futuro dell’AI aziendale si basi su potenti modelli aperti e su una collaborazione aperta”, dichiara Sharon Zhou, cofondatore e CEO di Lamini.

“Snowflake Arctic è importante per sostenere questo futuro dell’AI. Siamo entusiasti di mettere a punto e personalizzare Arctic per ottenere LLM altamente precisi, ottimizzando il controllo, la sicurezza e la resilienza in un ecosistema AI dinamico”.

“I contributi della comunità sono fondamentali per sbloccare l’innovazione dell’AI e creare valore per tutti”, dichiara Andrew Ng, CEO di Landing AI. “Il rilascio open source di Arctic da parte di Snowflake è un passo entusiasmante per rendere disponibili a tutti dei modelli all’avanguardia da mettere a punto, valutare e su cui innovare”.

“Siamo lieti di ampliare le opzioni di scelta dei clienti aziendali nel panorama dell’AI in rapida evoluzione portando le solide capacità del nuovo modello LLM Arctic di Snowflake nel catalogo di modelli AI di Microsoft Azure”, dichiara Eric Boyd, Corporate Vice President, Azure AI Platform, Microsoft.

“La nostra collaborazione con Snowflake è un esempio del nostro impegno a promuovere l’innovazione aperta e ed estendere i confini di ciò che l’AI può realizzare”. “Il continuo sviluppo e la sana competizione tra modelli di AI open source è fondamentale non solo per il successo di Perplexity, ma anche per il futuro della democratizzazione dell’AI generativa per tutti”, dichiara Aravind Srinivas, cofondatore e CEO di Perplexity.

“Non vediamo l’ora di sperimentare Snowflake Arctic per personalizzarlo per il nostro prodotto, generando di conseguenza un valore ancora maggiore per i nostri utenti finali”.

“Snowflake e Reka si impegnano a portare l’intelligenza artificiale nelle mani di tutti gli utenti, indipendentemente dalle loro competenze tecniche, per ottenere più rapidamente risultati di business”, dichiara Dani Yogatama, cofondatore e CEO di Reka.

“Con il lancio di Snowflake Arctic, Snowflake sta portando avanti questa visione mettendo a disposizione degli utenti modelli linguistici di classe mondiale veramente aperti”. “Come organizzazione all’avanguardia nella ricerca, nei modelli e nei set di dati open source sull’intelligenza artificiale, siamo entusiasti di assistere al lancio di Snowflake Arctic”, dichiara Vipul Ved Prakash, cofondatore e CEO di Together AI. “I progressi nel panorama dell’AI open source vanno a beneficio dell’intero ecosistema e consentono agli sviluppatori e ai ricercatori di tutto il mondo di implementare modelli di AI generativa di grande impatto”.

Articoli correlati

Articolo 1 di 4