In casa Snowflake nasce Arctic. Si tratta di un large language model (LLM) all’avanguardia ed è progettato per essere il più aperto del mercato. Grazie all’esclusiva architettura Mixture-of-Experts (MoE), Arctic offre intelligenza ed efficienza senza precedenti su scala. Ottimizzato per i workload complessi, il modello ha superato diversi benchmark di settore per quanto riguarda la generazione di codice SQL, l’esecuzione di istruzioni e altro ancora. Affianca la famiglia di modelli Snowflake Arctic che comprende anche i migliori modelli pratici di text-embedding per i casi d’uso di retrieval.
Nasce Snowflake Arctic
Snowflake sta rilasciando i carichi di Arctic sotto licenza Apache 2.0 e i dettagli della ricerca che ha portato al suo addestramento. Stabilendo un nuovo standard di apertura per la tecnologia AI enterprise. Snowflake Arctic LLM fa parte della famiglia Snowflake Arctic, una famiglia di modelli costruiti da Snowflake che comprende anche i migliori modelli pratici di text-embedding per i casi d’uso di retrieval.
Innovazione AI
Sridhar Ramaswamy, CEO di Snowflake
Si tratta di un momento epocale per Snowflake in termini di innovazione AI. Fornendo la migliore intelligenza ed efficienza del settore in modo veramente aperto alla comunità AI, stiamo ridefinendo i limiti di ciò che l’intelligenza artificiale open source può fare.
Per una collaborazione veramente aperta e ampiamente disponibile
Secondo un recente report di Forrester, circa il 46% dei responsabili delle decisioni in materia di AI a livello aziendale ha dichiarato di sfruttare gli LLM open source esistenti per adottare l’AI generativa come parte della strategia della propria organizzazione. Snowflake, che costituisce la base dei dati per oltre 9.400 aziende e organizzazioni in tutto il mondo, consente a tutti gli utenti di sfruttare i propri dati con LLM aperti e innovativi. Offrendo loro flessibilità e possibilità di scelta dei modelli con cui lavorare. Snowflake offre un modello potente e veramente aperto, con una licenza Apache 2.0 che consente l’uso personale, di ricerca e commerciale senza restrizioni.
Tante opzioni
Inoltre fornisce anche modelli di codice, oltre a opzioni flessibili di inferenza e formazione. In modo che gli utenti possano iniziare rapidamente a distribuire e personalizzare Arctic utilizzando i loro framework preferiti. Questi includono NVIDIA NIM con NVIDIA TensorRT-LLM, vLLM e Hugging Face. Per l’utilizzo immediato, Arctic è disponibile per l’inferenza serverless in Snowflake Cortex. Sarà anche disponibile su Amazon Web Services (AWS), insieme ad altri modelli e cataloghi, tra cui Hugging Face, Lamini, Microsoft Azure, NVIDIA API catalog, Perplexity, Together AI ed altri.
Intelligenza di livello con la migliore efficienza delle risorse
Il team di ricerca sull’AI di Snowflake, composto da ricercatori e ingegneri di sistema, ha impiegato meno di tre mesi e ha speso circa un ottavo del costo di formazione di modelli simili per la creazione di Arctic. Snowflake sta diventando il punto di riferimento per quanto riguarda la velocità di addestramento di modelli aperti enterprise allo stato dell’arte. Consentendo, in ultima analisi, agli utenti di creare modelli personalizzati ed efficienti in termini di costi su scala.
Nasce Snowflake Arctic, un large language model all’avanguardia
Il design differenziato del MoE di Arctic migliora sia i sistemi di addestramento che le prestazioni del modello. Arctic offre anche risultati di qualità, attivando 17 dei 480 miliardi di parametri alla volta per ottenere un’efficienza di token senza precedenti. Per l’appunto, attiva circa il 50% di parametri in meno rispetto a DBRX e il 75% in meno rispetto a Llama 3 70B durante l’inferenza o l’addestramento. Inoltre, supera i principali modelli aperti nella codifica (HumanEval+, MBPP+) e nella generazione di SQL (Spider).
Accelerare l’innovazione AI per tutti gli utenti
Oltre ad Arctic LLM, la famiglia di modelli Snowflake Arctic comprende anche Arctic embed. Ossia una famiglia di modelli di text embedding all’avanguardia, disponibili per la comunità open source con licenza Apache 2.0. La famiglia di cinque modelli è disponibile su Hugging Face per l’uso immediato e sarà presto disponibile come parte della funzione Snowflake Cortex embed (in private preview). Questi modelli di embedding sono ottimizzati per fornire prestazioni di retrieval a circa un terzo delle dimensioni di modelli analoghi. Offrendo una soluzione potente ed economica quando si combinano insiemi di dati proprietari con LLM come parte di un servizio di Retrieval Augmented Generation o di ricerca semantica.
Nasce Snowflake Arctic, nuove partnership
Snowflake dà inoltre accesso ai più recenti e potenti LLM del Data Cloud, comprese le recenti aggiunte dei modelli Reka e Mistral AI. Inoltre, Snowflake ha recentemente annunciato una partnership ampliata con NVIDIA. Essa prevede l’integrazione della piattaforma accelerata full-stack di NVIDIA con il Data Cloud di Snowflake per offrire una combinazione sicura di infrastrutture e capacità di calcolo. Snowflake Ventures ha anche recentemente annunciato investimenti in Landing AI, Mistral AI, Reka e altri ne verranno. Così da proseguire l’impegno di Snowflake nell’aiutare i clienti a creare valore dai loro dati aziendali con LLM e AI.