Snowflake Cortex, usare l’AI generativa per i propri dati aziendali

Le aziende potranno usare senza problemi tutta la potenza degli LLM di cui hanno bisogno.

Snowflake ai generativa

Snowflake e Mistral AI insieme per offrire avanzati modelli linguistici alle imprese tramite Snowflake Cortex e così utilizzare l’AI generativa per i propri dati aziendali. Le due socità hanno stretto una partnership mirata a portare i modelli linguistici più potenti di Mistral AI direttamente ai clienti di Snowflake nel Data Cloud. Tramite questo accordo pluriennale, Mistral AI e Snowflake forniranno le funzionalità di cui le aziende hanno bisogno per utilizzare senza problemi tutta la potenza degli LLM. Garantendo al contempo sicurezza, privacy e governance dei dati.

Utilizzare l’AI generativa

Grazie alla partnership, i clienti Snowflake hanno accesso al più recente e potente LLM di Mistral AI, Mistral Large. Il nuovo modello ha capacità di ragionamento uniche. Inoltre è abile nella codifica e nella matematica e parla correntemente cinque lingue per promuovere le specificità culturali e linguistiche della tecnologia AI generativa. Inoltre, è in grado di elaborare centinaia di pagine di documenti in un’unica istanza.

L’offerta per i clienti

In aggiunta, i clienti di Snowflake hanno accesso a Mixtral 8x7B, il modello open source di Mistral AI che supera GPT3.5 di OpenAI in velocità e qualità. Oltre a Mistral 7B, il primo modello di Mistral AI ottimizzato per una bassa latenza con ridotte necessità di memoria e un elevato throughput per le sue dimensioni. I modelli di Mistral AI sono disponibili in public preview per i clienti in quanto parte di Snowflake Cortex. Il servizio di ricerca vettoriale e LLM completamente gestito di Snowflake che consente di accelerare le analisi e creare rapidamente app di AI in modo sicuro con i dati aziendali.

Costruire app molto avanzate

Sridhar Ramaswamy, CEO di Snowflake
Grazie alla collaborazione con Mistral AI, Snowflake permette ai propri clienti di accedere direttamente a uno dei più potenti LLM presenti sul mercato. Garantendo a tutti gli utenti la possibilità di costruire app avanzate, basate sull’AI, con semplicità e su ampia scala. Con Snowflake come base affidabile per i dati, stiamo trasformando il modo in cui le aziende utilizzano la potenza degli LLM attraverso Snowflake Cortex. Così da affrontare in maniera economicamente vantaggiosa i nuovi casi d’uso dell’AI dentro ii confini di sicurezza e privacy del Data Cloud.

La sicurezza informatica a che punto è

Arthur Mensch, CEO e co-fondatore di Mistral AI
Gli impegni di Snowflake per sicurezza, privacy e governance sono in linea con l’ambizione di offrire l’AI a tutti rendendola accessibile ovunque. Mistral AI condivide i valori di Snowflake per lo sviluppo di modelli di intelligenza artificiale efficienti, utili e affidabili che fanno progredire il modo in cui le organizzazioni di tutto il mondo utilizzano la Gen AI. Rendendo i nostri modelli disponibili in Snowflake Data Cloud, siamo in grado di democratizzare ulteriormente l’intelligenza artificiale. In modo che gli utenti possano creare applicazioni AI più sofisticate che generano valore su scala globale.

Utilizzare l’AI generativa per i propri dati aziendali

In occasione dello Snowday 2023, Snowflake ha annunciato per la prima volta il supporto dei più avanzati LLM per compiti specializzati quali analisi del sentiment, traduzione e sintesi. Oltre agli LLM di base per casi d’uso come la Retrieval-Augmented Generation (RAG). Snowflake continua a puntare sulla Gen AI, collaborando con Mistral AI e facendo evolvere le suite LLM di base in Snowflake Cortex. Inoltre fornendo alle organizzazioni un percorso facile per portare soluzioni di AI generativa all’avanguardia ovunque nel proprio business.

Un’esperienza serverless

Per offrire un’esperienza serverless che renda l’intelligenza artificiale accessibile a un’ampia gamma di utenti, Snowflake Cortex elimina i tempi lunghi del procurement. Oltre alla complessa gestione dell’infrastruttura GPU. Collaborando con NVIDIA per mettere a disposizione una piattaforma di elaborazione accelerata full-stack che sfrutta NVIDIA Triton Inference Server e altri strumenti. Con Snowflake Cortex LLM Functions, gli utenti Snowflake possono sfruttare l’intelligenza artificiale tramite i propri dati aziendali per supportare un’ampia gamma di casi d’uso.

Le competenze SQL

Utilizzando funzioni specializzate, qualsiasi utente con competenze SQL può avvalersi di LLM di dimensioni contenute. Così da affrontare senza grosse spese attività specifiche come analisi del sentiment, traduzione e sintesi in pochi secondi. Per i casi d’uso più complessi, gli sviluppatori Python possono passare dall’idea alle applicazioni AI full-stack, come i chatbot, in pochi minuti, Questa esperienza semplificata vale anche per i RAG con le funzioni vettoriali e i tipi di dati vettoriali integrati.

Rinnovare la comunità tecnologica

Snowflake è impegnata a promuovere l’innovazione dell’AI non solo per i suoi clienti e per l’ecosistema del Data Cloud, ma anche per la più ampia comunità tecnologica. Infatti, ha recentemente aderito all’AI Alliance, una community internazionale di sviluppatori, ricercatori e organizzazioni dedicata alla promozione di un’intelligenza artificiale aperta, sicura e responsabile. Attraverso l’AI Alliance, Snowflake continuerà ad affrontare sia le sfide che le opportunità della Gen AI in modo completo e aperto, al fine di democratizzarne ulteriormente i vantaggi.