Snowflake potenzia Cortex AI per rendere più efficiente e affidabile la creazione di modelli robusti, accelerando lo sviluppo no code dell’intelligenza artificiale.
Snowflake sta favorendo un facile accesso all’AI, grazie a una nuova interfaccia interattiva senza codice, alla disponibilità di modelli LLM e a ottimizzazioni serverless. La piattaforma unificata Snowflake per ML e AI generativa offre la possibilità di estrarre più valore dai dati, garantendo al contempo massime sicurezza, governance e controllo per un’AI responsabile e affidabile su scala.
Parlare con i dati attraverso un’esperienza chat del tutto nuova
Snowflake presenta due nuove funzionalità di chat, Snowflake Cortex Analyst e Snowflake Cortex Search (entrambe presto in public preview), che consentono agli utenti di sviluppare in pochi minuti chatbot su dati strutturati e non, senza complessità operative. Cortex Analyst, basato sui modelli Llama 3 e Mistral Large di Meta, permette di creare applicazioni sicure sulla base di dati analitici in Snowflake, mentre Cortex Search sfrutta, per recuperare e classificare, l’avanzata tecnologia di Neeva (acquisita da Snowflake nel maggio 2023) insieme a Snowflake Arctic embed per creare applicazioni su documenti e altri set di dati testuali attraverso la ricerca ibrida – una combinazione di vettori e testi – as-a-service.
La sicurezza dei dati è fondamentale per la creazione di applicazioni AI ed esperienze chat di qualità e la loro adozione in azienda. Per questo motivo, Snowflake presenta Snowflake Cortex Guard (disponibile a breve) che sfrutta Llama Guard di Meta, una protezione input-output basata su LLM che filtra e segnala contenuti dannosi nei dati e nelle risorse come violenza e odio, autolesionismo o attività criminali. Con Cortex Guard, Snowflake potenzia un’AI affidabile in azienda, aiutando i clienti a garantire che i modelli disponibili siano sicuri e utilizzabili.
Snowflake rafforza le esperienze AI per accelerare la produttività
Oltre a consentire il facile sviluppo di esperienze chat personalizzate, Snowflake fornisce ai clienti esperienze AI precostituite, alimentate dai propri modelli avanzati. Con Document AI (disponibile a breve), gli utenti possono facilmente estrarre contenuti dai documenti, come importi delle fatture o condizioni contrattuali, avvalendosi del LLM multimodale Snowflake Arctic-TILT, che è più efficace di GPT-4 e ha ottenuto il massimo punteggio nel DocVQA benchmark test, lo standard per la risposta visiva alle domande sui documenti.
Sbloccare lo sviluppo AI no code
Snowflake Cortex AI offre ai clienti un robusto set di modelli di fornitori come Google, Meta, Mistral AI e Reka, oltre a Snowflake Arctic, LLM open source best-in-class di Snowflake, per accelerare lo sviluppo dell’AI. L’azienda sta ulteriormente democratizzando questa tecnologia con il nuovo Snowflake AI & ML Studio (private preview), un’interfaccia interattiva senza codice che consente di iniziare lo sviluppo e rendere disponibili le proprie app AI più rapidamente. Gli utenti possono inoltre facilmente testare e valutare questi modelli per casi d’uso specifici, accelerando così il percorso verso la produzione e ottimizzando i costi operativi.
Semplificare la gestione di modelli e funzionalità
Una volta sviluppati i modelli ML e LLM, la maggior parte delle organizzazioni fatica a gestirli in produzione su set di dati in evoluzione. Snowflake ML porta le funzionalità MLOps nell’AI Data Cloud, in modo che i team possano scoprire, gestire e governare agevolmente le loro funzionalità, i modelli e i metadati nell’intero ciclo di vita del ML, dalla preelaborazione dei dati alla gestione dei modelli. Queste funzionalità MLOps centralizzate si integrano con il resto della piattaforma Snowflake, compresi Snowflake Notebooks e Snowpark ML, per una semplice esperienza end-to-end.
La suite di funzionalità MLOps di Snowflake include lo Snowflake Model Registry (ora disponibile), che consente agli utenti di governare l’accesso e l’uso di tutti i tipi di modelli di intelligenza artificiale, in modo da offrire esperienze personalizzate e automazioni che consentono di risparmiare sui costi. Inoltre, Snowflake annuncia lo Snowflake Feature Store (ora in public preview), una soluzione integrata per i data scientist e gli ingegneri ML per creare, archiviare, gestire e servire funzioni ML coerenti per l’addestramento e l’inferenza dei modelli, e ML Lineage (private preview), per tracciare l’utilizzo di funzioni, data set e modelli lungo tutto il ciclo di vita ML.