Condividi tramite


IA e machine learning su Databricks

Creare, distribuire e gestire applicazioni di intelligenza artificiale e machine learning con Mosaic AI, una piattaforma integrata che unifica l'intero ciclo di vita dell'intelligenza artificiale dalla preparazione dei dati al monitoraggio della produzione.

Per un set di esercitazioni introduttive, vedere Esercitazioni sull'intelligenza artificiale e machine learning.

Creare applicazioni di intelligenza artificiale generative

Sviluppare e distribuire applicazioni di intelligenza artificiale generative di livello aziendale, ad esempio llms ottimizzati, agenti di intelligenza artificiale e generazione aumentata di recupero.

Feature Description
AI Playground Creare prototipi e testare modelli di intelligenza artificiale generativi con progettazione di suggerimenti senza codice e regolazione dei parametri.
Agent Bricks Approccio semplice per creare e ottimizzare sistemi di agenti di intelligenza artificiale di alta qualità specifici del dominio per casi d'uso comuni di intelligenza artificiale.
Foundation Models Serve gli LLMS all'avanguardia, tra cui Meta Llama, Anthropic Claude e OpenAI GPT tramite API sicure e scalabili.
Mosaic AI Agent Framework Creare e distribuire agenti di qualità di produzione, tra cui applicazioni RAG e sistemi multi-agente con Python.
MLflow per GenAI Misurare, migliorare e monitorare la qualità nel ciclo di vita dell'applicazione GenAI usando metriche basate su intelligenza artificiale e osservabilità completa.
Vector Search Archiviare ed eseguire query sui vettori di incorporamento con la sincronizzazione automatica con la Knowledge Base per le applicazioni RAG.
Ottimizzazione del modello di base Personalizzare i modelli di base con i propri dati per ottimizzare le prestazioni per applicazioni specifiche.

Eseguire il training di modelli di Machine Learning classici

Creare modelli di Machine Learning con strumenti automatizzati e ambienti di sviluppo collaborativo.

Feature Description
AutoML Creare automaticamente modelli di alta qualità con codice minimo usando la progettazione automatizzata delle funzionalità e l'ottimizzazione degli iperparametri.
Databricks Runtime per ML Cluster preconfigurato con TensorFlow, PyTorch, Keras e supporto GPU per lo sviluppo di Deep Learning.
MLflow tracking Tenere traccia degli esperimenti, confrontare le prestazioni del modello e gestire il ciclo di vita completo dello sviluppo del modello.
Feature engineering Creare, gestire e gestire funzionalità con pipeline di dati automatizzate e individuazione delle funzionalità.
Databricks notebooks Ambiente di sviluppo collaborativo con supporto per python, R, Scala e SQL per i flussi di lavoro di Machine Learning.

Eseguire il training di modelli di Deep Learning

Usare framework predefiniti per sviluppare modelli di Deep Learning.

Feature Description
Distributed training Esempi di Deep Learning distribuito con Ray, TorchDistributor e DeepSpeed.
Procedure consigliate per l'apprendimento avanzato in Databricks Procedure consigliate per l'apprendimento avanzato in Databricks.
PyTorch Training a nodo singolo e distribuito tramite PyTorch.
TensorFlow Training a nodo singolo e distribuito con TensorFlow e TensorBoard.
Reference solutions Soluzioni di riferimento per l'apprendimento avanzato.

Distribuire e gestire modelli

Distribuire modelli in produzione con endpoint scalabili, inferenza in tempo reale e monitoraggio di livello aziendale.

Feature Description
Model Serving Distribuire modelli personalizzati e LLM come endpoint REST scalabili con scalabilità automatica e supporto GPU.
AI Gateway Gestire e monitorare l'accesso ai modelli di intelligenza artificiale generativi con il rilevamento dell'utilizzo, la registrazione del payload e i controlli di sicurezza.
External models Integrare modelli di terze parti ospitati all'esterno di Databricks con governance e monitoraggio unificati.
API del modello di base Accesso ed esecuzione di query su modelli aperti all'avanguardia ospitati da Databricks.

Monitorare e gestire i sistemi di Machine Learning

Garantire la qualità del modello, l'integrità dei dati e la conformità con strumenti completi di monitoraggio e governance.

Feature Description
Unity Catalog Gestire dati, funzionalità, modelli e funzioni con controllo di accesso unificato, rilevamento della derivazione e individuazione.
Lakehouse Monitoring Monitorare la qualità dei dati, le prestazioni del modello e la deviazione della stima con avvisi automatizzati e analisi della causa radice.
MLflow per i modelli Tenere traccia, valutare e monitorare le applicazioni di intelligenza artificiale generative nell'intero ciclo di sviluppo.

Industrializzare i flussi di lavoro ML

Ridimensionare le operazioni di Machine Learning con flussi di lavoro automatizzati, integrazione CI/CD e pipeline pronte per la produzione.

Feature Description
Modelli nel catalogo Unity Usare il Registro di sistema dei modelli in Unity Catalog per la governance centralizzata e per gestire il ciclo di vita del modello, incluse le distribuzioni.
Lakeflow Jobs Creare flussi di lavoro automatizzati e pipeline ETL pronte per la produzione per l'elaborazione dei dati di Machine Learning.
Ray on Databricks Scalare i carichi di lavoro di machine learning con il calcolo distribuito per la formazione e la deduzione di modelli di grandi dimensioni.
MLOps workflows Implementare MLOps end-to-end con pipeline di training, test e distribuzione automatizzate.
Git integration Codice e notebook ML per il versionamento con integrazione Git senza soluzione di continuità e sviluppo collaborativo.