Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Le esercitazioni di questa sezione introducono le funzionalità di base e illustrano le nozioni di base sull'uso della piattaforma Azure Databricks.
Per informazioni sulle risorse di training online, vedere Ottenere il training gratuito di Databricks.
Se non si ha un account Azure Databricks, iscriversi per ottenere una versione di valutazione gratuita.
Tutoriale | Descrizione |
---|---|
Effettuare query e visualizzare i dati | Usare un notebook di Databricks per eseguire query sui dati di esempio archiviati in Unity Catalog usando SQL, Python, Scala e R e quindi visualizzare i risultati della query nel notebook. |
Importare e visualizzare i dati CSV da un notebook | Usare un notebook di Databricks per importare dati da un file CSV contenente i dati dei nomi figlio da https://health.data.ny.gov nel volume di Unity Catalog usando Python, Scala e R. Si apprenderà anche come modificare un nome di colonna, visualizzare i dati e salvarli in una tabella. |
Creare una tabella | Creare una tabella e concedere privilegi in Databricks usando il modello di governance dei dati di Unity Catalog. |
Creare una pipeline ETL usando le pipeline dichiarative di Lakeflow | Creare e distribuire una pipeline ETL (estrazione, trasformazione e caricamento) per l'orchestrazione dei dati usando le pipeline dichiarative di Lakeflow e il caricatore automatico. |
Creare una pipeline ETL con Apache Spark | Sviluppare e distribuire la prima pipeline ETL (estrazione, trasformazione e caricamento) per l'orchestrazione dei dati con Apache Spark™. |
Eseguire il training e distribuire un modello di Machine Learning | Creare un modello di classificazione di Machine Learning usando la libreria scikit-learn in Databricks per stimare se un vino è considerato "di alta qualità". Questa esercitazione illustra anche l'uso di MLflow per tenere traccia del processo di sviluppo del modello e Hyperopt per automatizzare l'ottimizzazione degli iperparametri. |
Eseguire query su LLMs e creare prototipi di agenti di intelligenza artificiale senza codice | Usare AI Playground per eseguire query su modelli di linguaggio di grandi dimensioni e confrontare i risultati side-by-side, creare un prototipo di un agente di intelligenza artificiale chiamante da strumenti ed esportare l'agente nel codice. |
Tutoriale | Dettagli |
---|---|
Effettuare query e visualizzare i dati | Usare un notebook di Databricks per eseguire query sui dati di esempio archiviati in Unity Catalog usando SQL, Python, Scala e R e quindi visualizzare i risultati della query nel notebook. |
Importare e visualizzare i dati CSV da un notebook | Usare un notebook di Databricks per importare dati da un file CSV contenente i dati dei nomi figlio da https://health.data.ny.gov nel volume di Unity Catalog usando Python, Scala e R. Si apprenderà anche come modificare un nome di colonna, visualizzare i dati e salvarli in una tabella. |
Creare una tabella | Creare una tabella e concedere privilegi in Databricks usando il modello di governance dei dati di Unity Catalog. |
Creare una pipeline ETL usando le pipeline dichiarative di Lakeflow | Creare e distribuire una pipeline ETL (estrazione, trasformazione e caricamento) per l'orchestrazione dei dati usando le pipeline dichiarative di Lakeflow e il caricatore automatico. |
Creare una pipeline ETL con Apache Spark | Sviluppare e distribuire la prima pipeline ETL (estrazione, trasformazione e caricamento) per l'orchestrazione dei dati con Apache Spark™. |
Eseguire il training e distribuire un modello di Machine Learning | Creare un modello di classificazione di Machine Learning usando la libreria scikit-learn in Databricks per stimare se un vino è considerato "di alta qualità". Questa esercitazione illustra anche l'uso di MLflow per tenere traccia del processo di sviluppo del modello e Hyperopt per automatizzare l'ottimizzazione degli iperparametri. |
Eseguire query su LLMs e creare prototipi di agenti di intelligenza artificiale senza codice | Usare AI Playground per eseguire query su modelli di linguaggio di grandi dimensioni e confrontare i risultati side-by-side, creare un prototipo di un agente di intelligenza artificiale chiamante da strumenti ed esportare l'agente nel codice. |
Connettersi ad Azure Data Lake Storage | Connettersi da Azure Databricks ad Azure Data Lake Storage usando OAuth 2.0 con un principale del servizio Microsoft Entra ID. |
Ottenere assistenza
- In caso di domande sulla configurazione di Azure Databricks e necessiti di assistenza in tempo reale, invia un'e-mail a [email protected].
- Se l'organizzazione non ha una sottoscrizione di supporto di Azure Databricks o se non si è un contatto autorizzato per la sottoscrizione di supporto dell'azienda, è possibile ottenere risposte dalla community di Databricks.