Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica a:SQL Server 2019 (15.x)
Important
I cluster Big Data di Microsoft SQL Server 2019 sono stati ritirati. Il supporto per i cluster Big Data di SQL Server 2019 è terminato a partire dal 28 febbraio 2025. Per altre informazioni, vedere il post di blog sull'annuncio e le opzioni per Big Data nella piattaforma Microsoft SQL Server.
Il cluster Big Data di SQL Server viene distribuito come contenitori Docker in un cluster Kubernetes. Questa è una panoramica dei passaggi di installazione e configurazione:
- Configurare un cluster Kubernetes in una singola macchina virtuale, un cluster di macchine virtuali, nel servizio Azure Kubernetes, in Red Hat OpenShift o in Azure Red Hat OpenShift (ARO).
- Installare lo strumento di configurazione del cluster dell'interfaccia a riga di comando di Azure Data (
azdata) sulla macchina client. - Distribuire un cluster Big Data di SQL Server in un cluster Kubernetes.
Tested configurations
Vedere Configurazioni testate per un elenco completo delle varie piattaforme Kubernetes convalidate per la distribuzione di cluster Big Data di SQL Server.
Edizioni di SQL Server
| Edition | Notes |
|---|---|
| Enterprise Standard Developer |
L'edizione cluster Big Data è determinata dall'edizione dell'istanza master di SQL Server. Quando avviene la distribuzione, Developer Edition viene distribuito per impostazione predefinita. È possibile modificare l'edizione dopo la distribuzione. Vedere Configurare l'istanza master di SQL Server. |
Kubernetes
Configurazione del cluster Kubernetes
Se si dispone già di un cluster Kubernetes che soddisfa i prerequisiti precedenti, è possibile passare direttamente al passaggio di distribuzione. Questa sezione presuppone una conoscenza di base dei concetti di Kubernetes. Per informazioni dettagliate su Kubernetes, vedere la documentazione di Kubernetes.
È possibile scegliere di distribuire Kubernetes nei modi seguenti:
| Distribuire Kubernetes in: | Description | Link |
|---|---|---|
| Servizio Azure Kubernetes | Un servizio contenitore Kubernetes gestito in Azure. | Instructions |
Computer singoli o multipli (kubeadm) |
Un cluster Kubernetes distribuito in macchine virtuali o fisiche usando kubeadm |
Instructions |
| Azure Red Hat OpenShift | Offerta gestita di OpenShift in esecuzione in Azure. | Instructions |
| Red Hat OpenShift | Una piattaforma di applicazioni Kubernetes cloud ibrida. | Instructions |
Tip
È anche possibile creare script per la distribuzione del servizio Azure Kubernetes e di un cluster Big Data in un unico passaggio. Per altre informazioni, vedere come eseguire questa operazione in uno script Python o in un notebook di Azure Data Studio.
Verificare la configurazione di Kubernetes
Eseguire il kubectl comando per visualizzare la configurazione del cluster. Assicurarsi che kubectl punti al contesto corretto del cluster.
kubectl config view
Important
Se si esegue la distribuzione in un cluster Kubernetes a più nodi di cui è stato eseguito il bootstrap tramite kubeadm, prima di avviare la distribuzione del cluster Big Data, assicurarsi che gli orologi vengano sincronizzati in tutti i nodi Kubernetes destinati alla distribuzione. Il cluster Big Data ha proprietà di integrità predefinite per vari servizi che fanno distinzione tra l'ora e l'asimmetria dell'orologio può comportare uno stato non corretto.
Dopo aver configurato il cluster Kubernetes, è possibile procedere con la distribuzione di un nuovo cluster Big Data di SQL Server. Se si esegue l'aggiornamento da una versione precedente, vedere Come aggiornare i cluster Big Data di SQL Server.
Assicurarsi di aver configurato l'archiviazione
La maggior parte delle distribuzioni di cluster Big Data deve avere un'archiviazione permanente. A questo punto, è necessario assicurarsi di avere un piano per il modo in cui si fornirà l'archiviazione permanente nel cluster Kubernetes prima della distribuzione.
- Se si esegue la distribuzione nel servizio Azure Kubernetes, non è necessaria alcuna configurazione di archiviazione. Azure Kubernetes Service fornisce classi di archiviazione predefinite con provisioning dinamico. È possibile personalizzare la classe di archiviazione (
defaultomanaged-premium) nel file di configurazione della distribuzione. I profili predefiniti usano unadefaultclasse di archiviazione. - Se si esegue la distribuzione in un cluster Kubernetes distribuito con
kubeadm, è necessario assicurarsi di disporre di spazio di archiviazione sufficiente per un cluster della scalabilità desiderata disponibile e configurato per l'uso. Se si vuole personalizzare la modalità di utilizzo dello spazio di archiviazione, è necessario eseguire questa operazione prima di procedere. Vedere Persistenza dei dati con cluster Big Data di SQL Server in Kubernetes.
Installare gli strumenti Big Data di SQL Server 2019
Prima di distribuire un cluster Big Data di SQL Server 2019, installare gli strumenti Big Data:
- CLI di Azure per i Dati (
azdata) kubectl- Azure Data Studio
- Estensione di virtualizzazione dei dati per Azure Data Studio
- Azure CLI, se si esegue la distribuzione in AKS
Deployment overview
La maggior parte delle impostazioni del cluster Big Data è definita in un file di configurazione della distribuzione JSON. È possibile usare un profilo di distribuzione predefinito per il servizio Azure Kubernetes e i cluster Kubernetes creati con kubeadm oppure è possibile personalizzare il proprio file di configurazione della distribuzione da usare durante l'installazione. Per motivi di sicurezza, le impostazioni di autenticazione vengono passate tramite variabili di ambiente.
Le sezioni seguenti forniscono altri dettagli su come configurare le distribuzioni di cluster Big Data, nonché esempi di personalizzazioni comuni. Inoltre, è sempre possibile modificare il file di configurazione della distribuzione personalizzata usando un editor come VS Code, ad esempio.
Default configurations
Le opzioni di distribuzione del cluster Big Data sono definite nei file di configurazione JSON. È possibile avviare la personalizzazione della distribuzione del cluster dai profili di distribuzione predefiniti disponibili nell'interfaccia della riga di comando dei dati di Azure (azdata).
Note
Le immagini del contenitore necessarie per la distribuzione del cluster Big Data sono ospitate in Registro Contenitori Microsoft (mcr.microsoft.com) nel mssql/bdc repository. Per impostazione predefinita, queste impostazioni sono già incluse nel control.json file di configurazione in ognuno dei profili di distribuzione inclusi nell'interfaccia della riga di comando dei dati di Azure (azdata). Inoltre, il tag dell'immagine del contenitore per ogni versione viene prepopolato nello stesso file di configurazione. Se è necessario eseguire il pull delle immagini del contenitore nel registro contenitori privato e modificare le impostazioni del registro contenitori o del repository, seguire le istruzioni riportate nell'articolo Sull'installazione offline
Eseguire questo comando per trovare i modelli disponibili:
azdata bdc config list -o table
I modelli seguenti sono disponibili a partire da SQL Server 2019 CU5:
| Deployment profile | Kubernetes environment |
|---|---|
aks-dev-test |
Distribuire un cluster Big Data di SQL Server nel servizio Azure Kubernetes |
aks-dev-test-ha |
Distribuire un cluster Big Data di SQL Server nel servizio Azure Kubernetes. I servizi cruciali, ad esempio il nodo master di SQL Server e il nodo dei nomi HDFS, sono configurati per la disponibilità elevata. |
aro-dev-test |
Distribuire un cluster Big Data di SQL Server in Azure Red Hat OpenShift per lo sviluppo e il test. Introdotto in SQL Server 2019 CU 5. |
aro-dev-test-ha |
Distribuire un cluster Big Data di SQL Server con disponibilità elevata in un cluster Red Hat OpenShift per lo sviluppo e il test. Introdotto in SQL Server 2019 CU 5. |
kubeadm-dev-test |
Distribuire un cluster Big Data di SQL Server in un cluster Kubernetes creato con kubeadm usando una singola o più macchine virtuali o fisiche. |
kubeadm-prod |
Distribuire un cluster Big Data di SQL Server in un cluster Kubernetes creato con kubeadm usando una singola o più macchine virtuali o fisiche. Usare questo modello per abilitare l'integrazione dei servizi cluster Big Data con Active Directory. I servizi cruciali come l'istanza master di SQL Server e il nodo del nome HDFS vengono distribuiti in una configurazione a disponibilità elevata. |
openshift-dev-test |
Distribuire un cluster Big Data di SQL Server in un cluster Red Hat OpenShift per lo sviluppo e il test. Introdotto in SQL Server 2019 CU 5. |
openshift-prod |
Distribuire un cluster Big Data di SQL Server con disponibilità elevata in un cluster Red Hat OpenShift. Introdotto in SQL Server 2019 CU 5. |
È possibile distribuire un cluster Big Data eseguendo azdata bdc create. In questo modo viene richiesto di scegliere una delle configurazioni predefinite e quindi di eseguire la distribuzione.
La prima volta che si esegue l'interfaccia della riga di comando dei dati di Azure (azdata) è necessario includere --accept-eula=yes per accettare il contratto di licenza con l'utente finale.
azdata bdc create --accept-eula=yes
In questo scenario vengono richieste le impostazioni che non fanno parte della configurazione predefinita, ad esempio le password.
Important
Il nome predefinito del cluster Big Data è mssql-cluster. Questo aspetto è importante per eseguire uno dei kubectl comandi che specificano lo spazio dei nomi Kubernetes con il -n parametro .
Custom configurations
È anche possibile personalizzare la distribuzione in base ai carichi di lavoro che si prevede di eseguire. Non è possibile modificare la scalabilità (numero di repliche) o le impostazioni di archiviazione per i servizi cluster Big Data dopo le distribuzioni, pertanto è necessario pianificare attentamente la configurazione della distribuzione per evitare problemi di capacità. Per personalizzare la distribuzione, seguire questa procedura:
Iniziare con uno dei profili di distribuzione standard che corrispondono all'ambiente Kubernetes. È possibile usare il
azdata bdc config listcomando per elencarli:azdata bdc config listPer personalizzare la distribuzione, creare una copia del profilo di distribuzione con il
azdata bdc config initcomando . Ad esempio, il comando seguente crea una copia dei file di configurazione dellaaks-dev-testdistribuzione in una directory di destinazione denominatacustom:azdata bdc config init --source aks-dev-test --target customTip
--targetspecifica una directory che contiene i filebdc.jsondi configurazione econtrol.json, in base al--sourceparametro .Per personalizzare le impostazioni nel profilo di configurazione della distribuzione, è possibile modificare il file di configurazione della distribuzione in uno strumento adatto per la modifica di file JSON, ad esempio VS Code. Per l'automazione con script, è anche possibile modificare il profilo di distribuzione personalizzato usando
azdata bdc configil comando . Ad esempio, il comando seguente modifica un profilo di distribuzione personalizzato per modificare il nome del cluster distribuito da predefinito (mssql-cluster) atest-cluster:azdata bdc config replace --config-file custom/bdc.json --json-values "metadata.name=test-cluster"Tip
È anche possibile passare il nome del cluster in fase di distribuzione usando il parametro --name per
azdata create bdccomando. I parametri nel comando hanno la precedenza sui valori nei file di configurazione.Uno strumento utile per trovare percorsi JSON è l'analizzatore JSONPath Online.
Oltre a passare coppie chiave-valore, è anche possibile fornire valori JSON inline o passare file patch JSON. Per altre informazioni, vedere Configurare le impostazioni di distribuzione per le risorse e i servizi del cluster Big Data.
Passare il file di configurazione personalizzato a
azdata bdc create. Si noti che è necessario impostare le variabili di ambiente necessarie; in caso contrario, il terminale richiede i valori:azdata bdc create --config-profile custom --accept-eula yes
Warning
Il parametro imagePullPolicy deve essere impostato come "Always" nel file control.json del profilo di distribuzione.
Per ulteriori informazioni sulla struttura di un file di configurazione della distribuzione, consultare il riferimento al file di configurazione della distribuzione. Per altri esempi di configurazione, vedere Configurare le impostazioni di distribuzione per i cluster Big Data.
Environment variables
Le variabili di ambiente seguenti vengono usate per le impostazioni di sicurezza non archiviate in un file di configurazione della distribuzione. Si noti che le impostazioni di Docker, ad eccezione delle credenziali, possono essere impostate nel file di configurazione.
| Environment variable | Requirement | Description |
|---|---|---|
AZDATA_USERNAME |
Required | Nome utente per l'amministratore del cluster Big Data di SQL Server. Un account di accesso sysadmin con lo stesso nome viene creato nell'istanza master di SQL Server. Come procedura consigliata per la sicurezza, sa l'account è disabilitato. A partire da SQL Server 2019 (15.x) CU 5, quando si distribuisce un nuovo cluster con autenticazione di base, tutti gli endpoint, incluso il gateway, usano AZDATA_USERNAME e AZDATA_PASSWORD. Gli endpoint nei cluster aggiornati a CU 5 continuano a usare root come nome utente per connettersi all'endpoint del gateway. Questa modifica non si applica alle distribuzioni che usano l'autenticazione di Active Directory. Consulta Credenziali per l'accesso ai servizi tramite l'endpoint del gateway nelle note di rilascio. |
AZDATA_PASSWORD |
Required | Password per gli account utente creati in precedenza. Nei cluster distribuiti prima di SQL Server 2019 CU5, la stessa password viene usata per l'utente root per proteggere il gateway Knox e HDFS. |
ACCEPT_EULA |
Obbligatorio al primo utilizzo della CLI dei dati di Azure (azdata) |
Imposta su "sì". Quando impostato come variabile di ambiente, applica il contratto di licenza sia a SQL Server che all'interfaccia della riga di comando dei dati di Azure (azdata). Se non è impostata come variabile di ambiente, è possibile includere --accept-eula=yes nel primo uso del comando dell'interfaccia della riga di comando dati di Azure (azdata). |
DOCKER_USERNAME |
Optional | Nome utente per accedere alle immagini del contenitore nel caso in cui siano archiviate in un repository privato. Per altre informazioni su come usare un repository Docker privato per la distribuzione di cluster Big Data, vedere l'argomento Distribuzioni offline . |
DOCKER_PASSWORD |
Optional | La password per accedere al repository privato sopra. |
Queste variabili di ambiente devono essere impostate prima di chiamare azdata bdc create. Se una variabile non è impostata, viene richiesto di specificarla.
L'esempio seguente illustra come impostare le variabili di ambiente per Linux (bash) e Windows (PowerShell):
export AZDATA_USERNAME=admin
export AZDATA_PASSWORD=<password>
export ACCEPT_EULA=yes
SET AZDATA_USERNAME=admin
SET AZDATA_PASSWORD=<password>
Note
Nei cluster distribuiti prima di SQL Server 2019 CU 5 è necessario usare l'utente root per il gateway Knox con la password precedente.
root è l'unico utente supportato per in questa autenticazione di base (nome utente/password).
A partire da SQL Server 2019 (15.x) CU 5, quando si distribuisce un nuovo cluster con autenticazione di base, tutti gli endpoint, incluso il gateway, usano AZDATA_USERNAME e AZDATA_PASSWORD. Gli endpoint nei cluster aggiornati a CU 5 continuano a usare root come nome utente per connettersi all'endpoint del gateway. Questa modifica non si applica alle distribuzioni che usano l'autenticazione di Active Directory. Consulta Credenziali per l'accesso ai servizi tramite l'endpoint del gateway nelle note di rilascio.
Per connettersi a SQL Server con l'autenticazione di base, usare gli stessi valori delle variabili di ambiente AZDATA_USERNAME e AZDATA_PASSWORD.
Dopo aver impostato le variabili di ambiente, è necessario eseguire azdata bdc create per attivare la distribuzione. Questo esempio usa il profilo di configurazione del cluster creato in precedenza:
azdata bdc create --config-profile custom --accept-eula yes
Tenere presente le linee guida seguenti:
- Assicurarsi di eseguire il wrapping della password tra virgolette doppie se contiene caratteri speciali. È possibile impostare il
AZDATA_PASSWORDsu qualsiasi cosa desideriate, ma assicuratevi che la password sia sufficientemente complessa e non usate i caratteri!,&o'. Si noti che le virgolette doppie funzionano solo nei comandi bash. - L'utente di accesso
AZDATA_USERNAMEè un amministratore di sistema nell'istanza master di SQL Server che viene creata durante l'installazione. Dopo aver creato il contenitore di SQL Server, laAZDATA_PASSWORDvariabile di ambiente specificata è individuabile eseguendoecho $AZDATA_PASSWORDnel contenitore. Per motivi di sicurezza, modificare la password come procedura consigliata.
Unattended install
Per una distribuzione non presidiata, è necessario impostare tutte le variabili di ambiente necessarie, utilizzare un file di configurazione e chiamare il comando azdata bdc create con il parametro --accept-eula yes. Gli esempi nella sezione precedente illustrano la sintassi per un'installazione automatica.
Monitorare la distribuzione
Durante il bootstrap del cluster, la finestra di comando client restituisce lo stato della distribuzione. Durante il processo di distribuzione, verrà visualizzata una serie di messaggi in cui è in attesa del pod del controller:
Waiting for cluster controller to start.
In 15-30 minuti, si dovrebbe ricevere una notifica che indica che il pod del controller è in esecuzione:
Cluster controller endpoint is available at 11.111.111.11:30080.
Cluster control plane is ready.
Important
L'intera distribuzione può richiedere molto tempo a causa del tempo necessario per scaricare le immagini del contenitore per i componenti del cluster Big Data. Tuttavia, non dovrebbe richiedere diverse ore. Se si verificano problemi con la distribuzione, vedere Monitoraggio e risoluzione dei problemi dei cluster Big Data di SQL Server.
Al termine della distribuzione, viene visualizzato un messaggio di conferma del successo:
Cluster deployed successfully.
Tip
Il nome predefinito per il cluster big data distribuito è mssql-cluster a meno che non sia modificato da una configurazione personalizzata.
Retrieve endpoints
Al termine dello script di distribuzione, è possibile ottenere gli indirizzi degli endpoint esterni per il cluster Big Data seguendo questa procedura.
Dopo la distribuzione, trovare l'indirizzo IP dell'endpoint controller dall'output standard di distribuzione o esaminando l'output EXTERNAL-IP del comando seguente
kubectl:kubectl get svc controller-svc-external -n <your-big-data-cluster-name>Tip
Se non è stato modificato il nome predefinito durante la distribuzione, usare
-n mssql-clusternel comando precedente.mssql-clusterè il nome predefinito per il cluster Big Data.Accedere al cluster Big Data con azdata login. Impostare il
--endpointparametro sull'indirizzo IP esterno dell'endpoint controller.azdata login --endpoint https://<ip-address-of-controller-svc-external>:30080 --username <user-name>Specificare il nome utente e la password configurati per l'amministratore del cluster Big Data (AZDATA_USERNAME e AZDATA_PASSWORD) durante la distribuzione.
Tip
Se si è l'amministratore del cluster Kubernetes e si ha accesso al file di configurazione del cluster (file di configurazione kube), è possibile configurare il contesto corrente in modo che punti al cluster Kubernetes di destinazione. In questo caso, è possibile accedere con
azdata login -n <namespaceName>, dovenamespaceè il nome del cluster Big Data. Se non specificato all'interno del comando di accesso, verrà richiesto di immettere le credenziali.Eseguire azdata bdc endpoint list per ottenere un elenco con una descrizione di ogni endpoint e i relativi valori di porta e indirizzo IP corrispondenti.
azdata bdc endpoint list -o tableL'elenco seguente mostra l'output di esempio di questo comando:
Description Endpoint Ip Name Port Protocol ------------------------------------------------------ --------------------------------------------------------- -------------- ----------------- ------ ---------- Gateway to access HDFS files, Spark https://11.111.111.111:30443 11.111.111.111 gateway 30443 https Spark Jobs Management and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/sparkhistory 11.111.111.111 spark-history 30443 https Spark Diagnostics and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/yarn 11.111.111.111 yarn-ui 30443 https Application Proxy https://11.111.111.111:30778 11.111.111.111 app-proxy 30778 https Management Proxy https://11.111.111.111:30777 11.111.111.111 mgmtproxy 30777 https Log Search Dashboard https://11.111.111.111:30777/kibana 11.111.111.111 logsui 30777 https Metrics Dashboard https://11.111.111.111:30777/grafana 11.111.111.111 metricsui 30777 https Cluster Management Service https://11.111.111.111:30080 11.111.111.111 controller 30080 https SQL Server Master Instance Front-End 11.111.111.111,31433 11.111.111.111 sql-server-master 31433 tcp HDFS File System Proxy https://11.111.111.111:30443/gateway/default/webhdfs/v1 11.111.111.111 webhdfs 30443 https Proxy for running Spark statements, jobs, applications https://11.111.111.111:30443/gateway/default/livy/v1 11.111.111.111 livy 30443 https
È anche possibile ottenere tutti gli endpoint di servizio distribuiti per il cluster eseguendo il comando seguente kubectl :
kubectl get svc -n <your-big-data-cluster-name>
Verificare lo stato del cluster
Dopo la distribuzione, è possibile controllare lo stato del cluster con il comando azdata bdc status show .
azdata bdc status show
Tip
Per eseguire i comandi di stato, è prima necessario accedere con il azdata login comando , illustrato nella sezione endpoint precedenti.
Di seguito è riportato l'output di esempio di questo comando:
Bdc: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Servicename State Healthstatus Details
sql ready healthy -
hdfs ready healthy -
spark ready healthy -
control ready healthy -
gateway ready healthy -
app ready healthy -
Sql Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Hdfs Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
nmnode-0 ready healthy StatefulSet nmnode-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
sparkhead ready healthy StatefulSet sparkhead is healthy
Spark Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
sparkhead ready healthy StatefulSet sparkhead is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Control Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
Gateway Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
gateway ready healthy StatefulSet gateway is healthy
App Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
appproxy ready healthy ReplicaSet appproxy is healthy
È anche possibile ottenere uno stato più dettagliato con i comandi seguenti:
- azdata bdc control status show restituisce lo stato di integrità per tutti i componenti associati al servizio di gestione dei controlli
azdata bdc control status show
Sample output:
Control: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
-
azdata bdc sql status showrestituisce lo stato di integrità per tutte le risorse con un servizio SQL Server
azdata bdc sql status show
Sample output:
Sql: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Important
Quando si utilizza il parametro --all, l'output di questi comandi contiene URL ai dashboard di Kibana e Grafana per un'analisi più dettagliata.
Oltre a usare l'interfaccia della riga di comando dei dati di Azure (azdata), è anche possibile usare Azure Data Studio per trovare sia gli endpoint che le informazioni sullo stato. Per altre informazioni sulla visualizzazione dello stato del cluster con l'interfaccia della riga di comando di Azure Data (azdata) e Azure Data Studio, vedere Come visualizzare lo stato di un cluster Big Data.
Connettersi al cluster
Per altre informazioni su come connettersi al cluster Big Data, vedere Connettersi a un cluster Big Data di SQL Server con Azure Data Studio.
Next steps
Per altre informazioni sulla distribuzione del cluster Big Data di SQL Server, vedere le risorse seguenti: