Поделиться через


Развертывание кластеров больших данных SQL Server в Kubernetes

Область применения: SQL Server 2019 (15.x)

Это важно

Надстройка "Кластеры больших данных Microsoft SQL Server 2019" будет прекращена. Поддержка кластеров больших данных SQL Server 2019 завершится 28 февраля 2025 г. Все существующие пользователи SQL Server 2019 с Software Assurance будут полностью поддерживаться на этой платформе, а программное обеспечение будет продолжать поддерживаться с помощью накопительных обновлений для SQL Server до этого времени. Для получения дополнительной информации см. запись блога об объявлении и параметры работы с большими данными на платформе Microsoft SQL Server.

Кластер больших данных SQL Server развертывается как контейнеры Docker в кластере Kubernetes. Ниже приведен обзор действий по установке и настройке.

  • Настройка кластера Kubernetes на одной виртуальной машине, кластере виртуальных машин в Службе Azure Kubernetes (AKS), Red Hat OpenShift или в Azure Red Hat OpenShift (ARO).
  • Установите средство настройки кластера Azure Data CLI (azdata) на клиентском компьютере.
  • Разверните кластер больших данных SQL Server в кластере Kubernetes.

Проверенные конфигурации

Ознакомьтесь с проверенными конфигурациями для полного списка различных платформ Kubernetes, проверенных для развертывания кластеров больших данных SQL Server.

Версии SQL Server

Издание Примечания.
Предприятие
Стандарт
разработчик.
Выпуск кластера больших данных определяется выпуском главного экземпляра SQL Server. По умолчанию развертывается версия Developer. После развертывания можно изменить выпуск. См. раздел "Настройка главного экземпляра SQL Server".

Kubernetes

Настройка кластера Kubernetes

Если у вас уже есть кластер Kubernetes, соответствующий указанным выше предварительным требованиям, можно перейти непосредственно на шаг развертывания. В этом разделе предполагается базовое понимание концепций Kubernetes. Подробные сведения о Kubernetes см. в документации по Kubernetes.

Вы можете развернуть Kubernetes следующим образом:

Развертывание Kubernetes в: Описание Ссылка
Службы Azure Kubernetes (AKS) Управляемая служба контейнеров Kubernetes в Azure. Инструкции
Один или несколько компьютеров (kubeadm) Кластер Kubernetes, развернутый на физических или виртуальных машинах с помощью kubeadm Инструкции
Azure Red Hat OpenShift Управляемое предложение OpenShift, работающее в Azure. Инструкции
Red Hat OpenShift Гибридная облачная платформа корпоративных приложений Kubernetes. Инструкции

Подсказка

Вы также можете выполнить скрипт развертывания AKS и кластера больших данных на одном шаге. Дополнительные сведения см. информацию о том, как это сделать в скрипте Python или блокноте Azure Data Studio.

Проверка конфигурации Kubernetes

kubectl Выполните команду, чтобы просмотреть конфигурацию кластера. Убедитесь, что kubectl указывает на правильный контекст кластера.

kubectl config view

Это важно

Если вы развертываете кластер Kubernetes с несколькими узлами, который вы загрузили с помощью kubeadm, перед началом развертывания кластера больших данных убедитесь, что часы синхронизируются во всех узлах Kubernetes, для которых развертывание предназначено. В кластере больших данных имеются встроенные свойства диагностики состояния для различных служб, которые чувствительны к временным задержкам, и расхождения времени могут привести к неверному определению состояния.

После настройки кластера Kubernetes можно продолжить развертывание нового кластера больших данных SQL Server. Если вы обновляете предыдущий выпуск, см. инструкции по обновлению кластеров больших данных SQL Server.

Убедитесь, что у вас настроено хранилище

Большинство развертываний кластера больших данных должны иметь постоянное хранилище. В настоящее время необходимо убедиться, что у вас есть план по обеспечению постоянного хранилища в кластере Kubernetes перед развертыванием.

  • При развертывании в AKS настройка хранилища не требуется. AKS предоставляет встроенные классы хранилища с динамическим распределением ресурсов. Класс хранилища (default или managed-premium) можно настроить в файле конфигурации развертывания. Встроенные профили используют default класс хранилища.
  • При развертывании в кластере Kubernetes, развернутом с помощью kubeadm, необходимо убедиться, что у вас есть достаточно хранилища для кластера требуемого вами масштаба, которое доступно и настроено для использования. Если вы хотите настроить способ использования хранилища, перед продолжением следует выполнить это. См. сведения о сохраняемости данных в кластере больших данных SQL Server в Kubernetes.

Установка средств больших данных SQL Server 2019

Перед развертыванием кластера больших данных SQL Server 2019 сначала установите средства больших данных:

Общие сведения о развертывании

Большинство параметров кластера больших данных определяются в файле конфигурации развертывания JSON. Вы можете использовать профиль развертывания по умолчанию для кластеров AKS и Kubernetes, созданных с помощью kubeadm или настроить собственный файл конфигурации развертывания для использования во время установки. По соображениям безопасности параметры проверки подлинности передаются через переменные среды.

В следующих разделах содержатся дополнительные сведения о настройке развертываний кластера больших данных, а также примеров распространенных настроек. Кроме того, можно всегда редактировать файл конфигурации пользовательского развертывания с помощью редактора, например VS Code.

Конфигурации по умолчанию

Параметры развертывания кластера больших данных определяются в файлах конфигурации JSON. Вы можете начать настройку развертывания кластера из встроенных профилей развертывания, доступных в Azure Data CLI (azdata).

Замечание

Образы контейнеров, необходимые для развертывания кластера больших данных, размещаются в реестре контейнеров Майкрософт (mcr.microsoft.com) в репозитории mssql/bdc . По умолчанию эти параметры уже включены в control.json файл конфигурации в каждом из профилей развертывания, включенных в Azure Data CLI (azdata). Кроме того, теги образа контейнера для каждого выпуска предварительно указаны в том же конфигурационном файле. Если вам нужно извлечь образы контейнеров в собственный частный реестр контейнеров и изменить параметры реестра контейнеров или репозитория, следуйте инструкциям в статье об автономной установке.

Выполните следующую команду, чтобы найти доступные шаблоны:

azdata bdc config list -o table 

Следующие шаблоны доступны как SQL Server 2019 CU5:

Профиль развертывания Среда Kubernetes
aks-dev-test Развертывание кластера больших данных SQL Server в службе Azure Kubernetes (AKS)
aks-dev-test-ha Развертывание кластера больших данных SQL Server в службе Azure Kubernetes (AKS). Критически важные службы, такие как главный сервер SQL Server и узел имен HDFS, настроены для обеспечения высокой доступности.
aro-dev-test Развертывание кластера больших данных SQL Server в Azure Red Hat OpenShift для разработки и тестирования.

Представлено в SQL Server 2019 CU 5.
aro-dev-test-ha Развертывание кластера больших данных SQL Server с высоким уровнем доступности в кластере Red Hat OpenShift для разработки и тестирования.

Представлено в SQL Server 2019 CU 5.
kubeadm-dev-test Развертывание кластера больших данных SQL Server в кластере Kubernetes, созданном с помощью kubeadm, с помощью одного или нескольких физических или виртуальных машин.
kubeadm-prod Развертывание кластера больших данных SQL Server в кластере Kubernetes, созданном с помощью kubeadm, с помощью одного или нескольких физических или виртуальных машин. Этот шаблон позволяет службам кластера больших данных интегрироваться с Active Directory. Критически важные службы, такие как главный экземпляр SQL Server и узел имен HDFS, развертываются в высокодоступной конфигурации.
openshift-dev-test Развертывание кластера больших данных SQL Server в кластере Red Hat OpenShift для разработки и тестирования.

Представлено в SQL Server 2019 CU 5.
openshift-prod Развертывание кластера больших данных SQL Server с высоким уровнем доступности в кластере Red Hat OpenShift.

Представлено в SQL Server 2019 CU 5.

Кластер больших данных можно развернуть, выполнив команду azdata bdc create. При этом вам будет предложено выбрать одну из конфигураций по умолчанию, а затем провести развертывание.

При первом запуске Azure Data CLI (azdata) необходимо включить --accept-eula=yes для принятия лицензионного соглашения конечного пользователя (EULA).

azdata bdc create --accept-eula=yes

В этом сценарии вам будет предложено указать все параметры, которые не являются частью конфигурации по умолчанию, например пароли.

Это важно

По умолчанию используется mssql-clusterимя кластера больших данных. Это важно знать, чтобы выполнить любую из kubectl команд, которые указывают пространство имен Kubernetes с параметром -n .

Пользовательские конфигурации

Кроме того, можно настроить развертывание для оптимального выполнения рабочих нагрузок, которые вы планируете запускать. Невозможно изменить масштаб (количество реплик) или параметры хранилища для служб кластера больших данных после развертывания, поэтому необходимо тщательно спланировать конфигурацию развертывания, чтобы избежать проблем с емкостью. Чтобы настроить развертывание, выполните следующие действия.

  1. Начните с одного из стандартных профилей развертывания, соответствующих среде Kubernetes. Для их перечисления azdata bdc config list можно использовать команду:

    azdata bdc config list
    
  2. Чтобы настроить развертывание, с помощью команды azdata bdc config init создайте копию профиля развертывания. Например, следующая команда создает копию aks-dev-test файлов конфигурации развертывания в целевом каталоге с именем custom:

    azdata bdc config init --source aks-dev-test --target custom
    

    Подсказка

    --target указывает каталог, содержащий файлы конфигурации bdc.json и control.json, основанные на параметре --source.

  3. Чтобы настроить параметры в профиле конфигурации развертывания, можно изменить файл конфигурации развертывания в инструменте, который подходит для редактирования JSON-файлов, таких как VS Code. Для автоматизации сценариев можно также изменить настраиваемый профиль развертывания с помощью azdata bdc config команды. Например, следующая команда изменяет пользовательский профиль развертывания, чтобы изменить имя развернутого кластера по умолчанию (mssql-cluster) на test-cluster:

    azdata bdc config replace --config-file custom/bdc.json --json-values "metadata.name=test-cluster"
    

    Подсказка

    Вы также можете передать имя кластера во время развертывания с помощью параметра --name для azdata create bdc команды. Параметры команды имеют приоритет над значениями в файлах конфигурации.

    Полезным средством поиска путей JSON является средство оценки JSONPath Online.

    Помимо передачи пар "ключ-значение", можно также предоставлять встроенные значения JSON или передавать файлы исправлений JSON. Дополнительные сведения см. в разделе "Настройка параметров развертывания для ресурсов и служб кластера больших данных".

  4. Передайте пользовательский файл конфигурации в azdata bdc create. Обратите внимание, что необходимо задать необходимые переменные среды, в противном случае терминал запрашивает значения:

    azdata bdc create --config-profile custom --accept-eula yes
    

Предупреждение

Параметр imagePullPolicy в файле control.json для профиля развертывания должен иметь значение "Always".

Дополнительные сведения о структуре файла конфигурации развертывания см. в справочнике по файлу конфигурации развертывания. Дополнительные примеры конфигурации см. в разделе "Настройка параметров развертывания для кластеров больших данных".

Переменные среды

Следующие переменные среды используются для параметров безопасности, которые не хранятся в файле конфигурации развертывания. Обратите внимание, что параметры Docker, кроме учетных данных, можно задать в файле конфигурации.

Переменная среды Требование Описание
AZDATA_USERNAME Обязательно Имя пользователя администратора кластера больших данных SQL Server. В главном экземпляре SQL Server создается вход sysadmin с тем же именем. В качестве передовой практики безопасности учетная запись sa отключена.

Начиная с SQL Server 2019 (15.x) CU 5, при развертывании нового кластера с базовой проверкой подлинности все конечные точки, включая шлюз, используют AZDATA_USERNAME и AZDATA_PASSWORD. Конечные точки в кластерах, которые обновлены до CU 5, продолжают использовать root в качестве имени пользователя для подключения к конечной точке шлюза. Это изменение не применяется к развертываниям с помощью проверки подлинности Active Directory. См. учетные данные для доступа к службам через конечную точку шлюза в заметках о выпуске.
AZDATA_PASSWORD Обязательно Пароль для учетных записей пользователей, созданных выше. В кластерах, развернутых до SQL Server 2019 CU5, для пользователя root используется тот же пароль, чтобы защитить шлюз Knox и HDFS.
ACCEPT_EULA Требуется для первого использования Azure Data CLI (azdata) Установите значение "да". При установке в качестве переменной среды она применяет EULA как к SQL Server, так и к Azure Data CLI (azdata). Если переменная среды не задана, вы можете включить --accept-eula=yes в первую команду Azure Data CLI (azdata).
DOCKER_USERNAME Необязательно Имя пользователя для доступа к образам контейнеров, если они хранятся в частном репозитории. Дополнительные сведения об использовании частного репозитория Docker для развертывания кластера больших данных см. в теме Автономные развертывания.
DOCKER_PASSWORD Необязательно Пароль для доступа к приведенному выше частному репозиторию.

Эти переменные среды должны быть заданы перед вызовом azdata bdc create. Если какая-либо переменная не задана, вам будет предложено ввести её значение.

В следующем примере показано, как задать переменные среды для Linux (bash) и Windows (PowerShell):

export AZDATA_USERNAME=admin
export AZDATA_PASSWORD=<password>
export ACCEPT_EULA=yes
SET AZDATA_USERNAME=admin
SET AZDATA_PASSWORD=<password>

Замечание

В кластерах, развернутых до SQL Server 2019 CU 5, необходимо использовать root пользователя для шлюза Knox с указанным выше паролем. root — единственный пользователь, поддерживаемый в этой базовой проверке подлинности (имя пользователя или пароль).

Начиная с SQL Server 2019 (15.x) CU 5, при развертывании нового кластера с базовой проверкой подлинности все конечные точки, включая шлюз, используют AZDATA_USERNAME и AZDATA_PASSWORD. Конечные точки в кластерах, которые обновлены до CU 5, продолжают использовать root в качестве имени пользователя для подключения к конечной точке шлюза. Это изменение не применяется к развертываниям с помощью проверки подлинности Active Directory. См. учетные данные для доступа к службам через конечную точку шлюза в заметках о выпуске.

Чтобы подключиться к SQL Server с базовой проверкой подлинности, используйте те же значения, что и переменные среды AZDATA_USERNAME и AZDATA_PASSWORD.

После задания переменных среды необходимо запустить azdata bdc create для активации развертывания. В этом примере используется профиль конфигурации кластера, созданный выше:

azdata bdc create --config-profile custom --accept-eula yes

Обратите внимание на следующие рекомендации.

  • Убедитесь, что пароль упаковывается в двойные кавычки, если он содержит специальные символы. Вы можете задать AZDATA_PASSWORD значение на ваш выбор, но убедитесь, что пароль достаточно сложный и не используйте символы !, & или '. Обратите внимание, что двойные кавычки как разделители работают только в командах bash.
  • Вход AZDATA_USERNAME является системным администратором главного экземпляра SQL Server, который создаётся в процессе установки. После того как вы создадите контейнер SQL Server AZDATA_PASSWORD, указанная переменная среды станет доступной при запуске echo $AZDATA_PASSWORD в контейнере. В целях безопасности измените пароль в качестве рекомендации.

Установка без участия пользователя

Для автоматического развертывания необходимо задать все требуемые переменные среды, использовать файл конфигурации и выполнить команду azdata bdc create с параметром --accept-eula yes. Примеры, приведенные в предыдущем разделе, демонстрируют синтаксис автоматической установки.

Мониторинг развертывания

Во время начальной загрузки кластера окно командной строки клиента возвращает состояние развертывания. Во время процесса развертывания вы увидите ряд сообщений, которые будут ожидать модуль контроллера.

Waiting for cluster controller to start.

Через 15-30 минут вы должны получить уведомление о том, что контроллерный pod работает.

Cluster controller endpoint is available at 11.111.111.11:30080.
Cluster control plane is ready.

Это важно

Все развертывание может занять много времени из-за времени, необходимого для скачивания образов контейнеров для компонентов кластера больших данных. Однако это не должно занять несколько часов. Если у вас возникли проблемы с развертыванием, см. статью "Мониторинг и устранение неполадок кластеров больших данных SQL Server".

После завершения развертывания выходные данные уведомляют об успешном выполнении:

Cluster deployed successfully.

Подсказка

Имя по умолчанию для развернутого кластера больших данных — это mssql-cluster, если оно не изменено с помощью пользовательской конфигурации.

Получение конечных точек

После успешного завершения скрипта развертывания можно получить адреса внешних конечных точек для кластера больших данных, выполнив следующие действия.

  1. После развертывания найдите IP-адрес конечной точки контроллера из стандартного вывода развертывания или проверьте вывод EXTERNAL-IP для следующей команды kubectl.

    kubectl get svc controller-svc-external -n <your-big-data-cluster-name>
    

    Подсказка

    Если имя по умолчанию не было изменено во время развертывания, используйте -n mssql-cluster в предыдущей команде. mssql-cluster — это имя по умолчанию для кластера больших данных.

  2. Войдите в кластер больших данных, используя azdata login. --endpoint Задайте для параметра внешний IP-адрес конечной точки контроллера.

    azdata login --endpoint https://<ip-address-of-controller-svc-external>:30080 --username <user-name>
    

    Укажите имя пользователя и пароль, настроенные для администратора кластера больших данных (AZDATA_USERNAME и AZDATA_PASSWORD) во время развертывания.

    Подсказка

    Если вы являетесь администратором кластера Kubernetes и имеете доступ к файлу конфигурации кластера (файл конфигурации kube), можно настроить текущий контекст для указания на целевой кластер Kubernetes. В этом случае можно войти, используя имя azdata login -n <namespaceName>, которым является namespace для кластера больших данных. Если вы не указали в команде входа, вам будет предложено указать учетные данные.

  3. Выполните команду azdata bdc endpoint list , чтобы получить список с описанием каждой конечной точки и соответствующими значениями IP-адресов и портов.

    azdata bdc endpoint list -o table
    

    В следующем списке показаны примеры выходных данных из этой команды:

    Description                                             Endpoint                                                   Ip              Name               Port    Protocol
    ------------------------------------------------------  ---------------------------------------------------------  --------------  -----------------  ------  ----------
    Gateway to access HDFS files, Spark                     https://11.111.111.111:30443                               11.111.111.111  gateway            30443   https
    Spark Jobs Management and Monitoring Dashboard          https://11.111.111.111:30443/gateway/default/sparkhistory  11.111.111.111  spark-history      30443   https
    Spark Diagnostics and Monitoring Dashboard              https://11.111.111.111:30443/gateway/default/yarn          11.111.111.111  yarn-ui            30443   https
    Application Proxy                                       https://11.111.111.111:30778                               11.111.111.111  app-proxy          30778   https
    Management Proxy                                        https://11.111.111.111:30777                               11.111.111.111  mgmtproxy          30777   https
    Log Search Dashboard                                    https://11.111.111.111:30777/kibana                        11.111.111.111  logsui             30777   https
    Metrics Dashboard                                       https://11.111.111.111:30777/grafana                       11.111.111.111  metricsui          30777   https
    Cluster Management Service                              https://11.111.111.111:30080                               11.111.111.111  controller         30080   https
    SQL Server Master Instance Front-End                    11.111.111.111,31433                                       11.111.111.111  sql-server-master  31433   tcp
    HDFS File System Proxy                                  https://11.111.111.111:30443/gateway/default/webhdfs/v1    11.111.111.111  webhdfs            30443   https
    Proxy for running Spark statements, jobs, applications  https://11.111.111.111:30443/gateway/default/livy/v1       11.111.111.111  livy               30443   https
    

Вы также можете получить все конечные точки службы, развернутые для кластера, выполнив следующую kubectl команду:

kubectl get svc -n <your-big-data-cluster-name>

Проверка состояния кластера

После развертывания можно проверить состояние кластера с помощью команды azdata bdc status show .

azdata bdc status show

Подсказка

Чтобы выполнить команды состояния, необходимо сначала войти в систему с командой azdata login, описанной в предыдущем разделе конечных точек.

Ниже показаны примеры выходных данных из этой команды:

Bdc: ready                                                                                                                                                                                                          Health Status:  healthy
 ===========================================================================================================================================================================================================================================
 Services: ready                                                                                                                                                                                                     Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Servicename    State    Healthstatus    Details

 sql            ready    healthy         -
 hdfs           ready    healthy         -
 spark          ready    healthy         -
 control        ready    healthy         -
 gateway        ready    healthy         -
 app            ready    healthy         -


 Sql Services: ready                                                                                                                                                                                                 Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 master          ready    healthy         StatefulSet master is healthy
 compute-0       ready    healthy         StatefulSet compute-0 is healthy
 data-0          ready    healthy         StatefulSet data-0 is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy


 Hdfs Services: ready                                                                                                                                                                                                Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 nmnode-0        ready    healthy         StatefulSet nmnode-0 is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy
 sparkhead       ready    healthy         StatefulSet sparkhead is healthy


 Spark Services: ready                                                                                                                                                                                               Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 sparkhead       ready    healthy         StatefulSet sparkhead is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy


 Control Services: ready                                                                                                                                                                                             Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 controldb       ready    healthy         -
 control         ready    healthy         -
 metricsdc       ready    healthy         DaemonSet metricsdc is healthy
 metricsui       ready    healthy         ReplicaSet metricsui is healthy
 metricsdb       ready    healthy         StatefulSet metricsdb is healthy
 logsui          ready    healthy         ReplicaSet logsui is healthy
 logsdb          ready    healthy         StatefulSet logsdb is healthy
 mgmtproxy       ready    healthy         ReplicaSet mgmtproxy is healthy


 Gateway Services: ready                                                                                                                                                                                             Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 gateway         ready    healthy         StatefulSet gateway is healthy


 App Services: ready                                                                                                                                                                                                 Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 appproxy        ready    healthy         ReplicaSet appproxy is healthy

Вы также можете получить более подробное состояние со следующими командами:

  • azdata bdc control status show возвращает состояние работоспособности для всех компонентов, связанных со службой управления системой.
azdata bdc control status show

Образец вывода:

Control: ready                                                                                                                                                                                                      Health Status:  healthy
 ===========================================================================================================================================================================================================================================
 Resources: ready                                                                                                                                                                                                    Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 controldb       ready    healthy         -
 control         ready    healthy         -
 metricsdc       ready    healthy         DaemonSet metricsdc is healthy
 metricsui       ready    healthy         ReplicaSet metricsui is healthy
 metricsdb       ready    healthy         StatefulSet metricsdb is healthy
 logsui          ready    healthy         ReplicaSet logsui is healthy
 logsdb          ready    healthy         StatefulSet logsdb is healthy
 mgmtproxy       ready    healthy         ReplicaSet mgmtproxy is healthy
  • azdata bdc sql status show возвращает состояние работоспособности для всех ресурсов, имеющих службу SQL Server
azdata bdc sql status show

Образец вывода:

Sql: ready                                                                                                                                                                                                          Health Status:  healthy
 ===========================================================================================================================================================================================================================================
 Resources: ready                                                                                                                                                                                                    Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 master          ready    healthy         StatefulSet master is healthy
 compute-0       ready    healthy         StatefulSet compute-0 is healthy
 data-0          ready    healthy         StatefulSet data-0 is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy

Это важно

При использовании --all параметра выходные данные этих команд содержат URL-адреса для панелей мониторинга Kibana и Grafana для более подробного анализа.

Помимо использования Azure Data CLI (azdata), вы также можете использовать Azure Data Studio для поиска конечных точек и сведений о состоянии. Дополнительные сведения о просмотре состояния кластера с помощью Azure Data CLI (azdata) и Azure Data Studio см. в статье "Просмотр состояния кластера больших данных".

Подключение к кластеру

Дополнительные сведения о подключении к кластеру больших данных см. в статье "Подключение к кластеру больших данных SQL Server" с помощью Azure Data Studio.

Дальнейшие шаги

Дополнительные сведения о развертывании кластера больших данных SQL Server см. в следующих ресурсах: