Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Область применения: SQL Server 2019 (15.x)
Это важно
Надстройка "Кластеры больших данных Microsoft SQL Server 2019" будет прекращена. Поддержка кластеров больших данных SQL Server 2019 завершится 28 февраля 2025 г. Все существующие пользователи SQL Server 2019 с Software Assurance будут полностью поддерживаться на этой платформе, а программное обеспечение будет продолжать поддерживаться с помощью накопительных обновлений для SQL Server до этого времени. Для получения дополнительной информации см. запись блога об объявлении и параметры работы с большими данными на платформе Microsoft SQL Server.
Кластер больших данных SQL Server развертывается как контейнеры Docker в кластере Kubernetes. Ниже приведен обзор действий по установке и настройке.
- Настройка кластера Kubernetes на одной виртуальной машине, кластере виртуальных машин в Службе Azure Kubernetes (AKS), Red Hat OpenShift или в Azure Red Hat OpenShift (ARO).
- Установите средство настройки кластера Azure Data CLI (
azdata
) на клиентском компьютере. - Разверните кластер больших данных SQL Server в кластере Kubernetes.
Проверенные конфигурации
Ознакомьтесь с проверенными конфигурациями для полного списка различных платформ Kubernetes, проверенных для развертывания кластеров больших данных SQL Server.
Версии SQL Server
Издание | Примечания. |
---|---|
Предприятие Стандарт разработчик. |
Выпуск кластера больших данных определяется выпуском главного экземпляра SQL Server. По умолчанию развертывается версия Developer. После развертывания можно изменить выпуск. См. раздел "Настройка главного экземпляра SQL Server". |
Kubernetes
Настройка кластера Kubernetes
Если у вас уже есть кластер Kubernetes, соответствующий указанным выше предварительным требованиям, можно перейти непосредственно на шаг развертывания. В этом разделе предполагается базовое понимание концепций Kubernetes. Подробные сведения о Kubernetes см. в документации по Kubernetes.
Вы можете развернуть Kubernetes следующим образом:
Развертывание Kubernetes в: | Описание | Ссылка |
---|---|---|
Службы Azure Kubernetes (AKS) | Управляемая служба контейнеров Kubernetes в Azure. | Инструкции |
Один или несколько компьютеров (kubeadm ) |
Кластер Kubernetes, развернутый на физических или виртуальных машинах с помощью kubeadm |
Инструкции |
Azure Red Hat OpenShift | Управляемое предложение OpenShift, работающее в Azure. | Инструкции |
Red Hat OpenShift | Гибридная облачная платформа корпоративных приложений Kubernetes. | Инструкции |
Подсказка
Вы также можете выполнить скрипт развертывания AKS и кластера больших данных на одном шаге. Дополнительные сведения см. информацию о том, как это сделать в скрипте Python или блокноте Azure Data Studio.
Проверка конфигурации Kubernetes
kubectl
Выполните команду, чтобы просмотреть конфигурацию кластера. Убедитесь, что kubectl указывает на правильный контекст кластера.
kubectl config view
Это важно
Если вы развертываете кластер Kubernetes с несколькими узлами, который вы загрузили с помощью kubeadm
, перед началом развертывания кластера больших данных убедитесь, что часы синхронизируются во всех узлах Kubernetes, для которых развертывание предназначено. В кластере больших данных имеются встроенные свойства диагностики состояния для различных служб, которые чувствительны к временным задержкам, и расхождения времени могут привести к неверному определению состояния.
После настройки кластера Kubernetes можно продолжить развертывание нового кластера больших данных SQL Server. Если вы обновляете предыдущий выпуск, см. инструкции по обновлению кластеров больших данных SQL Server.
Убедитесь, что у вас настроено хранилище
Большинство развертываний кластера больших данных должны иметь постоянное хранилище. В настоящее время необходимо убедиться, что у вас есть план по обеспечению постоянного хранилища в кластере Kubernetes перед развертыванием.
- При развертывании в AKS настройка хранилища не требуется. AKS предоставляет встроенные классы хранилища с динамическим распределением ресурсов. Класс хранилища (
default
илиmanaged-premium
) можно настроить в файле конфигурации развертывания. Встроенные профили используютdefault
класс хранилища. - При развертывании в кластере Kubernetes, развернутом с помощью
kubeadm
, необходимо убедиться, что у вас есть достаточно хранилища для кластера требуемого вами масштаба, которое доступно и настроено для использования. Если вы хотите настроить способ использования хранилища, перед продолжением следует выполнить это. См. сведения о сохраняемости данных в кластере больших данных SQL Server в Kubernetes.
Установка средств больших данных SQL Server 2019
Перед развертыванием кластера больших данных SQL Server 2019 сначала установите средства больших данных:
- Azure Data CLI (
azdata
) kubectl
- Azure Data Studio
- Расширение Виртуализации данных для Azure Data Studio
- Azure CLI, если вы развертываете в AKS
Общие сведения о развертывании
Большинство параметров кластера больших данных определяются в файле конфигурации развертывания JSON. Вы можете использовать профиль развертывания по умолчанию для кластеров AKS и Kubernetes, созданных с помощью kubeadm
или настроить собственный файл конфигурации развертывания для использования во время установки. По соображениям безопасности параметры проверки подлинности передаются через переменные среды.
В следующих разделах содержатся дополнительные сведения о настройке развертываний кластера больших данных, а также примеров распространенных настроек. Кроме того, можно всегда редактировать файл конфигурации пользовательского развертывания с помощью редактора, например VS Code.
Конфигурации по умолчанию
Параметры развертывания кластера больших данных определяются в файлах конфигурации JSON. Вы можете начать настройку развертывания кластера из встроенных профилей развертывания, доступных в Azure Data CLI (azdata
).
Замечание
Образы контейнеров, необходимые для развертывания кластера больших данных, размещаются в реестре контейнеров Майкрософт (mcr.microsoft.com
) в репозитории mssql/bdc
. По умолчанию эти параметры уже включены в control.json
файл конфигурации в каждом из профилей развертывания, включенных в Azure Data CLI (azdata
). Кроме того, теги образа контейнера для каждого выпуска предварительно указаны в том же конфигурационном файле. Если вам нужно извлечь образы контейнеров в собственный частный реестр контейнеров и изменить параметры реестра контейнеров или репозитория, следуйте инструкциям в статье об автономной установке.
Выполните следующую команду, чтобы найти доступные шаблоны:
azdata bdc config list -o table
Следующие шаблоны доступны как SQL Server 2019 CU5:
Профиль развертывания | Среда Kubernetes |
---|---|
aks-dev-test |
Развертывание кластера больших данных SQL Server в службе Azure Kubernetes (AKS) |
aks-dev-test-ha |
Развертывание кластера больших данных SQL Server в службе Azure Kubernetes (AKS). Критически важные службы, такие как главный сервер SQL Server и узел имен HDFS, настроены для обеспечения высокой доступности. |
aro-dev-test |
Развертывание кластера больших данных SQL Server в Azure Red Hat OpenShift для разработки и тестирования. Представлено в SQL Server 2019 CU 5. |
aro-dev-test-ha |
Развертывание кластера больших данных SQL Server с высоким уровнем доступности в кластере Red Hat OpenShift для разработки и тестирования. Представлено в SQL Server 2019 CU 5. |
kubeadm-dev-test |
Развертывание кластера больших данных SQL Server в кластере Kubernetes, созданном с помощью kubeadm, с помощью одного или нескольких физических или виртуальных машин. |
kubeadm-prod |
Развертывание кластера больших данных SQL Server в кластере Kubernetes, созданном с помощью kubeadm, с помощью одного или нескольких физических или виртуальных машин. Этот шаблон позволяет службам кластера больших данных интегрироваться с Active Directory. Критически важные службы, такие как главный экземпляр SQL Server и узел имен HDFS, развертываются в высокодоступной конфигурации. |
openshift-dev-test |
Развертывание кластера больших данных SQL Server в кластере Red Hat OpenShift для разработки и тестирования. Представлено в SQL Server 2019 CU 5. |
openshift-prod |
Развертывание кластера больших данных SQL Server с высоким уровнем доступности в кластере Red Hat OpenShift. Представлено в SQL Server 2019 CU 5. |
Кластер больших данных можно развернуть, выполнив команду azdata bdc create
. При этом вам будет предложено выбрать одну из конфигураций по умолчанию, а затем провести развертывание.
При первом запуске Azure Data CLI (azdata
) необходимо включить --accept-eula=yes
для принятия лицензионного соглашения конечного пользователя (EULA).
azdata bdc create --accept-eula=yes
В этом сценарии вам будет предложено указать все параметры, которые не являются частью конфигурации по умолчанию, например пароли.
Это важно
По умолчанию используется mssql-cluster
имя кластера больших данных. Это важно знать, чтобы выполнить любую из kubectl
команд, которые указывают пространство имен Kubernetes с параметром -n
.
Пользовательские конфигурации
Кроме того, можно настроить развертывание для оптимального выполнения рабочих нагрузок, которые вы планируете запускать. Невозможно изменить масштаб (количество реплик) или параметры хранилища для служб кластера больших данных после развертывания, поэтому необходимо тщательно спланировать конфигурацию развертывания, чтобы избежать проблем с емкостью. Чтобы настроить развертывание, выполните следующие действия.
Начните с одного из стандартных профилей развертывания, соответствующих среде Kubernetes. Для их перечисления
azdata bdc config list
можно использовать команду:azdata bdc config list
Чтобы настроить развертывание, с помощью команды
azdata bdc config init
создайте копию профиля развертывания. Например, следующая команда создает копиюaks-dev-test
файлов конфигурации развертывания в целевом каталоге с именемcustom
:azdata bdc config init --source aks-dev-test --target custom
Подсказка
--target
указывает каталог, содержащий файлы конфигурацииbdc.json
иcontrol.json
, основанные на параметре--source
.Чтобы настроить параметры в профиле конфигурации развертывания, можно изменить файл конфигурации развертывания в инструменте, который подходит для редактирования JSON-файлов, таких как VS Code. Для автоматизации сценариев можно также изменить настраиваемый профиль развертывания с помощью
azdata bdc config
команды. Например, следующая команда изменяет пользовательский профиль развертывания, чтобы изменить имя развернутого кластера по умолчанию (mssql-cluster
) наtest-cluster
:azdata bdc config replace --config-file custom/bdc.json --json-values "metadata.name=test-cluster"
Подсказка
Вы также можете передать имя кластера во время развертывания с помощью параметра --name для
azdata create bdc
команды. Параметры команды имеют приоритет над значениями в файлах конфигурации.Полезным средством поиска путей JSON является средство оценки JSONPath Online.
Помимо передачи пар "ключ-значение", можно также предоставлять встроенные значения JSON или передавать файлы исправлений JSON. Дополнительные сведения см. в разделе "Настройка параметров развертывания для ресурсов и служб кластера больших данных".
Передайте пользовательский файл конфигурации в
azdata bdc create
. Обратите внимание, что необходимо задать необходимые переменные среды, в противном случае терминал запрашивает значения:azdata bdc create --config-profile custom --accept-eula yes
Предупреждение
Параметр imagePullPolicy
в файле control.json для профиля развертывания должен иметь значение "Always"
.
Дополнительные сведения о структуре файла конфигурации развертывания см. в справочнике по файлу конфигурации развертывания. Дополнительные примеры конфигурации см. в разделе "Настройка параметров развертывания для кластеров больших данных".
Переменные среды
Следующие переменные среды используются для параметров безопасности, которые не хранятся в файле конфигурации развертывания. Обратите внимание, что параметры Docker, кроме учетных данных, можно задать в файле конфигурации.
Переменная среды | Требование | Описание |
---|---|---|
AZDATA_USERNAME |
Обязательно | Имя пользователя администратора кластера больших данных SQL Server. В главном экземпляре SQL Server создается вход sysadmin с тем же именем. В качестве передовой практики безопасности учетная запись sa отключена. Начиная с SQL Server 2019 (15.x) CU 5, при развертывании нового кластера с базовой проверкой подлинности все конечные точки, включая шлюз, используют AZDATA_USERNAME и AZDATA_PASSWORD . Конечные точки в кластерах, которые обновлены до CU 5, продолжают использовать root в качестве имени пользователя для подключения к конечной точке шлюза. Это изменение не применяется к развертываниям с помощью проверки подлинности Active Directory. См. учетные данные для доступа к службам через конечную точку шлюза в заметках о выпуске. |
AZDATA_PASSWORD |
Обязательно | Пароль для учетных записей пользователей, созданных выше. В кластерах, развернутых до SQL Server 2019 CU5, для пользователя root используется тот же пароль, чтобы защитить шлюз Knox и HDFS. |
ACCEPT_EULA |
Требуется для первого использования Azure Data CLI (azdata ) |
Установите значение "да". При установке в качестве переменной среды она применяет EULA как к SQL Server, так и к Azure Data CLI (azdata ). Если переменная среды не задана, вы можете включить --accept-eula=yes в первую команду Azure Data CLI (azdata ). |
DOCKER_USERNAME |
Необязательно | Имя пользователя для доступа к образам контейнеров, если они хранятся в частном репозитории. Дополнительные сведения об использовании частного репозитория Docker для развертывания кластера больших данных см. в теме Автономные развертывания. |
DOCKER_PASSWORD |
Необязательно | Пароль для доступа к приведенному выше частному репозиторию. |
Эти переменные среды должны быть заданы перед вызовом azdata bdc create
. Если какая-либо переменная не задана, вам будет предложено ввести её значение.
В следующем примере показано, как задать переменные среды для Linux (bash) и Windows (PowerShell):
export AZDATA_USERNAME=admin
export AZDATA_PASSWORD=<password>
export ACCEPT_EULA=yes
SET AZDATA_USERNAME=admin
SET AZDATA_PASSWORD=<password>
Замечание
В кластерах, развернутых до SQL Server 2019 CU 5, необходимо использовать root
пользователя для шлюза Knox с указанным выше паролем.
root
— единственный пользователь, поддерживаемый в этой базовой проверке подлинности (имя пользователя или пароль).
Начиная с SQL Server 2019 (15.x) CU 5, при развертывании нового кластера с базовой проверкой подлинности все конечные точки, включая шлюз, используют AZDATA_USERNAME
и AZDATA_PASSWORD
. Конечные точки в кластерах, которые обновлены до CU 5, продолжают использовать root
в качестве имени пользователя для подключения к конечной точке шлюза. Это изменение не применяется к развертываниям с помощью проверки подлинности Active Directory. См. учетные данные для доступа к службам через конечную точку шлюза в заметках о выпуске.
Чтобы подключиться к SQL Server с базовой проверкой подлинности, используйте те же значения, что и переменные среды AZDATA_USERNAME и AZDATA_PASSWORD.
После задания переменных среды необходимо запустить azdata bdc create
для активации развертывания. В этом примере используется профиль конфигурации кластера, созданный выше:
azdata bdc create --config-profile custom --accept-eula yes
Обратите внимание на следующие рекомендации.
- Убедитесь, что пароль упаковывается в двойные кавычки, если он содержит специальные символы. Вы можете задать
AZDATA_PASSWORD
значение на ваш выбор, но убедитесь, что пароль достаточно сложный и не используйте символы!
,&
или'
. Обратите внимание, что двойные кавычки как разделители работают только в командах bash. - Вход
AZDATA_USERNAME
является системным администратором главного экземпляра SQL Server, который создаётся в процессе установки. После того как вы создадите контейнер SQL ServerAZDATA_PASSWORD
, указанная переменная среды станет доступной при запускеecho $AZDATA_PASSWORD
в контейнере. В целях безопасности измените пароль в качестве рекомендации.
Установка без участия пользователя
Для автоматического развертывания необходимо задать все требуемые переменные среды, использовать файл конфигурации и выполнить команду azdata bdc create
с параметром --accept-eula yes
. Примеры, приведенные в предыдущем разделе, демонстрируют синтаксис автоматической установки.
Мониторинг развертывания
Во время начальной загрузки кластера окно командной строки клиента возвращает состояние развертывания. Во время процесса развертывания вы увидите ряд сообщений, которые будут ожидать модуль контроллера.
Waiting for cluster controller to start.
Через 15-30 минут вы должны получить уведомление о том, что контроллерный pod работает.
Cluster controller endpoint is available at 11.111.111.11:30080.
Cluster control plane is ready.
Это важно
Все развертывание может занять много времени из-за времени, необходимого для скачивания образов контейнеров для компонентов кластера больших данных. Однако это не должно занять несколько часов. Если у вас возникли проблемы с развертыванием, см. статью "Мониторинг и устранение неполадок кластеров больших данных SQL Server".
После завершения развертывания выходные данные уведомляют об успешном выполнении:
Cluster deployed successfully.
Подсказка
Имя по умолчанию для развернутого кластера больших данных — это mssql-cluster
, если оно не изменено с помощью пользовательской конфигурации.
Получение конечных точек
После успешного завершения скрипта развертывания можно получить адреса внешних конечных точек для кластера больших данных, выполнив следующие действия.
После развертывания найдите IP-адрес конечной точки контроллера из стандартного вывода развертывания или проверьте вывод EXTERNAL-IP для следующей команды
kubectl
.kubectl get svc controller-svc-external -n <your-big-data-cluster-name>
Подсказка
Если имя по умолчанию не было изменено во время развертывания, используйте
-n mssql-cluster
в предыдущей команде.mssql-cluster
— это имя по умолчанию для кластера больших данных.Войдите в кластер больших данных, используя azdata login.
--endpoint
Задайте для параметра внешний IP-адрес конечной точки контроллера.azdata login --endpoint https://<ip-address-of-controller-svc-external>:30080 --username <user-name>
Укажите имя пользователя и пароль, настроенные для администратора кластера больших данных (AZDATA_USERNAME и AZDATA_PASSWORD) во время развертывания.
Подсказка
Если вы являетесь администратором кластера Kubernetes и имеете доступ к файлу конфигурации кластера (файл конфигурации kube), можно настроить текущий контекст для указания на целевой кластер Kubernetes. В этом случае можно войти, используя имя
azdata login -n <namespaceName>
, которым являетсяnamespace
для кластера больших данных. Если вы не указали в команде входа, вам будет предложено указать учетные данные.Выполните команду azdata bdc endpoint list , чтобы получить список с описанием каждой конечной точки и соответствующими значениями IP-адресов и портов.
azdata bdc endpoint list -o table
В следующем списке показаны примеры выходных данных из этой команды:
Description Endpoint Ip Name Port Protocol ------------------------------------------------------ --------------------------------------------------------- -------------- ----------------- ------ ---------- Gateway to access HDFS files, Spark https://11.111.111.111:30443 11.111.111.111 gateway 30443 https Spark Jobs Management and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/sparkhistory 11.111.111.111 spark-history 30443 https Spark Diagnostics and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/yarn 11.111.111.111 yarn-ui 30443 https Application Proxy https://11.111.111.111:30778 11.111.111.111 app-proxy 30778 https Management Proxy https://11.111.111.111:30777 11.111.111.111 mgmtproxy 30777 https Log Search Dashboard https://11.111.111.111:30777/kibana 11.111.111.111 logsui 30777 https Metrics Dashboard https://11.111.111.111:30777/grafana 11.111.111.111 metricsui 30777 https Cluster Management Service https://11.111.111.111:30080 11.111.111.111 controller 30080 https SQL Server Master Instance Front-End 11.111.111.111,31433 11.111.111.111 sql-server-master 31433 tcp HDFS File System Proxy https://11.111.111.111:30443/gateway/default/webhdfs/v1 11.111.111.111 webhdfs 30443 https Proxy for running Spark statements, jobs, applications https://11.111.111.111:30443/gateway/default/livy/v1 11.111.111.111 livy 30443 https
Вы также можете получить все конечные точки службы, развернутые для кластера, выполнив следующую kubectl
команду:
kubectl get svc -n <your-big-data-cluster-name>
Проверка состояния кластера
После развертывания можно проверить состояние кластера с помощью команды azdata bdc status show .
azdata bdc status show
Подсказка
Чтобы выполнить команды состояния, необходимо сначала войти в систему с командой azdata login
, описанной в предыдущем разделе конечных точек.
Ниже показаны примеры выходных данных из этой команды:
Bdc: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Servicename State Healthstatus Details
sql ready healthy -
hdfs ready healthy -
spark ready healthy -
control ready healthy -
gateway ready healthy -
app ready healthy -
Sql Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Hdfs Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
nmnode-0 ready healthy StatefulSet nmnode-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
sparkhead ready healthy StatefulSet sparkhead is healthy
Spark Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
sparkhead ready healthy StatefulSet sparkhead is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Control Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
Gateway Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
gateway ready healthy StatefulSet gateway is healthy
App Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
appproxy ready healthy ReplicaSet appproxy is healthy
Вы также можете получить более подробное состояние со следующими командами:
- azdata bdc control status show возвращает состояние работоспособности для всех компонентов, связанных со службой управления системой.
azdata bdc control status show
Образец вывода:
Control: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
-
azdata bdc sql status show
возвращает состояние работоспособности для всех ресурсов, имеющих службу SQL Server
azdata bdc sql status show
Образец вывода:
Sql: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Это важно
При использовании --all
параметра выходные данные этих команд содержат URL-адреса для панелей мониторинга Kibana и Grafana для более подробного анализа.
Помимо использования Azure Data CLI (azdata
), вы также можете использовать Azure Data Studio для поиска конечных точек и сведений о состоянии. Дополнительные сведения о просмотре состояния кластера с помощью Azure Data CLI (azdata
) и Azure Data Studio см. в статье "Просмотр состояния кластера больших данных".
Подключение к кластеру
Дополнительные сведения о подключении к кластеру больших данных см. в статье "Подключение к кластеру больших данных SQL Server" с помощью Azure Data Studio.
Дальнейшие шаги
Дополнительные сведения о развертывании кластера больших данных SQL Server см. в следующих ресурсах: