Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
ОБЛАСТЬ ПРИМЕНЕНИЯ: Фабрика данных Azure
Azure Synapse Analytics
Tip
Попробуйте использовать фабрику данных в Microsoft Fabric, решение для аналитики с одним интерфейсом для предприятий. Microsoft Fabric охватывает все, от перемещения данных до обработки и анализа данных в режиме реального времени, бизнес-аналитики и отчетности. Узнайте, как бесплатно запустить новую пробную версию !
Внимание
Поддержка Azure Machine Learning Studio (классическое) завершится 31 августа 2024 года. Мы рекомендуем перейти на Машинное обучение Azure по этой дате.
As of December 1, 2021, you can't create new Machine Learning Studio (classic) resources (workspace and web service plan). До 31 августа 2024 года вы можете продолжать использовать существующие эксперименты и веб-службы в Machine Learning Studio (classic). Дополнительные сведения см. в разделе:
- Миграция с Machine Learning Studio (классическая версия) на Azure Machine Learning
- Что такое Машинное обучение Azure?
Machine Learning Studio (classic) documentation is being retired and might not be updated in the future.
В этой статье описываются различные среды вычислений, которые можно использовать для обработки и преобразования данных. Здесь содержатся также сведения о различных конфигурациях (конфигурациях по запросу и ваших собственных), которые поддерживаются при настройке связанных служб, связывающих эти вычислительные среды.
Следующая таблица содержит список поддерживаемых вычислительных сред и доступных в них действий.
Вычислительная среда HDInsight
В таблице ниже приведены сведения о поддерживаемых типах связанных служб хранилища для конфигурации в среде по запросу и BYOC (использование собственной вычислительной среды).
In Compute Linked Service | Property Name | Описание | Blob | ADLS 2-го поколения | Azure SQL DB | ADLS 1-го поколения |
---|---|---|---|---|---|---|
По требованию | ИмяСвязаннойСлужбы | Связанная служба хранилища Azure, которую кластер по запросу должен использовать для хранения и обработки данных. | Да | Да | Нет | Нет |
дополнительныеСвязанныеИменаСервисов | Указывает дополнительные учетные записи хранения для связанной службы HDInsight, чтобы служба могла регистрировать их от вашего имени. | Да | Нет | Нет | Нет | |
hcatalogLinkedServiceName | Имя связанной службы SQL Azure, указывающее на базу данных HCatalog. При создании кластера HDInsight по запросу используется база данных SQL Azure в качестве хранилища метаданных. | Нет | Нет | Да | Нет | |
BYOC | ИмяСвязаннойСлужбы | Ссылка на связанную службу Azure Storage. | Да | Да | Нет | Нет |
дополнительныеСвязанныеИменаСервисов | Указывает дополнительные учетные записи хранения для связанной службы HDInsight, чтобы служба могла регистрировать их от вашего имени. | Нет | Нет | Нет | Нет | |
hcatalogLinkedServiceName | Ссылка на связанную службу Azure SQL, указывающая на базу данных HCatalog. | Нет | Нет | Нет | Нет |
Azure HDInsight on-demand linked service
В конфигурации такого типа вычислительная среда полностью управляется службой. Автоматически создается службой перед отправкой задания на обработку данных и удаляется после его завершения. Вы можете создать связанную службу для среды вычислений по запросу, настроить ее и управлять детализированными параметрами выполнения задания, управления кластером и параметрами действий начальной загрузки.
Примечание.
Конфигурации по запросу в настоящее время поддерживаются только для кластеров Azure HDInsight. Azure Databricks также поддерживает задания по запросу с помощью кластеров заданий. Дополнительные сведения см. в разделе о связанной службе Azure Databricks.
Для обработки данных служба автоматически создает кластер HDInsight по запросу. Кластер создается в том же регионе, что и учетная запись хранения (свойство linkedServiceName в JSON), связанная с кластером.
must
должна быть стандартной универсальной учетной записью хранения Azure.
Note the following important points about on-demand HDInsight linked service:
- Кластер HDInsight по запросу создается в вашей подписке Azure. Сразу после запуска кластер отобразится на портале Azure.
- Журналы заданий, которые выполняются в кластере HDInsight по запросу, копируются в учетную запись хранения, связанную с кластером HDInsight. ClusterUserName, clusterPassword, clusterSshUserName, clusterSshPassword, заданные в определении связанной службы, используются для входа в кластер, чтобы выполнить глубокую диагностику в течение жизненного цикла кластера.
- Вы оплачиваете только время, когда кластер HDInsight работает и выполняет задания.
- You can use a Script Action with the Azure HDInsight on-demand linked service.
Внимание
Подготовка к работе кластера HDInsight Azure по запросу обычно занимает от 20 минут.
Пример
Представленный ниже код JSON определяет связанную службу HDInsight по запросу под управлением Linux. Служба автоматически создает кластер HDInsight на основе Linux для обработки необходимых действий.
{
"name": "HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterType": "hadoop",
"clusterSize": 1,
"timeToLive": "00:15:00",
"hostSubscriptionId": "<subscription ID>",
"servicePrincipalId": "<service principal ID>",
"servicePrincipalKey": {
"value": "<service principal key>",
"type": "SecureString"
},
"tenant": "<tenant id>",
"clusterResourceGroup": "<resource group name>",
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Внимание
Кластер HDInsight создает контейнер по умолчанию в хранилище BLOB-объектов, указанном в коде JSON (linkedServiceName). При удалении кластера HDInsight этот контейнер не удаляется. Такое поведение предусмотрено программой. Если используется связанная служба HDInsight по запросу, кластер HDInsight создается всякий раз, когда нужно обработать срез данных (если не используется динамический кластерtimeToLive), после чего кластер удаляется.
As more activity runs, you see many containers in your Azure blob storage. Если их не требуется для устранения неполадок заданий, может потребоваться удалить их, чтобы сократить затраты на хранение. Имена этих контейнеров указаны по шаблону adf**yourfactoryorworkspacename**-**linkedservicename**-datetimestamp
. Для удаления контейнеров в хранилище BLOB-объектов Azure используйте такие инструменты, как Обозреватель службы хранилища Microsoft Azure.
Свойства
Недвижимость | Описание | Обязательное поле |
---|---|---|
тип | Свойству type необходимо присвоить значение HDInsightOnDemand. | Да |
clusterSize | Общее количество рабочих узлов и узлов данных в кластере. Кластер HDInsight создается с двумя головными узлами и количеством рабочих узлов, которое вы указываете в параметре свойства. Узлы имеют размер Standard_D3 с 4 ядрами, то есть кластер с 4 рабочими узлами использует 24 ядра (4*4 = 16 для рабочих узлов + 2*4 = 8 для головных узлов). Дополнительные сведения см. в статье Установка кластеров в HDInsight с использованием Hadoop, Spark, Kafka и других технологий. | Да |
ИмяСвязаннойСлужбы | Связанная служба хранилища Azure, которую кластер по запросу должен использовать для хранения и обработки данных. Кластер HDInsight создается в том же регионе, что и учетная запись хранения Azure. Azure HDInsight имеет ограничение на общее количество ядер, которые можно использовать в каждом поддерживаемом регионе Azure. Убедитесь, что у вас есть достаточное количество квот ядер в необходимом регионе Azure в соответствии с необходимым размером кластера. Дополнительные сведения см. в статье Установка кластеров в HDInsight с использованием Hadoop, Spark, Kafka и других технологий. В настоящее время недоступно создание кластера HDInsight по запросу, который использует в качестве хранилища Azure Data Lake Storage поколения 2. Чтобы сохранить данные результатов обработки HDInsight в Azure Data Lake Storage поколения 2, воспользуйтесь действием копирования и скопируйте данные из хранилища BLOB-объектов Azure в Azure Data Lake Storage поколения 2. |
Да |
clusterResourceGroup | В этой группе ресурсов создается кластер HDInsight. | Да |
timeToLive | Допустимое время простоя кластера HDInsight, создаваемого по запросу. Указывает, как долго кластер HDInsight по запросу остается активным после выполнения действия, если в кластере нет других активных заданий. Минимальное допустимое значение — 5 минут (00:05:00). Например, если выполнение действия занимает 6 минут, а значение свойства timetolive равно 5 минутам, кластер остается активным в течение 5 минут по истечении 6-минутного выполнения действия. Если в течение этих 6 минут выполняется другое действие, оно обрабатывается в том же кластере. Создание кластера HDInsight по запросу является ресурсоемкой операцией и может занять некоторое время. При необходимости используйте этот параметр для повышения производительности службы путем повторного использования кластера HDInsight по запросу. Если значение timetolive равно 0, кластер удаляется сразу после выполнения действия. Whereas, if you set a high value, the cluster can stay idle for you to log on for some troubleshooting purpose but it could result in high costs. Поэтому необходимо установить соответствующее значение в соответствии со своими потребностями. Если значение свойства timetolive указано правильно, несколько конвейеров могут использовать один и тот же экземпляр кластера HDInsight по запросу. |
Да |
тип кластера | Тип создаваемого кластера HDInsight. Допустимые значения: Hadoop и Spark. Если не указано другое, по умолчанию используется значение Hadoop. Создать кластер с корпоративным пакетом безопасности по запросу невозможно, вместо этого используйте существующий кластер или свои вычислительные мощности. | Нет |
version | Version of the HDInsight cluster. Если не указано другое, используется текущая заданная версия HDInsight по умолчанию. | Нет |
hostSubscriptionId | Идентификатор подписки Azure, используемый для создания кластера HDInsight. Если не указано другое, будет использоваться идентификатор подписки вашего контекста входа в Azure. | Нет |
clusterNamePrefix | The prefix of HDI cluster name, a timestamp automatically appends at the end of the cluster name | Нет |
sparkVersion | The version of spark if the cluster type is "Spark" | Нет |
дополнительныеСвязанныеИменаСервисов | Указывает дополнительные учетные записи хранения для связанной службы HDInsight, чтобы служба могла регистрировать их от вашего имени. Эти учетные записи хранения должны находиться в том же регионе, что и кластер HDInsight, который создается в одном регионе с учетной записью хранения, указанной параметром linkedServiceName. | Нет |
Тип ОС | Тип операционной системы. Допустимые значения: Linux и Windows (только для HDInsight 3.3). Значение по умолчанию — Linux. | Нет |
hcatalogLinkedServiceName | Имя связанной службы SQL Azure, указывающее на базу данных HCatalog. При создании кластера HDInsight по запросу используется база данных SQL Azure в качестве хранилища метаданных. | Нет |
connectVia | The Integration Runtime to be used to dispatch the activities to this HDInsight linked service. For on-demand HDInsight linked service, it only supports Azure Integration Runtime. Если не указано другое, по умолчанию используется интегрированная среда выполнения Azure. | Нет |
clusterUserName | Имя пользователя для доступа к кластеру. | Нет |
clusterPassword | Пароль в строке защищенного типа для доступа к кластеру. | Нет |
clusterSshUserName | Имя пользователя для удалённого подключения по SSH к узлу кластера (для Linux). | Нет |
clusterSshPassword | Пароль в формате защищённой строки для удалённого подключения по протоколу SSH к узлу кластера (Linux). | Нет |
scriptActions | Во время создания кластера по запросу укажите скрипт для настроек кластера HDInsight. Сейчас средство разработки пользовательского интерфейса поддерживает указание только 1 действия скрипта, но вы можете обойти это ограничение в JSON (укажите несколько действий скрипта в формате JSON). |
Нет |
Внимание
HDInsight поддерживает несколько версий кластера Hadoop, которые могут быть развернуты. Каждая из версий создает конкретную версию платформы HortonWorks Data Platform (HDP) и набор компонентов, содержащихся в этой версии. Список поддерживаемых версий HDInsight продолжает обновляться, чтобы предоставлять новейшие компоненты и исправления для экосистемы Hadoop. Ознакомьтесь с актуальной информацией о поддерживаемой версии HDInsight и типе ОС, чтобы убедиться, что используется поддерживаемая версия HDInsight.
Внимание
Currently, HDInsight linked services does not support HBase, Interactive Query (Hive LLAP), Storm.
- additionalLinkedServiceNames JSON example
"additionalLinkedServiceNames": [{
"referenceName": "MyStorageLinkedService2",
"type": "LinkedServiceReference"
}]
Service principal authentication
The On-Demand HDInsight linked service requires a service principal authentication to create HDInsight clusters on your behalf. To use service principal authentication, register an application entity in Microsoft Entra ID and grant it the Contributor role of the subscription or the resource group in which the HDInsight cluster is created. For detailed steps, see Use portal to create a Microsoft Entra application and service principal that can access resources. Запишите следующие значения, которые используются для определения связанной службы:
- Идентификатор приложения
- ключ приложения.
- Идентификатор клиента
Use service principal authentication by specifying the following properties:
Недвижимость | Описание | Обязательное поле |
---|---|---|
servicePrincipalId | Укажите идентификатора клиента приложения. | Да |
servicePrincipalKey | Укажите ключ приложения. | Да |
арендатор | Укажите сведения о клиенте (доменное имя или идентификатор клиента), в котором находится приложение. Эти сведения можно получить, наведя указатель мыши на правый верхний угол страницы портала Azure. | Да |
Дополнительные свойства
Для детализированной настройки кластера HDInsight по запросу можно также указать следующие свойства.
Недвижимость | Описание | Обязательное поле |
---|---|---|
конфигурация ядра | Задает параметры конфигурации ядра (как в файле core-site.xml) для создаваемого кластера HDInsight. | Нет |
hBaseConfiguration | Задает основные параметры конфигурации HBase (hbase-site.xml) для кластера HDInsight. | Нет |
конфигурация HDFS | Задает основные параметры конфигурации HDFS (hdfs-site.xml) для кластера HDInsight. | Нет |
hiveConfiguration | Задает основные параметры конфигурации Hive (hive-site.xml) для кластера HDInsight. | Нет |
настройка MapReduce | Задает параметры конфигурации MapReduce (mapred-site.xml) для кластера HDInsight. | Нет |
oozieConfiguration | Задает параметры конфигурации Oozie (oozie-site.xml) для кластера HDInsight. | Нет |
stormConfiguration | Задает параметры конфигурации Storm (storm-site.xml) для кластера HDInsight. | Нет |
yarnConfiguration | Задает параметры конфигурации Yarn (yarn-site.xml) для кластера HDInsight. | Нет |
- Пример. Конфигурация кластера HDInsight по запросу с расширенными свойствами
{
"name": " HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterSize": 16,
"timeToLive": "01:30:00",
"hostSubscriptionId": "<subscription ID>",
"servicePrincipalId": "<service principal ID>",
"servicePrincipalKey": {
"value": "<service principal key>",
"type": "SecureString"
},
"tenant": "<tenant id>",
"clusterResourceGroup": "<resource group name>",
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
},
"coreConfiguration": {
"templeton.mapper.memory.mb": "5000"
},
"hiveConfiguration": {
"templeton.mapper.memory.mb": "5000"
},
"mapReduceConfiguration": {
"mapreduce.reduce.java.opts": "-Xmx4000m",
"mapreduce.map.java.opts": "-Xmx4000m",
"mapreduce.map.memory.mb": "5000",
"mapreduce.reduce.memory.mb": "5000",
"mapreduce.job.reduce.slowstart.completedmaps": "0.8"
},
"yarnConfiguration": {
"yarn.app.mapreduce.am.resource.mb": "5000",
"mapreduce.map.memory.mb": "5000"
},
"additionalLinkedServiceNames": [{
"referenceName": "MyStorageLinkedService2",
"type": "LinkedServiceReference"
}]
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
Размеры узлов
You can specify the sizes of head, data, and zookeeper nodes using the following properties:
Недвижимость | Описание | Обязательное поле |
---|---|---|
headNodeSize | Specifies the size of the head node. Значение по умолчанию: Standard_D3. Дополнительные сведения см. в разделе Указание размеров узлов. | Нет |
размер узла данных | Задает размер узла данных. Значение по умолчанию: Standard_D3. | Нет |
zookeeperNodeSize | Specifies the size of the Zoo Keeper node. Значение по умолчанию: Standard_D3. | Нет |
- Указывает размер узлов. Сведения о строковых значениях, необходимых для задания указанных выше свойств, см. в статье Размеры виртуальных машин в Azure. The values need to conform to the CMDLETs & APIS referenced in the article. Как видно из статьи, узел данных большого размера (по умолчанию) имеет 7 ГБ памяти, что может быть недостаточно для вашего сценария.
Если вы хотите создать головные узлы и рабочие узлы размера D4, укажите Standard_D4 в качестве значения для свойств headNodeSize и dataNodeSize.
"headNodeSize": "Standard_D4",
"dataNodeSize": "Standard_D4",
Если указать неправильное значение для этих свойств, может появиться следующая ошибка: не удалось создать кластер. Исключение: не удается завершить операцию создания кластера. Операция завершилась ошибкой с кодом 400. Cluster left behind state: 'Error'. Message: 'PreClusterCreationValidationFailure'. При появлении этой ошибки убедитесь, что вы используете название
Bring your own compute environment
В конфигурации такого типа вы можете зарегистрировать уже существующую вычислительную среду как связанную службу. Пользователь управляет вычислительной средой, а служба использует ее для выполнения действий.
Такая конфигурация поддерживается в следующих средах вычислений:
- Azure HDInsight
- Azure Batch
- Машинное обучение Azure
- Azure Data Lake Analytics
- Azure SQL DB, Azure Synapse Analytics, SQL Server
Связанная служба Azure HDInsight
Чтобы зарегистрировать собственный кластер HDInsight в фабрике данных или рабочей области Synapse, вы можете создать связанную службу Azure HDInsight.
Пример
{
"name": "HDInsightLinkedService",
"properties": {
"type": "HDInsight",
"typeProperties": {
"clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
"userName": "username",
"password": {
"value": "passwordvalue",
"type": "SecureString"
},
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Свойства
Недвижимость | Описание | Обязательное поле |
---|---|---|
тип | Свойству type необходимо присвоить значение HDInsight. | Да |
clusterUri | URI кластера HDInsight. | Да |
имя пользователя | Укажите имя пользователя, которое будет использоваться для подключения к существующему кластеру HDInsight. | Да |
пароль | Укажите пароль для учетной записи пользователя. | Да |
ИмяСвязаннойСлужбы | Name of the Azure Storage linked service that refers to the Azure blob storage used by the HDInsight cluster. В настоящее время для этого свойства невозможно указать связанную службу Azure Data Lake Storage поколения 2. Если кластер HDInsight имеет доступ к Data Lake Store, вы можете получить доступ к данным в Azure Data Lake Storage (2-го поколения) из скриптов Hive/Pig. |
Да |
isEspEnabled | Specify 'true' if the HDInsight cluster is Enterprise Security Package enabled. Значение по умолчанию — false. | Нет |
connectVia | The Integration Runtime to be used to dispatch the activities to this linked service. Вы можете использовать среду выполнения интеграции Azure или локальную среду выполнения интеграции. Если не указано другое, по умолчанию используется интегрированная среда выполнения Azure. For Enterprise Security Package (ESP) enabled HDInsight cluster use a self-hosted integration runtime, which has a line of sight to the cluster or it should be deployed inside the same Virtual Network as the ESP HDInsight cluster. |
Нет |
Внимание
HDInsight поддерживает несколько версий кластера Hadoop, которые могут быть развернуты. Каждая из версий создает конкретную версию платформы HortonWorks Data Platform (HDP) и набор компонентов, содержащихся в этой версии. Список поддерживаемых версий HDInsight продолжает обновляться, чтобы предоставлять новейшие компоненты и исправления для экосистемы Hadoop. Ознакомьтесь с актуальной информацией о поддерживаемой версии HDInsight и типе ОС, чтобы убедиться, что используется поддерживаемая версия HDInsight.
Внимание
Currently, HDInsight linked services does not support HBase, Interactive Query (Hive LLAP), Storm.
Azure Batch linked service
Примечание.
Мы рекомендуем использовать модуль Azure Az PowerShell для взаимодействия с Azure. Чтобы начать работу, см. статью Установка Azure PowerShell. Чтобы узнать, как перейти на модуль Az PowerShell, см. Перенос Azure PowerShell с AzureRM на Az.
You can create an Azure Batch linked service to register a Batch pool of virtual machines (VMs) to a data or Synapse workspace. Вы можете запускать пользовательские задачи с помощью Azure Batch.
Если вы еще не знакомы с пакетной службой Azure, см. следующие статьи.
- Основные сведения о пакетной службе Azure — общие сведения о пакетной службе Azure.
- New-AzBatchAccount cmdlet to create an Azure Batch account (or) Azure portal to create the Azure Batch account using Azure portal. See Using PowerShell to manage Azure Batch Account article for detailed instructions on using the cmdlet.
- New-AzBatchPool cmdlet для создания пула Azure Batch.
Внимание
При создании нового пула пакетной службы Azure необходимо использовать "VirtualMachineConfiguration", а не "CloudServiceConfiguration".
Пример
{
"name": "AzureBatchLinkedService",
"properties": {
"type": "AzureBatch",
"typeProperties": {
"accountName": "batchaccount",
"accessKey": {
"type": "SecureString",
"value": "access key"
},
"batchUri": "https://batchaccount.region.batch.azure.com",
"poolName": "poolname",
"linkedServiceName": {
"referenceName": "StorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Свойства
Недвижимость | Описание | Обязательное поле |
---|---|---|
тип | Свойству type необходимо присвоить значение AzureBatch. | Да |
имя аккаунта | Имя учетной записи пакетной службы Azure | Да |
ключ доступа | Ключ доступа к учетной записи пакетной службы Azure. | Да |
batchUri | URL-адрес учетной записи Azure Batch в формате https://batchaccountname.region.batch.azure.com. | Да |
poolName | Имя пула виртуальных машин. | Да |
ИмяСвязаннойСлужбы | Имя связанной службы хранилища Azure, связанной с этой службой Azure Batch. Эта связанная служба используется для размещения файлов, необходимых для выполнения активности. | Да |
connectVia | The Integration Runtime to be used to dispatch the activities to this linked service. Вы можете использовать среду выполнения интеграции Azure или локальную среду выполнения интеграции. Если не указано другое, по умолчанию используется интегрированная среда выполнения Azure. | Нет |
Machine Learning Studio (classic) linked service
Внимание
Поддержка Azure Machine Learning Studio (классическое) завершится 31 августа 2024 года. Мы рекомендуем перейти на Машинное обучение Azure по этой дате.
As of December 1, 2021, you can't create new Machine Learning Studio (classic) resources (workspace and web service plan). До 31 августа 2024 года вы можете продолжать использовать существующие эксперименты и веб-службы в Machine Learning Studio (classic). Дополнительные сведения см. в разделе:
- Миграция с Machine Learning Studio (классическая версия) на Azure Machine Learning
- Что такое Машинное обучение Azure?
Machine Learning Studio (classic) documentation is being retired and might not be updated in the future.
You create a Machine Learning Studio (classic) linked service to register a Machine Learning Studio (classic) batch scoring endpoint to a data factory or Synapse workspace.
Пример
{
"name": "AzureMLLinkedService",
"properties": {
"type": "AzureML",
"typeProperties": {
"mlEndpoint": "https://[batch scoring endpoint]/jobs",
"apiKey": {
"type": "SecureString",
"value": "access key"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Свойства
Недвижимость | Описание | Обязательное поле |
---|---|---|
Тип | Свойству type необходимо присвоить значение AzureML. | Да |
mlEndpoint | The batch scoring URL. | Да |
apiKey | API модели рабочей области, опубликованной. | Да |
updateResourceEndpoint | The Update Resource URL for an ML Studio (classic) Web Service endpoint used to update the predictive Web Service with trained model file | Нет |
servicePrincipalId | Укажите идентификатора клиента приложения. | Требуется, если задано свойство updateResourceEndpoint |
servicePrincipalKey | Укажите ключ приложения. | Требуется, если задано свойство updateResourceEndpoint |
арендатор | Укажите сведения о клиенте (доменное имя или идентификатор клиента), в котором находится приложение. Эти сведения можно получить, наведя указатель мыши на правый верхний угол страницы портала Azure. | Требуется, если задано свойство updateResourceEndpoint |
connectVia | The Integration Runtime to be used to dispatch the activities to this linked service. Вы можете использовать среду выполнения интеграции Azure или локальную среду выполнения интеграции. Если не указано другое, по умолчанию используется интегрированная среда выполнения Azure. | Нет |
Связанная служба Машинного обучения Azure
Создайте связанную службу Машинного обучения Azure, чтобы связать рабочую область Машинного обучения Azure с фабрикой данных или рабочей областью Synapse.
Примечание.
В настоящее время для связанной службы Azure Machine Learning поддерживается только аутентификация сервисного принципала.
Пример
{
"name": "AzureMLServiceLinkedService",
"properties": {
"type": "AzureMLService",
"typeProperties": {
"subscriptionId": "subscriptionId",
"resourceGroupName": "resourceGroupName",
"mlWorkspaceName": "mlWorkspaceName",
"servicePrincipalId": "service principal id",
"servicePrincipalKey": {
"value": "service principal key",
"type": "SecureString"
},
"tenant": "tenant ID"
},
"connectVia": {
"referenceName": "<name of Integration Runtime?",
"type": "IntegrationRuntimeReference"
}
}
}
Свойства
Недвижимость | Описание | Обязательное поле |
---|---|---|
Тип | Свойство type должно иметь значение: AzureMLService. | Да |
идентификатор подписки | Идентификатор подписки Azure | Да |
resourceGroupName | имя | Да |
mlWorkspaceName | Имя рабочей области службы Машинного обучения Azure | Да |
servicePrincipalId | Укажите идентификатора клиента приложения. | Да |
servicePrincipalKey | Укажите ключ приложения. | Да |
арендатор | Укажите сведения о клиенте (доменное имя или идентификатор клиента), в котором находится приложение. Эти сведения можно получить, наведя указатель мыши на правый верхний угол страницы портала Azure. | Требуется, если задано свойство updateResourceEndpoint |
connectVia | The Integration Runtime to be used to dispatch the activities to this linked service. Вы можете использовать среду выполнения интеграции Azure или локальную среду выполнения интеграции. Если не указано другое, по умолчанию используется интегрированная среда выполнения Azure. | Нет |
Связанная служба Azure Data Lake Analytics
Можно создать связанную службу Azure Data Lake Analytics, чтобы связать службу вычислений Azure Data Lake Analytics с фабрикой данных или рабочей областью Synapse. The Data Lake Analytics U-SQL activity in the pipeline refers to this linked service.
Пример
{
"name": "AzureDataLakeAnalyticsLinkedService",
"properties": {
"type": "AzureDataLakeAnalytics",
"typeProperties": {
"accountName": "adftestaccount",
"dataLakeAnalyticsUri": "azuredatalakeanalytics URI",
"servicePrincipalId": "service principal id",
"servicePrincipalKey": {
"value": "service principal key",
"type": "SecureString"
},
"tenant": "tenant ID",
"subscriptionId": "<optional, subscription ID of ADLA>",
"resourceGroupName": "<optional, resource group name of ADLA>"
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Свойства
Недвижимость | Описание | Обязательное поле |
---|---|---|
тип | Свойству type необходимо присвоить значение AzureDataLakeAnalytics. | Да |
имя аккаунта | Azure Data Lake Analytics Account Name. | Да |
dataLakeAnalyticsUri | Azure Data Lake Analytics URI. | Нет |
идентификатор подписки | Идентификатор подписки Azure | Нет |
resourceGroupName | Имя группы ресурсов Azure | Нет |
servicePrincipalId | Укажите идентификатора клиента приложения. | Да |
servicePrincipalKey | Укажите ключ приложения. | Да |
арендатор | Укажите сведения о клиенте (доменное имя или идентификатор клиента), в котором находится приложение. Эти сведения можно получить, наведя указатель мыши на правый верхний угол страницы портала Azure. | Да |
connectVia | The Integration Runtime to be used to dispatch the activities to this linked service. Вы можете использовать среду выполнения интеграции Azure или локальную среду выполнения интеграции. Если не указано другое, по умолчанию используется интегрированная среда выполнения Azure. | Нет |
Связанная служба Azure Databricks
Вы можете создать службу, связанную с Azure Databricks, чтобы зарегистрировать рабочую область Databricks, используемую для выполнения рабочих нагрузок Databricks, таких как записные книжки, JAR-файлы и Python-скрипты.
Внимание
Databricks linked services supports Instance pools & System-assigned managed identity authentication.
Пример. Использование нового кластера заданий в Databricks
{
"name": "AzureDatabricks_LS",
"properties": {
"type": "AzureDatabricks",
"typeProperties": {
"domain": "https://eastus.azuredatabricks.net",
"newClusterNodeType": "Standard_D3_v2",
"newClusterNumOfWorker": "1:10",
"newClusterVersion": "4.0.x-scala2.11",
"accessToken": {
"type": "SecureString",
"value": "YourAccessToken"
}
}
}
}
Пример. Использование существующего интерактивного кластера в Databricks
{
"name": " AzureDataBricksLinkedService",
"properties": {
"type": " AzureDatabricks",
"typeProperties": {
"domain": "https://westeurope.azuredatabricks.net",
"accessToken": {
"type": "SecureString",
"value": "YourAccessToken"
},
"existingClusterId": "{clusterId}"
}
}
Свойства
Недвижимость | Описание | Обязательное поле |
---|---|---|
имя | Имя связанной службы | Да |
тип | Свойство type должно иметь значение: Azure Databricks. | Да |
домен | Укажите регион Azure на основе региона рабочей области Databricks. Пример: https://eastus.azuredatabricks.net | Да |
accessToken | Чтобы служба прошла аутентификацию в Azure Databricks, необходим маркер доступа. Access token needs to be generated from the databricks workspace. Подробные инструкции по поиску маркера доступа см. в этой статье. | Нет |
MSI | Используйте управляемое удостоверение службы (назначаемое системой) для проверки подлинности в Azure Databricks. You do not need Access Token when using 'MSI' authentication. Дополнительные сведения о проверке подлинности с помощью управляемых удостоверений см. здесь. | Нет |
existingClusterId | Идентификатор существующего кластера для запуска всех заданий на нем. Это должен быть уже созданный интерактивный кластер. Возможно, потребуется вручную перезапустить кластер, если он перестанет отвечать. Для улучшения надежности Databricks предлагает выполнять задания на новых кластерах. Идентификатор интерактивного кластера можно найти, выбрав "Рабочая область Databricks" -> "Кластеры" -> "Имя интерактивного кластера" -> "Конфигурация" -> "Теги". Дополнительные сведения | Нет |
instancePoolId | Instance Pool ID of an existing pool in databricks workspace. | Нет |
новая версия кластера | Версия кластера Spark. Она создает кластер заданий в Databricks. | Нет |
newClusterNumOfWorker | Необходимое число рабочих узлов текущего кластера. A cluster has one Spark Driver and num_workers Executors for a total of num_workers + 1 Spark nodes. Строка в формате Int32, например "1", означает, что параметр numOfWorker имеет значение 1, а "1:10" означает автомасштабирование от 1 (минимум) до 10 (максимум). | Нет |
newClusterNodeType | Используя отдельное значение, это поле кодирует доступные ресурсы для каждого узла Spark в этом кластере. Например, узлы Spark могут быть подготовлены и оптимизированы для операций в памяти или для ресурсоемких рабочих нагрузок. Это поле обязательно для нового кластера. | Нет |
newClusterSparkConf | a set of optional, user-specified Spark configuration key-value pairs. Пользователи также могут передавать строку дополнительных параметров JVM драйверу и исполнителям через spark.driver.extraJavaOptions и spark.executor.extraJavaOptions соответственно. | Нет |
newClusterInitScripts | Набор необязательных, определяемых пользователем скриптов инициализации для нового кластера. Скрипты инициализации можно указать в файлах рабочей области (рекомендуется) или с помощью пути DBFS (устаревшая версия). | Нет |
Связанный сервис Azure SQL Database
Вы создаете связанную службу Azure SQL и используете её с действием Хранимая процедура для вызова хранимой процедуры из конвейера. Дополнительную информацию см. в статье о связанной службе SQL Azure.
Связанная служба Azure Synapse Analytics
You create an Azure Synapse Analytics linked service and use it with the Stored Procedure Activity to invoke a stored procedure from a pipeline. Дополнительную информацию см. в статье о соединителе Azure Synapse Analytics.
Связанная служба SQL Server
You create a SQL Server linked service and use it with the Stored Procedure Activity to invoke a stored procedure from a pipeline. См. статью о подключении к SQL Server для получения подробной информации о данной связанной службе.
Связанная служба Azure Synapse Analytics (Artifacts)
You create an Azure Synapse Analytics (Artifacts) linked service and use it with the Synapse Notebook Activity and Synapse Spark job definition Activity.
Пример
{
"name": "AzureSynapseArtifacts",
"type": "Microsoft.DataFactory/factories/linkedservice",
"properties": {
"properties": {
"a":{
"type": "String"
}
},
"annotations": [],
"type": "AzureSynapseArtifacts",
"typeProperties": {
"endpoint": "@{linkedService().a}",
"authentication": "MSI",
"workspaceResourceId": ""
},
"ConnectVia":{
"referenceName": "integrationRuntime1",
"type": "IntegrationRuntimeReference"
}
}
}
Свойства
Свойство | Description | Обязательный |
---|---|---|
имя | Имя связанной службы | Да |
описание | описание связанной службы | Нет |
аннотации | аннотации связанного сервиса | Нет |
тип | Свойство type должно иметь значение AzureSynapseArtifacts | Да |
конечная точка | The Azure Synapse Analytics URL | Да |
проверка подлинности | Параметр по умолчанию — управляемое удостоверение, назначаемое системой | Да |
workspaceResourceId | Идентификатор ресурса рабочей области | Да |
connectVia | Среда выполнения интеграции, используемая для подключения к хранилищу данных. Вы можете использовать среду выполнения интеграции Azure. Если не указано другое, по умолчанию используется интегрированная среда выполнения Azure. Локальная среда выполнения интеграции в настоящее время не поддерживается. | Да |
Azure Function linked service
You create an Azure Function linked service and use it with the Azure Function activity to run Azure Functions in a pipeline. Тип возвращаемого значения функции Azure должен быть допустимым JObject
. (Keep in mind that JArray is not a JObject
.) Any return type other than JObject
fails and raises the user error Response Content is not a valid JObject.
Свойство | Description | Обязательный |
---|---|---|
тип | Свойство type должно иметь значение: AzureFunction | да |
function app url | URL-адрес для приложения-функции Azure. Формат – https://<accountname>.azurewebsites.net . Этот URL-адрес является значением в разделе URL при просмотре вашего приложения функции в портале Azure. |
да |
функциональная клавиша | Ключ доступа для функции Azure. Щелкните раздел Управление для соответствующей функции и скопируйте Function Key (ключ функции) или Host key (ключ хоста). Дополнительные сведения см. здесь: работа с ключами доступа | да |
Связанный контент
Список поддерживаемых действий преобразования см. в разделе Преобразование данных.