Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
С помощью задания Copy можно перемещать данные между облачными хранилищами данных или из локальных источников, находящихся за брандмауэром или внутри virtual network с помощью шлюза.
Задание копирования поддерживает следующие функции:
- Копирование источников и мест назначения
- Репликация отслеживания измененных данных (CDC) (предварительная версия)
- Автоматическое создание таблицы и очистка данных в пункте назначения
Копирование источников заданий и мест назначения
В следующей таблице показано, какие соединители поддерживаются в качестве источников и назначений в задании копирования, а также поддерживают ли они различные режимы чтения и записи.
- Чтение — Полная загрузка: чтение всех данных из источника.
- Чтение — инкрементальная загрузка (на основе водяного знака): чтение только измененных данных из источника с помощью столбца с водяным знаком.
- Запись — добавление: добавление новых данных в место назначения без влияния на существующие данные.
- Запись — переопределение: заменить существующие данные в конечной точке новыми данными.
- Запись — слияние: объединение новых данных с существующими данными на основе указанного ключа назначения.
Дополнительные сведения о каждом из этих режимов см. в обзоре задания копирования.
| соединитель | Источник | Назначение | Прочитать - полная загрузка | Чтение — инкрементальная загрузка (на основе контрольной метки) | Запись — добавление | Запись - перезапись | Запись — Обновление/Вставка |
|---|---|---|---|---|---|---|---|
| Amazon RDS для Oracle |
|
|
|
|
|
|
|
| Amazon RDS для SQL Server |
|
|
|
|
|
|
|
| Amazon S3 |
|
|
|
|
|
|
N/A |
| Совместимость с Amazon S3 |
|
|
|
|
|
|
N/A |
| Поиск Azure AI |
|
|
|
|
|
|
|
| Azure Blob Storage |
|
|
|
|
|
|
N/A |
| Azure Cosmos DB для MongoDB |
|
|
|
|
|
|
|
| Azure Cosmos DB для NoSQL |
|
|
|
|
|
|
|
| Azure Databricks |
|
|
|
|
|
|
|
| Azure Data Lake Storage Gen2 |
|
|
|
|
|
|
N/A |
| Azure Data Explorer |
|
|
|
|
|
|
|
| соединитель | Источник | Назначение | Прочитать - полная загрузка | Чтение — инкрементальная загрузка (на основе контрольной метки) | Запись — добавление | Запись - перезапись | Запись — Обновление/Вставка |
| Azure Files |
|
|
|
|
|
|
N/A |
| Azure MySQL |
|
|
|
|
|
|
|
| Azure PostgreSQL |
|
|
|
|
|
|
|
| база данных Azure SQL |
|
|
|
|
|
|
|
| Azure SQL Managed Instance |
|
|
|
|
|
|
|
| Аналитика Azure Synapse |
|
|
|
|
|
|
|
| таблицы Azure |
|
|
|
|
|
|
|
| Cassandra |
|
|
|
|
|
|
|
| Dataverse |
|
|
|
|
|
|
|
| Dynamics 365 |
|
|
|
|
|
|
|
| соединитель | Источник | Назначение | Прочитать - полная загрузка | Чтение — инкрементальная загрузка (на основе контрольной метки) | Запись — добавление | Запись - перезапись | Запись — Обновление/Вставка |
| Dynamics AX |
|
|
|
|
|
|
|
| Dynamics CRM |
|
|
|
|
|
|
|
| Файл "Fabric Lakehouse" |
|
|
|
|
|
|
N/A |
| Таблица Fabric Lakehouse |
|
|
|
|
|
|
|
| Склад тканей |
|
|
|
|
|
|
|
| Folder |
|
|
|
|
|
|
N/A |
| FTP |
|
|
|
|
|
|
N/A |
| Greenplum |
|
|
|
|
|
|
|
| Google BigQuery (сервис анализа данных) |
|
|
|
|
|
|
|
| Google Cloud Storage |
|
|
|
|
|
|
N/A |
| соединитель | Источник | Назначение | Прочитать - полная загрузка | Чтение — инкрементальная загрузка (на основе контрольной метки) | Запись — добавление | Запись - перезапись | Запись — Обновление/Вставка |
| HTTP |
|
|
|
|
|
|
N/A |
| База данных IBM Db2 |
|
|
|
|
|
|
|
| Informix |
|
|
|
|
|
|
|
| MariaDB |
|
|
|
|
|
|
|
| Microsoft Access |
|
|
|
|
|
|
|
| MongoDB |
|
|
|
|
|
|
|
| Атлас MongoDB |
|
|
|
|
|
|
|
| MySQL |
|
|
|
|
|
|
|
| ODATA |
|
|
|
|
|
|
|
| ODBC (Интерфейс открытой базы данных) |
|
|
|
|
|
|
|
| соединитель | Источник | Назначение | Прочитать - полная загрузка | Чтение — инкрементальная загрузка (на основе контрольной метки) | Запись — добавление | Запись - перезапись | Запись — Обновление/Вставка |
| Oracle; |
|
|
|
|
|
|
|
| Облачное хранилище Oracle |
|
|
|
|
|
|
N/A |
| PostgreSQL |
|
|
|
|
|
|
|
| Presto |
|
|
|
|
|
|
|
| REST |
|
|
|
|
|
|
N/A |
| Salesforce |
|
|
|
|
|
|
|
| Облако службы Salesforce |
|
|
|
|
|
|
|
| SAP BW Open Hub |
|
|
|
|
|
|
|
| SAP HANA |
|
|
|
|
|
|
|
| Таблица SAP |
|
|
|
|
|
|
|
| соединитель | Источник | Назначение | Прочитать - полная загрузка | Чтение — инкрементальная загрузка (на основе контрольной метки) | Запись — добавление | Запись - перезапись | Запись — Обновление/Вставка |
| Список SharePoint Online |
|
|
|
|
|
|
|
| ServiceNow |
|
|
|
|
|
|
|
| SFTP |
|
|
|
|
|
|
N/A |
| SQL Server на локальном сервере |
|
|
|
|
|
|
|
| Snowflake |
|
|
|
|
|
|
|
| Teradata |
|
|
|
|
|
|
|
| Vertica |
|
|
|
|
|
|
|
Замечание
Соединитель ODBC с собственной возможностью добавочного копирования работает только для хранилищ данных семейства Microsoft SQL, в том числе:
- Amazon RDS для SQL Server
- база данных Azure SQL
- Azure SQL Managed Instance
- Аналитика Azure Synapse
- Склад тканей
- SQL Server на локальном сервере
Репликация CDC (предварительная версия)
Изменение записи данных (CDC) в задании копирования обеспечивает автоматическую репликацию измененных данных (включая вставку, обновление и удаление записей) из источника в место назначения. В этой таблице описаны коннекторы, поддерживающие CDC-репликацию в задаче копирования, включая их возможности для чтения данных CDC, записи с merge (SCD Type 1), и записи с SCD Type 2 для полного отслеживания истории.
Дополнительные сведения об использовании репликации CDC в задании копирования см. в разделе "Извлечение данных изменений в задании копирования".
| Connector | Исходный материал | Место назначения | Прочитать — CDC | Запись — слияние | Запись — SCD Type 2 |
|---|---|---|---|---|---|
| база данных Azure SQL |
|
|
|
|
|
| Azure SQL Managed Instance |
|
|
|
|
|
| Таблица Fabric Lakehouse |
|
|
|
|
|
| Google BigQuery (сервис анализа данных) |
|
|
|
|
|
| Локальный SQL Server |
|
|
|
|
|
| Экспорт данных SAP Datasphere для ADLS Gen2 |
|
|
|
|
|
| Исходящий трафик SAP Datasphere для AWS S3 |
|
|
|
|
|
| Экспорт данных SAP Datasphere для Google Cloud Storage |
|
|
|
|
|
| Snowflake |
|
|
|
|
|
| Oracle; |
|
|
|
|
|
| База данных SQL в Fabric (предварительная версия) |
|
|
|
|
|
| Хранилище данных Fabric |
|
|
|
|
|
Замечание
ScD Type 2 в задании копирования в настоящее время находится в предварительной версии. При репликации CDC из источников Snowflake или Oracle SCD Type 2 еще не поддерживается. Если в вашей целевой базе данных уже существует схема, созданная вами, то поддержка SCD2 невозможна.
Автоматическое создание таблицы и усечение на целевой таблице
Задание копирования может автоматически создавать таблицы в пункте назначения, если они еще не существуют. Вы также можете дополнительно усечь конечные данные перед полной загрузкой, гарантируя, что их источник и назначение полностью синхронизированы без дубликатов. В этой таблице описаны соединители, поддерживающие автоматическое создание таблиц и усечение данных на стороне назначения в операции копирования.
Дополнительные сведения об этих функциях см. в обзоре задания копирования.
| Connector | Автоматическое создание таблицы | Обрезать данные назначения перед полной загрузкой |
|---|---|---|
| база данных Azure SQL |
|
|
| Azure SQL Managed Instance |
|
|
| SQL-пул Azure Synapse |
|
|
| Таблица Fabric Lakehouse |
|
|
| Склад тканей |
|
|
| Локальный SQL Server |
|
|
| Oracle; |
|
|
| Snowflake |
|
|
| База данных SQL в Fabric (предварительная версия) |
|
|