Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
После создания потока событий Microsoft Fabric его можно подключить к различным источникам данных и назначениям.
Поток событий не только позволяет передавать данные из источников Майкрософт. Она также поддерживает прием от сторонних платформ, таких как Google Cloud и Amazon Kinesis, с помощью новых коннекторов обмена сообщениями. Эта расширенная возможность обеспечивает простую интеграцию внешних потоков данных в Fabric. Эта интеграция обеспечивает большую гибкость и позволяет получать аналитические сведения в режиме реального времени из нескольких источников.
В этой статье вы узнаете о источниках событий, которые можно добавить в поток событий.
Предварительные условия
- Доступ к рабочей области с емкостью Fabric или типом рабочей области пробной версии Fabric с разрешениями участника или более высокого уровня.
- Требования, конкретные для каждого источника и задокументированные в следующих статьях, специфичных для источника.
Поддерживаемые источники
Потоки событий Fabric с расширенными возможностями поддерживают следующие источники. Каждая статья содержит подробные сведения и инструкции по добавлению определенных источников.
| Исходный материал | Описание |
|---|---|
| Azure Data Explorer (предварительная версия) | Если у вас есть база данных Azure Data Explorer и таблица, вы можете получать данные из таблицы в Microsoft Fabric с помощью потоков событий. |
| Центры событий Azure | Если у вас есть концентратор событий Azure, вы можете получать данные концентратора событий в Fabric с помощью потоков событий. |
| Сетка событий Azure | Если у вас есть пространство имен Azure Event Grid, вы можете встроить данные с использованием Message Queuing Telemetry Transport (MQTT) или данные событий без использования MQTT в системе Fabric через потоки событий. |
| Служебная шина Azure (предварительная версия) | Вы можете получать данные из очереди службы шины Azure или подписки темы в Fabric с помощью потоков событий. |
| Центр Интернета вещей Azure | Если у вас есть Центр Интернета вещей Azure, вы можете получать данные Интернета вещей в Fabric с помощью потоков событий. |
| События обнаружения аномалий (предварительная версия) | Вы можете получать данные из детектора аномалий в Fabric с помощью потоков событий. |
| Пользовательская конечная точка (то есть кастомное приложение в стандартных функциональных возможностях) | Функция пользовательской конечной точки позволяет приложениям или клиентам Kafka подключаться к потокам событий с помощью строки подключения. Это подключение обеспечивает плавное прием потоковых данных в потоки событий. |
| Операции Интернета вещей Azure | Настройте операции Интернета вещей Azure для отправки данных в режиме реального времени непосредственно в Службу аналитики Real-Time Fabric с помощью настраиваемой конечной точки eventstream. Эта функция поддерживает аутентификацию с использованием Microsoft Entra ID или Simple Authentication and Security Layer (SASL). |
| Пример данных | Вы можете выбрать велосипеды, желтое такси, фондовый рынок, автобусы, S&P 500 компании акции или журналы семантической модели в качестве образца источника данных для проверки приема данных при настройке потока событий. |
| Погода в режиме реального времени | Вы можете добавить источник погоды в режиме реального времени в поток событий для потоковой передачи данных о погоде в режиме реального времени из различных расположений. |
| Фиксация изменений данных в базе данных SQL Azure (CDC) | Вы можете использовать источник соединителя CDC для базы данных Azure SQL для захвата моментального снимка текущих данных в базе данных Azure SQL. Затем соединитель отслеживает и записывает любые будущие изменения на уровне строк в эти данные. С помощью DeltaFlow (предварительная версия) можно преобразовать необработанные события CDC в потоки, готовые к аналитике. |
| База данных PostgreSQL CDC | Соединитель источника PostgreSQL CDC можно использовать для фиксации снимка состояния текущих данных в базе данных PostgreSQL. Затем соединитель отслеживает и записывает любые будущие изменения на уровне строк в эти данные. С помощью DeltaFlow (предварительная версия) можно преобразовать необработанные события CDC в потоки, готовые к аналитике. |
| HTTP (предварительная версия) | Соединитель HTTP можно использовать для потоковой передачи данных из внешних платформ в поток событий с помощью стандартных HTTP-запросов. Он также предлагает предопределенные общедоступные веб-каналы данных с автоматически заполненными заголовками и параметрами, чтобы быстро начать работу без сложной настройки. |
| CdC MongoDB (предварительная версия) | Соединитель источника CDC MongoDB для потоков событий Fabric записывает начальный моментальный снимок данных из MongoDB. Можно указать коллекции для мониторинга, а поток событий отслеживает и записывает изменения в документы в выбранных базах данных и коллекциях в режиме реального времени. |
| База данных MySQL CDC | Соединитель источника CDC базы данных MySQL можно использовать для захвата моментального снимка текущих данных в базе данных Azure для MySQL. Таблицы можно указать для отслеживания, а поток событий записывает любые будущие изменения на уровне строк в таблицы. |
| Azure Cosmos DB CDC | Соединитель источника CDC Azure Cosmos DB для потоков событий Fabric можно использовать для записи моментального снимка текущих данных в базе данных Azure Cosmos DB. Затем соединитель отслеживает и записывает любые будущие изменения на уровне строк в эти данные. |
| SQL Server на виртуальной машине (ВМ) БД CDC | Вы можете использовать коннектор источника CDC для eventstreams Fabric, чтобы зафиксировать моментальный снимок текущих данных в базе данных SQL Server на виртуальной машине. Затем соединитель отслеживает и записывает любые будущие изменения на уровне строк в данные. С помощью DeltaFlow (предварительная версия) можно преобразовать необработанные события CDC в потоки, готовые к аналитике. |
| Управляемый экземпляр Azure SQL CDC | Соединитель источника CDC управляемого экземпляра SQL Azure можно использовать для потоков событий Fabric для записи моментального снимка текущих данных в базе данных управляемого экземпляра SQL. Затем соединитель отслеживает и записывает любые будущие изменения на уровне строк в эти данные. С помощью DeltaFlow (предварительная версия) можно преобразовать необработанные события CDC в потоки, готовые к аналитике. |
| События для элементов рабочей области Fabric | События элемента рабочей области Fabric — это дискретные события Fabric, которые происходят при внесении изменений в рабочую область Fabric. Эти изменения включают создание, обновление или удаление элемента Fabric. С помощью потоков событий Fabric можно записывать эти события рабочей области Fabric, преобразовывать их и направлять их в различные назначения в Fabric для дальнейшего анализа. |
| события Fabric OneLake | События OneLake можно использовать для подписки на изменения в файлах и папках в OneLake, а затем реагировать на эти изменения в режиме реального времени. С помощью потоков событий Fabric можно записывать эти события OneLake, преобразовывать их и направлять их в различные назначения в Fabric для дальнейшего анализа. Эта простая интеграция событий OneLake в потоках событий Fabric обеспечивает большую гибкость для мониторинга и анализа действий в OneLake. |
| События задания Fabric | События задания можно использовать для подписки на изменения, созданные при выполнении задачи на платформе Fabric. Например, можно реагировать на изменения при обновлении семантической модели, выполнении запланированного конвейера или запуске записной книжки. Каждое из этих действий может создать соответствующее задание, которое, в свою очередь, создает набор соответствующих событий задания. С помощью потоков событий Fabric можно записывать эти события задания, преобразовывать их и направлять их в различные назначения в Fabric для дальнейшего анализа. Эта простая интеграция событий заданий в потоках событий Fabric обеспечивает большую гибкость для мониторинга и анализа действий в задании. |
| События обзора емкости Fabric (предварительная версия) | Обзор возможностей Fabric предоставляет сводную информацию о ваших возможностях. Эти события можно использовать для создания оповещений, связанных с производительностью ресурсов, с помощью Fabric Activator. Эти события также можно хранить в хранилище событий для детализированного или исторического анализа. |
| События в Azure Blob Storage | События в хранилище объектов BLOB Azure активируются, когда клиент создает, заменяет или удаляет объект BLOB. Соединитель можно использовать для соединения событий хранилища блоб-объектов с событиями Fabric в центре обработки в реальном времени. Эти события можно конвертировать в непрерывные потоки данных и трансформировать их перед маршрутизацией к различным пунктам назначения в Fabric. |
| Google Cloud Pub/Sub | Google Pub/Sub — это служба обмена сообщениями, которая позволяет публиковать и подписываться на потоки событий. Вы можете добавить Google Pub/Sub в качестве источника в поток событий для отслеживания, преобразования и маршрутизации событий в режиме реального времени в различные места назначения в Fabric. |
| Потоки данных Amazon Kinesis | Amazon Kinesis Data Streams — это масштабируемая, высокопрочная служба приема и обработки данных, оптимизированная для потоковой передачи данных. Интеграция Amazon Kinesis Data Streams в качестве источника в потоке событий позволяет легко обрабатывать потоки данных в режиме реального времени перед маршрутизацией их в несколько назначений в Fabric. |
| Confluent Cloud для Apache Kafka | Confluent Cloud для Apache Kafka — это платформа потоковой передачи данных, которая предлагает мощные функции потоковой передачи и обработки данных с помощью Apache Kafka. Интеграция Confluent Cloud для Apache Kafka в качестве источника в потоке событий позволяет легко обрабатывать потоки данных в режиме реального времени перед маршрутизацией их в несколько назначений в Fabric. |
| Apache Kafka (предварительная версия) | Apache Kafka — это распределенная платформа с открытым кодом для создания масштабируемых систем данных в режиме реального времени. Интегрируя Apache Kafka в качестве источника в потоке событий, вы можете легко перенести события в режиме реального времени из Apache Kafka и обработать их перед маршрутизацией их в несколько назначений в Fabric. |
| Amazon Managed Streaming для Apache Kafka (MSK) | Amazon MSK Kafka — это полностью управляемая служба Kafka, которая упрощает настройку, масштабирование и управление. Интегрируя Amazon MSK Kafka в качестве источника в ваш eventstream, вы можете легко доставить события в режиме реального времени из MSK Kafka, обработать их и направить их на несколько адресатов в Fabric. |
| MQTT (предварительная версия) | Для подключения к брокеру MQTT можно использовать потоки событий Fabric. Сообщения в брокере MQTT могут быть принимаемы в потоки событий Fabric и перенаправлены в различные места назначений в Fabric. |
| Cribl (предварительная версия) | Вы можете подключить Cribl к потоку событий и перенаправить данные в различные места назначения в Fabric. |
| Solace PubSub+ (предварительная версия) | Для подключения к Solace PubSub+можно использовать потоки событий Fabric. Сообщения из Solace PubSub+ могут приниматься в потоках событий Fabric и направляться в различные пункты назначения в Fabric. |
Примечание.
Поток событий может поддерживать до 11 объединенных источников и приемников только в том случае, если вы используете следующие типы:
- Источник: настраиваемая конечная точка.
- Назначения: настраиваемая конечная точка и ивентхаус с прямой загрузкой.
Любые источники или назначения, не включенные в предыдущий список, и назначения, не добавленные к потоку по умолчанию, не учитываются в этом пределе.