Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
В этой статье показано, как добавить источник Confluent Cloud для Apache Kafka в поток событий.
Confluent Cloud для Apache Kafka — это платформа потоковой передачи и обработки данных с помощью Apache Kafka. Интеграция Confluent Cloud для Apache Kafka в качестве источника в потоке событий позволяет легко обрабатывать потоки данных в режиме реального времени перед маршрутизацией их в несколько назначений в Fabric.
Примечание.
Этот источник не поддерживается в следующих регионах емкости рабочей области: западная часть США 3, Западная Швейцария.
Необходимые компоненты
- Доступ к рабочей области в режиме лицензии емкости Fabric (или) режим пробной лицензии с разрешениями участника или более высокого уровня.
- Кластер Confluent Cloud для Apache Kafka и ключ API.
- Кластер Confluent Cloud для Apache Kafka должен быть общедоступным, а не за брандмауэром или защищенным в виртуальной сети.
- Если у вас нет потока событий, создайте поток событий.
Запуск мастера выбора источника данных
Если вы еще не добавили источник в поток событий, выберите "Использовать внешнюю плитку источника ".
Если вы добавляете источник в уже опубликованный поток событий, перейдите в режим редактирования, выберите "Добавить источник" на ленте и выберите "Внешние источники".
Настройка и подключение к Confluent Cloud для Apache Kafka
На странице "Выбор источника данных " выберите Confluent Cloud для Apache Kafka.
Чтобы создать подключение к источнику Confluent Cloud для Apache Kafka, выберите новое подключение.
В разделе параметров подключения введите Confluent Bootstrap Server. Перейдите на домашнюю страницу Confluent Cloud, выберите "Параметры кластера" и скопируйте адрес на сервер начальной загрузки.
В разделе учетных данных подключения , если у вас есть существующее подключение к кластеру Confluent, выберите его в раскрывающемся списке для подключения. В противном случае выполните следующие действия.
- В поле "Имя подключения" введите имя подключения.
- Для типа проверки подлинности убедитесь, что выбран облачный ключ Confluent.
- Для ключа API и секрета ключа API:
Перейдите в облако Confluent Cloud.
Выберите ключи API в боковом меню.
Нажмите кнопку "Добавить ключ", чтобы создать новый ключ API.
Скопируйте ключ и секрет API.
Вставьте эти значения в поля "Ключ API" и "Секрет ключа API".
Выберите Подключиться.
Прокрутите страницу вниз, чтобы увидеть раздел Настройка Confluent Cloud в качестве источника данных для Apache Kafka. Введите сведения, чтобы завершить настройку источника данных Confluent.
- В поле "Имя раздела" введите имя раздела из confluent Cloud. Вы можете создать или управлять темой в Confluent Cloud Console.
- Для группы потребителей введите группу потребителей в Confluent Cloud. Она предоставляет выделенную группу потребителей для получения событий из кластера Confluent Cloud.
- Для параметра автоматического смещения сброса выберите одно из следующих значений:
Самый ранний — самые ранние данные, доступные из кластера Confluent
Последние — последние доступные данные
Нет — не устанавливайте смещение автоматически.
В зависимости от того, кодируются ли данные с помощью реестра схем Confluent:
- Если не выполнено кодирование, нажмите Далее. На экране "Проверка и создание " просмотрите сводку и нажмите кнопку "Добавить ", чтобы завершить настройку.
- Если закодировано, перейдите к следующему шагу: подключитесь к реестру схем Confluent, чтобы декодировать данные (предварительная версия)
Подключение к реестру схем Confluent для декодирования данных (предварительная версия)
Коннектор Eventstream Confluent Cloud для потоковой передачи Apache Kafka способен декодировать данные, созданные с помощью Confluent serializer и реестра схем Confluent Cloud. Для декодирования данных, закодированных с помощью этого сериализатора реестра схем Confluent, требуется извлечение схемы из реестра схем Confluent. Без доступа к схеме поток событий не может просматривать, обрабатывать или направлять входящие данные.
Вы можете развернуть дополнительные параметры для настройки подключения к реестру схем Confluent:
Определение и сериализация данных. Выбор да позволяет сериализовать данные в стандартизованном формате. Выбор "Нет" сохраняет данные в исходном формате и передает их без изменений.
Если данные кодируются с помощью реестра схем, выберите "Да " при выборе того, кодируются ли данные в реестре схем. Затем выберите новое подключение , чтобы настроить доступ к реестру схем Confluent:
- URL реестра схем: общедоступная конечная точка вашего реестра схем.
- Ключ API и секрет ключа API. Перейдите к реестру схем Cloud Environment Confluent, чтобы скопировать ключ API и секрет API. Убедитесь, что учетная запись, используемая для создания этого ключа API, имеет разрешение DeveloperRead или более высокий уровень разрешения на схему.
- Уровень конфиденциальности: выберите "Нет", "Частный", " Организационный" или "Общедоступный".
Выходной десятичный формат JSON: указывает формат сериализации JSON для значений десятичного логического типа в данных из источника.
- NUMERIC: сериализация в виде чисел.
- BASE64: сериализация в виде данных в кодировке Base64.
Выберите Далее. На экране "Проверка и создание " просмотрите сводку и нажмите кнопку "Добавить ", чтобы завершить настройку.
Вы видите, что источник Confluent Cloud для Apache Kafka добавляется в поток событий на холсте в режиме редактирования. Чтобы реализовать этот недавно добавленный источник Confluent Cloud для Apache Kafka, выберите «Опубликовать» на ленте.
После выполнения этих действий источник Confluent Cloud для Apache Kafka доступен для визуализации в режиме реального времени.
Примечание.
Чтобы просмотреть события из этого источника Confluent Cloud для Apache Kafka, убедитесь, что ключ API, используемый для создания облачного подключения, имеет разрешение на чтение для групп потребителей с префиксом "preview-". Если ключ API был создан с помощью учетной записи пользователя, дополнительные шаги не требуются, так как этот тип ключа уже имеет полный доступ к ресурсам Confluent Cloud для Apache Kafka, включая разрешение на чтение для групп потребителей с префиксом "preview-". Однако если ключ был создан с помощью учетной записи службы, необходимо вручную предоставить разрешение на чтение группам потребителей с префиксом "preview-", чтобы просмотреть события.
Для источников Confluent Cloud для Apache Kafka поддерживается предварительный просмотр сообщений в формате Confluent AVRO когда данные закодированы с использованием реестра схем Confluent. Если данные не кодируются с помощью реестра схем Confluent, можно просмотреть только отформатированные сообщения JSON .
Связанный контент
Другие соединители:
- Потоки данных Amazon Kinesis
- Azure Cosmos DB
- Центры событий Azure
- Центр Интернета вещей Azure
- База данных SQL Azure отслеживания измененных данных (CDC)
- Пользовательская конечная точка
- Google Cloud Pub/Sub
- My База данных SQL CDC
- Postgre База данных SQL CDC
- Пример данных
- события Хранилище BLOB-объектов Azure
- Событие рабочей области Fabric