Загрузка данных в Excel Online и создание отчета мониторинга потоков данных с помощью Power BI

Tip

Power BI Dataflow 1-го поколения теперь находится в устаревшем состоянии и не получит новых инвестиций в функции. Для премиум-клиентов с доступом к Fabric, Dataflow Gen2 является рекомендуемым решением, предлагая улучшения в производительности, масштабируемости, надежности, функциональности и встроенном ИИ. Клиенты Pro/PPU могут продолжать использовать Gen1, так как руководства по Gen2 для этих сценариев всё ещё разрабатываются. См. статью Обновление с Dataflow Gen1 до Dataflow Gen2 для получения инструкций по обновлению.

В этом руководстве показано, как использовать файл Excel и соединитель потоков данных в Power Automate для создания отчета мониторинга потоков данных в Power BI.

Снимок экрана: пример панели мониторинга Power BI.

Сначала вы скачайте файл Excel и сохраните его в OneDrive для работы или учебного заведения или SharePoint. Затем вы создадите соединитель Power Automate, который загружает метаданные из потока данных в файл Excel в OneDrive для работы или учебного заведения или SharePoint. Наконец, вы подключаете файл Power BI к файлу Excel, чтобы визуализировать метаданные и начать мониторинг потоков данных.

Эту панель мониторинга можно использовать для мониторинга длительности обновления и количества сбоев потоков данных. С помощью этой панели мониторинга вы можете отслеживать любые проблемы с производительностью потоков данных и предоставлять доступ к данным другим пользователям.

Схема, на которой показан обзор загрузки данных через Excel.

Предпосылки

Скачайте .pbit файл

Сначала скачайте PBIT-файл.

Скачивание файла Excel и сохранение в OneDrive

Затем скачайте файл.xlsx и сохраните его в местоположение на OneDrive для работы или учебного заведения или SharePoint.

Создание потока данных

Если у вас еще нет, создайте поток данных. Поток данных можно создать в потоках данных Power BI или в потоках данных Power Apps.

Создание потока в Power Automate

  1. Перейдите в Power Automate.

  2. Выберите "Создать>автоматизированный облачный поток".

  3. Введите название потока, затем найдите соединитель "По завершении обновления потока данных". Выберите этот соединитель из списка и нажмите кнопку "Создать".

  4. Настройка соединителя. Введите следующие сведения о потоке данных:

    • Тип группы: выберите среду при подключении к Power Apps и рабочей области при подключении к Power BI.
    • Группа. Выберите среду Power Apps или рабочую область Power BI, в которой находится поток данных.
    • Поток данных: выберите поток данных по имени.
  5. Выберите новый шаг , чтобы добавить действие в поток.

  6. Найдите соединитель "Добавить строку в таблицу" из Excel Online (бизнес), а затем выберите его.

  7. Настройка соединителя. Введите расположение файла Excel и конкретную таблицу , в которые загружаются данные.

    • Расположение. Выберите расположение файла Excel в OneDrive для работы или учебного заведения или SharePoint.
    • Библиотека документов: выберите библиотеку файла Excel.
    • Файл. Выберите путь к файлу Excel.
    • Таблица: выберите "Dataflow_monitoring".

    Снимок экрана подключения Excel для добавления строки в таблицу, с полями, готовыми к заполнению.

  8. Добавьте динамические значения в обязательные поля.

    Для каждого обязательного поля необходимо добавить динамическое значение. Это значение представляет собой выходные данные метаданных запуска потока данных.

    1. Выберите поле рядом с dataflowname_name.

    2. Выберите имя потока данных из поля контекста динамического содержимого .

      Снимок экрана: добавление строки в соединитель таблицы с диалоговым окном выбора динамического содержимого.

    3. Повторите этот процесс для всех обязательных полей.

  9. Сохраните поток.

Создание отчета Power BI

  1. Откройте файл .pbit.

  2. Подключитесь к файлу Excel.

На этой панели мониторинга для каждого потока данных в указанном интервале времени можно отслеживать:

  • Длительность потока данных
  • Число потоков данных
  • Число сбоев потока данных

Слияние между именем потока данных и временем начала потока данных создает уникальный идентификатор для каждого потока данных.