Поделиться через


Что такое конечная точка аналитики SQL для lakehouse?

Конечная точка аналитики SQL обеспечивает возможность выполнения запросов T-SQL только для чтения по таблицам Delta в вашем lakehouse. Каждый lakehouse автоматически подготавливает конечную точку аналитики SQL при создании— ничего дополнительного для настройки не требуется. За кулисами конечная точка SQL аналитики работает на том же движке, что и Fabric Data Warehouse, поэтому вы получаете SQL запросы с высокой производительностью и низкой задержкой без управления инфраструктурой.

Конечная точка SQL-аналитики не является уникальной для лейкхаусов. Другие элементы Fabric, включая warehouses, зеркальные базы данных, SQL базы данных и Azure Cosmos DB, также автоматически предоставляют конечную точку для аналитики SQL. Опыт и ограничения одинаковы для всех из них.

Скриншот конечной точки аналитики SQL для озера данных, показывающий редактор запросов и список таблиц.

Что можно сделать

Конечная точка аналитики SQL работает в режиме только для чтения в таблицах Delta — вы не можете вставлять, обновлять или удалять данные через него. Чтобы изменить данные, перейдите в lakehouse и используйте Apache Spark.

В пределах этой границы, доступной только для чтения, можно:

  • Запрос таблиц Delta с помощью T-SQL — выполняйте инструкции SELECT для любой таблицы Delta в вашем lakehouse, включая таблицы, доступные через ссылки на внешние хранилища Azure Data Lake Storage или Amazon S3.
  • Создание представлений, функций и хранимых процедур — инкапсуляции бизнес-логики и повторно используемых шаблонов запросов в объектах T-SQL, которые сохраняются в конечной точке аналитики SQL.
  • Применение безопасности на уровне строк и уровня объектов . Используйте детализированные разрешения SQL для управления таблицами , столбцами или строками, которые пользователи могут видеть.
  • Создание отчетов Power BI — семантические модели Power BI могут подключаться к SQL-аналитическому конечному узлу через его конечную точку табличного потока данных (TDS), чтобы создавать отчеты на основе данных lakehouse.
  • Запрос между рабочими областями . Используйте сочетания клавиш OneLake для ссылки на таблицы Delta в других озерах или хранилищах, а затем присоединить их к одному запросу. Дополнительные сценарии для нескольких рабочих пространств см. в статье "Лучше вместе: lakehouse и склад".

Примечание.

Внешние таблицы Delta, созданные с помощью кода Spark, не отображаются в конечной точке аналитики SQL. Используйте сочетания клавиш в разделе "Таблицы", чтобы сделать внешние таблицы delta видимыми. Чтобы узнать, как это сделать, см. статью "Создание ярлыка".

Доступ к конечной точке аналитики SQL

Конечную точку аналитики SQL можно открыть двумя способами:

  • В рабочей области — в списке элементов рабочей области найдите элемент конечной точки аналитики SQL (он имеет то же имя, что и ваш lakehouse) и выберите его.
  • В обозревателе Lakehouse — в правой верхней области ленты используйте раскрывающийся список для переключения в представление конечной точки аналитики SQL.

В любом случае откроется редактор запросов, где вы можете писать и выполнять запросы T-SQL для ваших таблиц Delta.

Безопасность

Правила безопасности SQL, заданные в конечной точке аналитики SQL, применяются только при доступе к данным через конечную точку. Они не применяются при доступе к тем же данным с помощью Spark или других средств.

Чтобы защитить данные, выполните приведенные далее действия.

  • Задайте SQL детализированные разрешения на конечной точке SQL-аналитики, чтобы контролировать доступ к определенным таблицам, столбцам или строкам.
  • Задайте роли и разрешения рабочей области, чтобы контролировать, кто может получить доступ к озеру данных и его информации через другие пути.

Дополнительные сведения о модели безопасности см. в статье " Безопасность OneLake" для конечных точек аналитики SQL.

Автоматическая синхронизация метаданных

При создании или обновлении таблицы Delta в lakehouse конечная точка аналитики SQL автоматически обнаруживает изменения и обновляет метаданные SQL — определения таблиц, типы столбцов и статистику. Нет шага импорта и не требуется ручной синхронизации.

Этот фоновый процесс считывает журналы Delta из /Tables папки в OneLake и сохраняет схему SQL в актуальном состоянии. Дополнительные сведения о работе этой синхронизации и факторах, влияющих на задержку синхронизации, см. в рекомендациях по производительности конечных точек аналитики SQL.

Повторная подготовка

Если конечная точка аналитики SQL не развертывается при создании озерохранилища, вы можете повторить попытку непосредственно с домашней страницы Озерохранилища без его повторного создания.

Снимок экрана, показывающий опцию повторной подготовки конечной точки аналитики SQL в lakehouse.

Примечание.

Повторная настройка может так же завершиться неудачей, как и начальная настройка. Если повторные попытки завершаются сбоем, обратитесь в службу поддержки.

Ограничения

Конечная точка аналитики SQL использует ту же систему, что и Fabric Data Warehouse, и они имеют одинаковые ограничения. Полный список см. в разделе "Ограничения конечной точки аналитики SQL".