Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Конечная точка аналитики SQL обеспечивает возможность выполнения запросов T-SQL только для чтения по таблицам Delta в вашем lakehouse. Каждый lakehouse автоматически подготавливает конечную точку аналитики SQL при создании— ничего дополнительного для настройки не требуется. За кулисами конечная точка SQL аналитики работает на том же движке, что и Fabric Data Warehouse, поэтому вы получаете SQL запросы с высокой производительностью и низкой задержкой без управления инфраструктурой.
Конечная точка SQL-аналитики не является уникальной для лейкхаусов. Другие элементы Fabric, включая warehouses, зеркальные базы данных, SQL базы данных и Azure Cosmos DB, также автоматически предоставляют конечную точку для аналитики SQL. Опыт и ограничения одинаковы для всех из них.
Что можно сделать
Конечная точка аналитики SQL работает в режиме только для чтения в таблицах Delta — вы не можете вставлять, обновлять или удалять данные через него. Чтобы изменить данные, перейдите в lakehouse и используйте Apache Spark.
В пределах этой границы, доступной только для чтения, можно:
- Запрос таблиц Delta с помощью T-SQL — выполняйте инструкции SELECT для любой таблицы Delta в вашем lakehouse, включая таблицы, доступные через ссылки на внешние хранилища Azure Data Lake Storage или Amazon S3.
- Создание представлений, функций и хранимых процедур — инкапсуляции бизнес-логики и повторно используемых шаблонов запросов в объектах T-SQL, которые сохраняются в конечной точке аналитики SQL.
- Применение безопасности на уровне строк и уровня объектов . Используйте детализированные разрешения SQL для управления таблицами , столбцами или строками, которые пользователи могут видеть.
- Создание отчетов Power BI — семантические модели Power BI могут подключаться к SQL-аналитическому конечному узлу через его конечную точку табличного потока данных (TDS), чтобы создавать отчеты на основе данных lakehouse.
- Запрос между рабочими областями . Используйте сочетания клавиш OneLake для ссылки на таблицы Delta в других озерах или хранилищах, а затем присоединить их к одному запросу. Дополнительные сценарии для нескольких рабочих пространств см. в статье "Лучше вместе: lakehouse и склад".
Примечание.
Внешние таблицы Delta, созданные с помощью кода Spark, не отображаются в конечной точке аналитики SQL. Используйте сочетания клавиш в разделе "Таблицы", чтобы сделать внешние таблицы delta видимыми. Чтобы узнать, как это сделать, см. статью "Создание ярлыка".
Доступ к конечной точке аналитики SQL
Конечную точку аналитики SQL можно открыть двумя способами:
- В рабочей области — в списке элементов рабочей области найдите элемент конечной точки аналитики SQL (он имеет то же имя, что и ваш lakehouse) и выберите его.
- В обозревателе Lakehouse — в правой верхней области ленты используйте раскрывающийся список для переключения в представление конечной точки аналитики SQL.
В любом случае откроется редактор запросов, где вы можете писать и выполнять запросы T-SQL для ваших таблиц Delta.
Безопасность
Правила безопасности SQL, заданные в конечной точке аналитики SQL, применяются только при доступе к данным через конечную точку. Они не применяются при доступе к тем же данным с помощью Spark или других средств.
Чтобы защитить данные, выполните приведенные далее действия.
- Задайте SQL детализированные разрешения на конечной точке SQL-аналитики, чтобы контролировать доступ к определенным таблицам, столбцам или строкам.
- Задайте роли и разрешения рабочей области, чтобы контролировать, кто может получить доступ к озеру данных и его информации через другие пути.
Дополнительные сведения о модели безопасности см. в статье " Безопасность OneLake" для конечных точек аналитики SQL.
Автоматическая синхронизация метаданных
При создании или обновлении таблицы Delta в lakehouse конечная точка аналитики SQL автоматически обнаруживает изменения и обновляет метаданные SQL — определения таблиц, типы столбцов и статистику. Нет шага импорта и не требуется ручной синхронизации.
Этот фоновый процесс считывает журналы Delta из /Tables папки в OneLake и сохраняет схему SQL в актуальном состоянии. Дополнительные сведения о работе этой синхронизации и факторах, влияющих на задержку синхронизации, см. в рекомендациях по производительности конечных точек аналитики SQL.
Повторная подготовка
Если конечная точка аналитики SQL не развертывается при создании озерохранилища, вы можете повторить попытку непосредственно с домашней страницы Озерохранилища без его повторного создания.
Примечание.
Повторная настройка может так же завершиться неудачей, как и начальная настройка. Если повторные попытки завершаются сбоем, обратитесь в службу поддержки.
Ограничения
Конечная точка аналитики SQL использует ту же систему, что и Fabric Data Warehouse, и они имеют одинаковые ограничения. Полный список см. в разделе "Ограничения конечной точки аналитики SQL".