Поделиться через


Импорт API Foundry для Azure AI

ПРИМЕНЯЕТСЯ КО ВСЕМ уровням управления API

Конечные точки модели ИИ, развернутые в Azure AI Foundry, можно импортировать в экземпляр управления API в качестве API. Используйте политики шлюза ИИ и другие возможности в службе "Управление API", чтобы упростить интеграцию, улучшить наблюдаемость и повысить контроль над конечными точками модели.

Узнайте больше об управлении AI API в API Management.

Параметры совместимости клиента

Управление API поддерживает два варианта совместимости клиента для API ИИ. Выберите вариант, подходящий для развертывания модели. Параметр определяет, как клиенты вызывают API и как экземпляр управления API направляет запросы к службе ИИ.

  • Azure AI — управление конечными точками моделей в Azure AI Foundry, которые предоставляются через Azure AI Model Inference API.

    Клиенты вызывают развертывание в конечной точке /models , например /my-model/models/chat/completions. Имя развертывания передается в тексте запроса. Используйте этот параметр, если вам нужна гибкость для переключения между моделями, предоставляемыми через API инференции моделей ИИ Azure, и моделями, которые развернуты в Azure OpenAI и Foundry Models.

  • Azure OpenAI — управление конечными точками модели, развернутыми в Azure OpenAI.

    Клиенты вызывают развертывание в конечной точке /openai , например /openai/deployments/my-deployment/chat/completions. Имя развертывания передается в пути запроса. Используйте этот параметр, если ваша служба ИИ рассчитана только на развертывания моделей Azure OpenAI.

Предпосылки

  • Существующий экземпляр системы управления API. Создайте его, если у вас его нет.

  • Служба ИИ Azure в вашей подписке с развернутыми одной или несколькими моделями. Примеры включают модели, развернутые в Azure AI Foundry или Azure OpenAI.

Импорт API AI Foundry с помощью портала

Выполните следующие действия, чтобы импортировать API ИИ в управление API.

При импорте API Управление API автоматически настраивает:

  • Операции для каждой конечной точки REST API
  • Назначаемое системой удостоверение с необходимыми разрешениями для доступа к развертыванию службы искусственного интеллекта.
  • Ресурс бэкенд и политика set-backend-service, которые направляют запросы API к конечной точке службы ИИ.
  • Проверка подлинности на серверной части с помощью управляемого удостоверения, назначаемого системой экземпляра.
  • (необязательно) Политики, помогающие отслеживать API и управлять ими.

Чтобы импортировать API ИИ Foundry в управление API, вот что нужно сделать.

  1. Перейдите на портал Azure и откройте ваш экземпляр диспетчера API.

  2. В меню слева в разделе API выберите API>+ Добавить API.

  3. В разделе "Создание из ресурса Azure" выберите Azure AI Foundry.

    Снимок экрана: создание API, совместимого с OpenAI, на портале.

  4. На вкладке "Выбор службы ИИ" :

    1. Выберите подписку , в которой нужно искать службы ИИ. Чтобы получить сведения о развертываниях модели в службе, выберите ссылку развертывания рядом с именем службы. Снимок экрана развертываний службы искусственного интеллекта на портале.
    2. Выберите службу ИИ.
    3. Нажмите кнопку Далее.
  5. На вкладке "Настройка API" :

    1. Введите отображаемое имя и необязательное описание для API.

    2. В базовом пути введите путь, который используется экземпляром службы управления API для доступа к конечной точке развертывания.

    3. При необходимости выберите один или несколько продуктов для связывания с API.

    4. В случае совместимости клиента выберите один из следующих типов клиентов, которые вы планируете поддерживать. Дополнительные сведения см. в параметрах совместимости клиентов .

      • Azure OpenAI — выберите этот параметр, если клиентам требуется только доступ к развертываниям модели Azure OpenAI.
      • Azure AI — выберите этот параметр, если клиентам требуется доступ к другим моделям в Azure AI Foundry.
    5. Нажмите кнопку Далее.

      Снимок экрана: конфигурация API Foundry ai на портале.

  6. На вкладке "Управление потреблением маркеров " при необходимости введите параметры или примите значения по умолчанию, определяющие следующие политики, которые помогают отслеживать API и управлять ими:

  7. На вкладке "Применить семантический кэширование" при необходимости введите параметры или примите значения по умолчанию, определяющие политики, которые помогают оптимизировать производительность и сократить задержку для API:

  8. В безопасности содержимого ИИ при необходимости введите параметры или примите значения по умолчанию, чтобы настроить службу безопасности содержимого ИИ Azure, чтобы заблокировать запросы с небезопасным содержимым:

  9. Выберите Review.

  10. После проверки параметров нажмите кнопку "Создать".

Тестирование API ИИ

Чтобы убедиться, что API ИИ работает должным образом, протестируйте его в консоли тестирования управления API.

  1. Выберите API, созданный на предыдущем шаге.

  2. Откройте вкладку Тест.

  3. Выберите операцию, совместимую с развертыванием модели. На странице отображаются поля для параметров и заголовков.

  4. При необходимости введите параметры и заголовки. В зависимости от операции может потребоваться настроить или обновить текст запроса.

    Замечание

    В тестовой консоли Управление API автоматически заполняет заголовок Ocp-Apim-Subscription-Key и настраивает ключ подписки встроенной подписки с полным доступом. Этот ключ обеспечивает доступ ко всем API в экземпляре управления API. При необходимости отобразите заголовок Ocp-Apim-Subscription-Key, выбрав значок "глаз" рядом с HTTP-запросом.

  5. Выберите Отправить.

    При успешном выполнении теста серверная часть возвращает успешный HTTP-код ответа и некоторые данные. Добавлен к ответу данные об использовании маркеров, помогающие отслеживать потребление маркеров языковой модели и управлять ими.