Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
ПРИМЕНЯЕТСЯ КО ВСЕМ уровням управления API
Конечные точки языковой модели, совместимые с OpenAI, можно импортировать в экземпляр службы управления API в качестве API. Вы также можете импортировать языковые модели, которые несовместимы с OpenAI, в качестве посреднического API, который перенаправляют запросы непосредственно на внутренние конечные точки. Например, вы можете управлять LLM, размещенным на локальном узле или размещенным в поставщике вывода, отличном от служб ИИ Azure. Используйте политики шлюза ИИ и другие возможности в службе "Управление API", чтобы упростить интеграцию, улучшить наблюдаемость и повысить контроль над конечными точками модели.
Узнайте больше об управлении AI API в API Management.
Типы API языковой модели
Управление API поддерживает два типа API языковой модели для этого сценария. Выберите вариант, подходящий для развертывания модели. Параметр определяет, как клиенты вызывают API и как экземпляр управления API направляет запросы к службе ИИ.
Совместимая с OpenAI — конечные точки языковой модели, совместимые с API OpenAI. Примеры включают в себя некоторые модели, предоставляемые поставщиками инференции, такими как Hugging Face Text Generation Inference (TGI) и API Google Gemini.
Для LLM, совместимой с OpenAI, API Management настраивает точку завершения чата.
Сквозное руководство . Другие конечные точки языковой модели, несовместимые с API OpenAI. Примеры включают модели, развернутые в Amazon Bedrock или других поставщиках.
Управление API настраивает подстановочные знаки для распространенных http-команд. Клиенты могут добавлять пути к операциям подстановочных знаков, а система управления API передает запросы на бэкенд.
Предпосылки
- Существующий экземпляр системы управления API. Создайте его, если у вас его нет.
- Локальное развертывание языковой модели, не предоставляемой Azure, с конечной точкой API.
Импорт API языковой модели с помощью портала
При импорте API LLM на портале управление API автоматически настраивает:
- Внутренний ресурс и политика set-backend-service, которые направляют запросы API к конечной точке LLM.
- (необязательно) Доступ к серверной части LLM с помощью предоставленного ключа доступа. Ключ защищен как секретное именованное значение в службе управления API.
- (необязательно) Политики, помогающие отслеживать API и управлять ими.
Чтобы импортировать API языковой модели в управление API, выполните следующие действия.
Перейдите на портал Azure и откройте ваш экземпляр диспетчера API.
В меню слева в разделе API выберите API>+ Добавить API.
В разделе "Определение нового API" выберите API языковой модели.
На вкладке "Настройка API" :
- Введите отображаемое имя и необязательное описание для API.
- Введите URL-адрес конечной точки API LLM.
- При необходимости выберите один или несколько продуктов для связывания с API.
- В path добавьте путь, который используется экземпляром службы управления API для доступа к конечным точкам API LLM.
- В поле "Тип" выберите "Создать API OpenAI" или "Создать сквозной API". Дополнительные сведения см. в разделе "Типы API языковой модели ".
- В поле Access key введите имя заголовка авторизации и ключ API, используемые для доступа к API LLM, если это необходимо.
- Нажмите кнопку Далее.
На вкладке "Управление потреблением маркеров " при необходимости введите параметры или примите значения по умолчанию, определяющие следующие политики, которые помогают отслеживать API и управлять ими:
На вкладке "Применить семантический кэширование" при необходимости введите параметры или примите значения по умолчанию, определяющие политики, которые помогают оптимизировать производительность и сократить задержку для API:
В безопасности содержимого ИИ при необходимости введите параметры или примите значения по умолчанию, чтобы настроить службу безопасности содержимого ИИ Azure, чтобы заблокировать запросы с небезопасным содержимым:
Выберите Review.
После проверки параметров нажмите кнопку "Создать".
Управление API создает API и настраивает операции для конечных точек LLM. По умолчанию ДЛЯ API требуется подписка на управление API.
Тестирование API LLM
Чтобы убедиться, что API LLM работает должным образом, протестируйте его в консоли тестирования УПРАВЛЕНИЯ API.
Выберите API, созданный на предыдущем шаге.
Откройте вкладку Тест.
Выберите операцию, совместимую с развертыванием модели. На странице отображаются поля для параметров и заголовков.
При необходимости введите параметры и заголовки. В зависимости от операции может потребоваться настроить или обновить текст запроса.
Замечание
В тестовой консоли Управление API автоматически заполняет заголовок Ocp-Apim-Subscription-Key и настраивает ключ подписки встроенной подписки с полным доступом. Этот ключ обеспечивает доступ ко всем API в экземпляре управления API. При необходимости отобразите заголовок Ocp-Apim-Subscription-Key, выбрав значок "глаз" рядом с HTTP-запросом.
Выберите Отправить.
При успешном выполнении теста серверная часть возвращает успешный HTTP-код ответа и некоторые данные. Добавлен к ответу данные об использовании маркеров, помогающие отслеживать потребление маркеров языковой модели и управлять ими.