Поделиться через


Конечные точки для моделей Azure AI Foundry

Модели Azure AI Foundry позволяют клиентам использовать самые мощные модели от флагманов поставщиков моделей с помощью одной конечной точки и учетных данных. Это означает, что можно переключаться между моделями и использовать их из приложения, не изменяя одну строку кода.

В этой статье объясняется, как модели организованы внутри службы и как использовать конечную точку вывода для их вызова.

Развертывания

Azure AI Foundry делает модели доступными с помощью концепции развертывания . Развертывания — это способ присвоения модели имени в определенных конфигурациях. Затем можно вызвать такую конфигурацию модели, указав ее имя в запросах.

Фиксация развертываний

  • Имя модели
  • Версия модели
  • Тип обеспечения/мощности1
  • Конфигурацияфильтрации содержимого 1
  • Конфигурация ограничения частоты запросов1

1 Конфигурации могут отличаться в зависимости от выбранной модели.

Ресурс Azure AI Foundry может иметь столько развертываний моделей, сколько необходимо, и расходы не возникают, если не производится вывод данных для этих моделей. Развертывания — это ресурсы Azure, поэтому они подчиняются политикам Azure.

Дополнительные сведения о создании развертываний см. в статье "Добавление и настройка развертываний моделей".

Конечные точки

Службы Azure AI Foundry Services (ранее известные службы ИИ Azure) предоставляют несколько конечных точек в зависимости от типа работы, которую вы ищете:

  • Конечная точка вывода искусственного интеллекта Azure (обычно с формой https://<resource-name>.services.ai.azure.com/models)
  • Конечная точка Azure OpenAI (обычно с формой https://<resource-name>.openai.azure.com)

Конечная точка вывода искусственного интеллекта Azure позволяет клиентам использовать одну конечную точку с той же проверкой подлинности и схемой для создания вывода для развернутых моделей в ресурсе. Все модели поддерживают эту возможность. Эта конечная точка следует API вывода модели ИИ Azure.

API OpenAI Azure предоставляет все возможности моделей OpenAI и поддерживает дополнительные функции, такие как помощники, потоки, файлы и пакетное вывод. Модели, отличные от OpenAI, также могут быть представлены в этом маршруте.

Для получения дополнительной информации о том, как применять конечную точку Azure OpenAI, смотрите документацию Azure OpenAI в моделях Azure AI Foundry.

Использование конечной точки вывода искусственного интеллекта Azure

Конечная точка вывода направляет запросы к заданному развертыванию, сопоставляя параметр name внутри запроса с именем развертывания. Это означает, что развёртывания выполняют функцию псевдонима данной модели в определённых конфигурациях. Эта гибкость позволяет развертывать определенную модель несколько раз в службе, но в разных конфигурациях при необходимости.

Иллюстрация, показывающая, как работает маршрутизация для модели Meta-llama-3.2-8b-instruct, с указанием этого имени в параметре

Например, если создать развертывание с именем Mistral-large, такое развертывание можно вызвать следующим образом:

Установите пакет azure-ai-inference с помощью диспетчера пакетов, например pip:

pip install azure-ai-inference

Затем можно использовать пакет для использования модели. В следующем примере показано, как создать клиент, чтобы использовать завершение чата.

import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)

Ознакомьтесь с нашими примерами и ознакомьтесь со справочной документацией по API, чтобы приступить к работе.

Для модели чата можно создать запрос следующим образом:

from azure.ai.inference.models import SystemMessage, UserMessage

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
    ],
    model="mistral-large"
)

print(response.choices[0].message.content)

Если указать имя модели, не соответствующее определенному развертыванию модели, вы получите сообщение об ошибке, что модель не существует. Вы можете управлять тем, какие модели доступны пользователям, создавая развертывания моделей, как описано при добавлении и настройке развертываний моделей.

Проверка подлинности без ключа

Модели, развернутые в моделях Azure AI Foundry в Службах ИИ Azure, поддерживают авторизацию без ключей с помощью идентификатора Microsoft Entra. Авторизация без ключей повышает безопасность, упрощает взаимодействие с пользователем, снижает операционную сложность и обеспечивает надежную поддержку соответствия современным разработкам. Это делает его надежным выбором для организаций, внедряющих безопасные и масштабируемые решения по управлению удостоверениями.

Чтобы использовать проверку подлинности без ключей, настройте ресурс и предоставьте пользователям доступ к выводу. После настройки можно выполнить проверку подлинности следующим образом:

Установите пакет azure-ai-inference с помощью диспетчера пакетов, например pip:

pip install azure-ai-inference

Затем можно использовать пакет для использования модели. В следующем примере показано, как создать клиент для работы с завершениями чата с Entra ID.

import os
from azure.ai.inference import ChatCompletionsClient
from azure.identity import DefaultAzureCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=DefaultAzureCredential(),
    credential_scopes=["https://cognitiveservices.azure.com/.default"],
)

Ограничения

  • Пакетная обработка Azure OpenAI не может использоваться с конечной точкой Foundry Models. Необходимо использовать выделенный URL-адрес развертывания, как описано в документации по пакетному API Azure OpenAI.
  • API в режиме реального времени не поддерживается в конечной точке инференции. Используйте URL-адрес специального развертывания.

Следующие шаги