Краткое руководство. Начало работы с Microsoft Foundry (проекты Центра) (классические)

Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry. Дополнительные сведения о новом портале.

Примечание

Содержание в новой документации Microsoft Foundry может открываться по ссылкам в этой статье вместо документации Foundry (классической версии), которую вы просматриваете сейчас.

Совет

Доступно альтернативное краткое руководство по проекту Foundry: Быстрый старт: Начало работы с проектами Microsoft Foundry (проекты Foundry).

В этом кратком руководстве описана настройка локальной среды для проектов на основе хабов, развертывание модели и создание простого оцениваемого чат-скрипта.

Необходимые условия

  • подписка Azure.
  • Существующий центральный проект (или создайте его). Если нет, попробуйте использовать быстрый старт проекта Foundry.

Настройка среды разработки

  1. Установите необходимые компоненты (Python, Azure CLI, имя входа).
  2. Установка пакетов:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Для разных типов проектов требуются разные версии Azure-AI-Projects. Сохраняйте каждый проект в отдельной изолированной среде, чтобы избежать конфликтов.

Развертывание модели

  1. Портал: войдите, откройте проект платформы.
  2. Каталог моделей: выберите gpt-4o-mini.
  3. Используйте эту модель > , чтобы принять имя > развертывания по умолчанию.
  4. После успешного выполнения: откройте на игровой площадке, чтобы проверить.

Создание приложения чата

Создайте chat.py с примером кода:

Совет

Код использует пакет SDK Azure AI Projects 1.x и несовместим с Azure проектами ИИ 2.x. Установите правильную версию azure-ai-projects==1.0.0b10 для использования с кодом в этой статье.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Вставьте строку подключения вашего проекта со страницы обзора проекта (скопируйте, замените заполнитель в коде).

Запустить:

python chat.py

Добавление шаблонов запроса

Добавьте get_chat_response с помощью шаблона Mustache (см. пример chat-template.py), и выполните вызов, используя сообщения пользователя/контекста.

Запустите еще раз, чтобы просмотреть шаблонный ответ.

Очистка ресурсов

Удалите развертывание или проект после завершения, во избежание расходов.

Следующий шаг

Быстрый старт: Начало работы с Foundry (проекты Foundry)