Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry.
Дополнительные сведения о новом портале.
Примечание
Содержание в новой документации Microsoft Foundry может открываться по ссылкам в этой статье вместо документации Foundry (классической версии), которую вы просматриваете сейчас.
Совет
Доступно альтернативное краткое руководство по проекту Foundry: Быстрый старт: Начало работы с проектами Microsoft Foundry (проекты Foundry).
В этом кратком руководстве описана настройка локальной среды для проектов на основе хабов, развертывание модели и создание простого оцениваемого чат-скрипта.
Необходимые условия
- подписка Azure.
- Существующий центральный проект (или создайте его). Если нет, попробуйте использовать быстрый старт проекта Foundry.
Настройка среды разработки
- Установите необходимые компоненты (Python, Azure CLI, имя входа).
- Установка пакетов:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Для разных типов проектов требуются разные версии Azure-AI-Projects. Сохраняйте каждый проект в отдельной изолированной среде, чтобы избежать конфликтов.
Развертывание модели
- Портал: войдите, откройте проект платформы.
- Каталог моделей: выберите gpt-4o-mini.
- Используйте эту модель > , чтобы принять имя > развертывания по умолчанию.
- После успешного выполнения: откройте на игровой площадке, чтобы проверить.
Создание приложения чата
Создайте chat.py с примером кода:
Совет
Код использует пакет SDK Azure AI Projects 1.x и несовместим с Azure проектами ИИ 2.x. Установите правильную версию azure-ai-projects==1.0.0b10 для использования с кодом в этой статье.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Вставьте строку подключения вашего проекта со страницы обзора проекта (скопируйте, замените заполнитель в коде).
Запустить:
python chat.py
Добавление шаблонов запроса
Добавьте get_chat_response с помощью шаблона Mustache (см. пример chat-template.py), и выполните вызов, используя сообщения пользователя/контекста.
Запустите еще раз, чтобы просмотреть шаблонный ответ.
Очистка ресурсов
Удалите развертывание или проект после завершения, во избежание расходов.