Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry.
Дополнительные сведения о новом портале.
Замечание
Некоторые ссылки в этой статье могут открывать содержимое в новой документации Microsoft Foundry, а не в классической версии Foundry, которую вы просматриваете сейчас.
Подсказка
Доступно альтернативное быстрое руководство для Foundry projects: Начало работы с проектами Microsoft Foundry (Foundry projects).
В этом кратком руководстве описывается настройка локальной среды для проектов на основе концентраторов, развертывание модели и создание простого скрипта трассировки или оцениваемого чата.
Предпосылки
- подписка Azure.
- Существующий концентратор проект (или создайте его). Если нет, рассмотрите возможность использования проекта Foundry для быстрого старта.
Настройка среды разработки
- Установите необходимые компоненты (Python, Azure CLI, имя входа).
- Установка пакетов:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Для различных типов проектов требуются разные версии azure-ai-projects. Держите каждый проект в собственной изолированной среде, чтобы избежать конфликтов.
Развертывание модели
- Портал: войти в портал, открыть проект хаба.
- Каталог моделей: выберите gpt-4o-mini.
- Используйте эту модель >, чтобы она приняла имя развертывания по умолчанию >.
- После успешного выполнения: откройте на игровой площадке, чтобы проверить.
Создание приложения чата
Создайте chat.py с примером кода:
Подсказка
Код использует пакет SDK для Azure AI Projects 1.x и несовместим с Azure AI Projects 2.x. Установите правильную версию azure-ai-projects==1.0.0b10 для использования с кодом в этой статье.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Вставьте строку подключения проекта из страницы обзора проекта (скопируйте, замените заполнитель в коде).
Запуск:
python chat.py
Добавить шаблоны подсказок
Добавьте get_chat_response с помощью шаблона Mustache (см. пример chat-template.py), а затем вызовите с сообщениями пользователя или контекста.
Запустите еще раз, чтобы просмотреть шаблонный ответ.
Очистите ресурсы
Удалите развертывание или проект по завершении, чтобы избежать расходов.