Поделиться через


Краткое руководство: Начало работы с Microsoft Foundry (проекты Хаба) (классические)

Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry. Дополнительные сведения о новом портале.

Замечание

Некоторые ссылки в этой статье могут открывать содержимое в новой документации Microsoft Foundry, а не в классической версии Foundry, которую вы просматриваете сейчас.

Подсказка

Доступно альтернативное быстрое руководство для Foundry projects: Начало работы с проектами Microsoft Foundry (Foundry projects).

В этом кратком руководстве описывается настройка локальной среды для проектов на основе концентраторов, развертывание модели и создание простого скрипта трассировки или оцениваемого чата.

Предпосылки

  • подписка Azure.
  • Существующий концентратор проект (или создайте его). Если нет, рассмотрите возможность использования проекта Foundry для быстрого старта.

Настройка среды разработки

  1. Установите необходимые компоненты (Python, Azure CLI, имя входа).
  2. Установка пакетов:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Для различных типов проектов требуются разные версии azure-ai-projects. Держите каждый проект в собственной изолированной среде, чтобы избежать конфликтов.

Развертывание модели

  1. Портал: войти в портал, открыть проект хаба.
  2. Каталог моделей: выберите gpt-4o-mini.
  3. Используйте эту модель >, чтобы она приняла имя развертывания по умолчанию >.
  4. После успешного выполнения: откройте на игровой площадке, чтобы проверить.

Создание приложения чата

Создайте chat.py с примером кода:

Подсказка

Код использует пакет SDK для Azure AI Projects 1.x и несовместим с Azure AI Projects 2.x. Установите правильную версию azure-ai-projects==1.0.0b10 для использования с кодом в этой статье.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Вставьте строку подключения проекта из страницы обзора проекта (скопируйте, замените заполнитель в коде).

Запуск:

python chat.py

Добавить шаблоны подсказок

Добавьте get_chat_response с помощью шаблона Mustache (см. пример chat-template.py), а затем вызовите с сообщениями пользователя или контекста.

Запустите еще раз, чтобы просмотреть шаблонный ответ.

Очистите ресурсы

Удалите развертывание или проект по завершении, чтобы избежать расходов.

Следующий шаг

Быстрый старт: Начало работы с Foundry (проекты Foundry).