Средство LLM для потоков на портале Microsoft Foundry (классический)

Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry. Дополнительные сведения о новом портале.

Примечание

Содержание в новой документации Microsoft Foundry может открываться по ссылкам в этой статье вместо документации Foundry (классической версии), которую вы просматриваете сейчас.

Предупреждение

Разработка функций потока запросов закончилась 20 апреля 2026 г. Функция будет полностью прекращена 20 апреля 2027 г. В дату выхода на пенсию, Prompt Flow переходит в режим только для чтения. Существующие потоки будут продолжать работать до этой даты.

Рекомендуемое действие: Перенесите рабочие нагрузки Prompt Flow на Microsoft Agent Framework до 20 апреля 2027 г.

Чтобы использовать большие языковые модели (LLM) для обработки естественного языка, используйте средство LLM потока запросов.

Совет

Сведения о встраивании для преобразования текста в плотные векторные представления для различных задач обработки естественного языка см. в инструменте "Встраивание".

Необходимые условия

Важно

Эта статья предоставляет устаревшую поддержку для проектов на основе концентраторов. Он не будет работать для проектов Foundry. Узнайте , какой у меня тип проекта?

примечание о совместимости SDK. Для примеров кода требуется определенная версия пакета SDK для Foundry Microsoft. При возникновении проблем совместимости рассмотрите возможность миграции из концентратора в проект Foundry.

Подготовьте запрос, как описано в документации инструмента подсказок. Инструменты LLM и Prompt поддерживают шаблоны Jinja. Дополнительные сведения и лучшие практики см. в статье «Методы работы с запросами».

Создавайте с использованием инструмента LLM

  1. Создайте или откройте поток в Microsoft Foundry. Дополнительные сведения см. в разделе "Создание потока".

  2. Выберите +LLM , чтобы добавить средство LLM в поток.

    Снимок экрана, на котором показан инструмент LLM, добавленный в поток на портале Foundry.

  3. Выберите подключение к одному из подготовленных ресурсов. Например, выберите Default_AzureOpenAI.

  4. В раскрывающемся списке Api выберите чат или завершение.

  5. Введите значения входных параметров средства LLM, описанных в таблице входных данных завершения текста. Если вы выбрали API чата , просмотрите таблицу входных данных чата. Если вы выбрали API завершения , просмотрите таблицу входных данных текста. Сведения о подготовке входных данных запроса см. в разделе "Предварительные требования".

  6. Добавьте больше инструментов в вашу схему по мере необходимости. Или нажмите кнопку "Выполнить" , чтобы запустить поток.

  7. Выходные данные описаны в таблице выходных данных.

Входы

Доступны следующие входные параметры.

Входные данные завершения текста

Имя Тип Описание Обязательно
Подсказка Строка Текстовый запрос для языковой модели. Да
модель, deployment_name Строка Используемая языковая модель. Да
максимальное количество токенов (max_tokens) Целое число Максимальное количество токенов для создания в процессе завершения. Значение по умолчанию — 16. Нет
Температура Плавать Случайность созданного текста. Значение по умолчанию — 1. Нет
Стоп Список Последовательность прекращения для сгенерированного текста. Значение по умолчанию равно NULL. Нет
Суффикс Строка Текст, добавленный к концу завершения. Нет
top_p Плавать Вероятность использования верхнего выбора из созданных токенов. Значение по умолчанию — 1. Нет
logprobs Целое число Количество логарифмических вероятностей для генерации. Значение по умолчанию равно NULL. Нет
Эхо булев Значение, указывающее, следует ли возвращать запрос в ответе. Значение по умолчанию — false. Нет
штраф_за_присутствие Плавать Значение, которое управляет поведением модели в отношении повторяющихся фраз. Значение по умолчанию — 0. Нет
частота_штрафа Плавать Значение, которое управляет поведением модели в отношении создания редких фраз. Значение по умолчанию — 0. Нет
лучший из Целое число Число лучших вариантов завершения для генерации. Значение по умолчанию — 1. Нет
логит_биас Словарь Предвзятость логита для языковой модели. По умолчанию используется пустой словарь. Нет

Входные данные чата

Имя Тип Описание Обязательно
Подсказка Строка Текстовый запрос, на который должна отвечать языковая модель. Да
модель, deployment_name Строка Используемая языковая модель. Да
максимальное количество токенов (max_tokens) Целое число Максимальное количество токенов для генерации в ответе. Значение по умолчанию — инф. Нет
Температура Плавать Случайность созданного текста. Значение по умолчанию — 1. Нет
Стоп Список Последовательность прекращения для сгенерированного текста. Значение по умолчанию равно NULL. Нет
top_p Плавать Вероятность использования верхнего выбора из созданных токенов. Значение по умолчанию — 1. Нет
штраф_за_присутствие Плавать Значение, которое управляет поведением модели в отношении повторяющихся фраз. Значение по умолчанию — 0. Нет
частота_штрафа Плавать Значение, которое управляет поведением модели в отношении создания редких фраз. Значение по умолчанию — 0. Нет
логит_биас Словарь Предвзятость логита для языковой модели. По умолчанию используется пустой словарь. Нет

Выходы

Выходные данные зависят от API, выбранного для входных данных.

Интерфейс прикладного программирования (API) Тип возвращаемого значения Описание
Завершение Строка Текст одного прогнозируемого завершения.
Чат Строка Текст одного ответа в разговоре.

Дальнейшие действия