Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry.
Дополнительные сведения о новом портале.
Примечание
Содержание в новой документации Microsoft Foundry может открываться по ссылкам в этой статье вместо документации Foundry (классической версии), которую вы просматриваете сейчас.
Предупреждение
Разработка функций потока запросов закончилась 20 апреля 2026 г. Функция будет полностью прекращена 20 апреля 2027 г. В дату выхода на пенсию, Prompt Flow переходит в режим только для чтения. Существующие потоки будут продолжать работать до этой даты.
Рекомендуемое действие: Перенесите рабочие нагрузки Prompt Flow на Microsoft Agent Framework до 20 апреля 2027 г.
Чтобы использовать большие языковые модели (LLM) для обработки естественного языка, используйте средство LLM потока запросов.
Совет
Сведения о встраивании для преобразования текста в плотные векторные представления для различных задач обработки естественного языка см. в инструменте "Встраивание".
Необходимые условия
Важно
Эта статья предоставляет устаревшую поддержку для проектов на основе концентраторов. Он не будет работать для проектов Foundry. Узнайте , какой у меня тип проекта?
примечание о совместимости SDK. Для примеров кода требуется определенная версия пакета SDK для Foundry Microsoft. При возникновении проблем совместимости рассмотрите возможность миграции из концентратора в проект Foundry.
- Учетная запись Azure с активной подпиской. Если у вас нет, создайте учетную запись free Azure, которая включает бесплатную пробную подписку.
- Если у вас нет одного, создайте проект на основе концентратора.
Подготовьте запрос, как описано в документации инструмента подсказок. Инструменты LLM и Prompt поддерживают шаблоны Jinja. Дополнительные сведения и лучшие практики см. в статье «Методы работы с запросами».
Создавайте с использованием инструмента LLM
Создайте или откройте поток в Microsoft Foundry. Дополнительные сведения см. в разделе "Создание потока".
Выберите +LLM , чтобы добавить средство LLM в поток.
Выберите подключение к одному из подготовленных ресурсов. Например, выберите Default_AzureOpenAI.
В раскрывающемся списке Api выберите чат или завершение.
Введите значения входных параметров средства LLM, описанных в таблице входных данных завершения текста. Если вы выбрали API чата , просмотрите таблицу входных данных чата. Если вы выбрали API завершения , просмотрите таблицу входных данных текста. Сведения о подготовке входных данных запроса см. в разделе "Предварительные требования".
Добавьте больше инструментов в вашу схему по мере необходимости. Или нажмите кнопку "Выполнить" , чтобы запустить поток.
Выходные данные описаны в таблице выходных данных.
Входы
Доступны следующие входные параметры.
Входные данные завершения текста
| Имя | Тип | Описание | Обязательно |
|---|---|---|---|
| Подсказка | Строка | Текстовый запрос для языковой модели. | Да |
| модель, deployment_name | Строка | Используемая языковая модель. | Да |
| максимальное количество токенов (max_tokens) | Целое число | Максимальное количество токенов для создания в процессе завершения. Значение по умолчанию — 16. | Нет |
| Температура | Плавать | Случайность созданного текста. Значение по умолчанию — 1. | Нет |
| Стоп | Список | Последовательность прекращения для сгенерированного текста. Значение по умолчанию равно NULL. | Нет |
| Суффикс | Строка | Текст, добавленный к концу завершения. | Нет |
| top_p | Плавать | Вероятность использования верхнего выбора из созданных токенов. Значение по умолчанию — 1. | Нет |
| logprobs | Целое число | Количество логарифмических вероятностей для генерации. Значение по умолчанию равно NULL. | Нет |
| Эхо | булев | Значение, указывающее, следует ли возвращать запрос в ответе. Значение по умолчанию — false. | Нет |
| штраф_за_присутствие | Плавать | Значение, которое управляет поведением модели в отношении повторяющихся фраз. Значение по умолчанию — 0. | Нет |
| частота_штрафа | Плавать | Значение, которое управляет поведением модели в отношении создания редких фраз. Значение по умолчанию — 0. | Нет |
| лучший из | Целое число | Число лучших вариантов завершения для генерации. Значение по умолчанию — 1. | Нет |
| логит_биас | Словарь | Предвзятость логита для языковой модели. По умолчанию используется пустой словарь. | Нет |
Входные данные чата
| Имя | Тип | Описание | Обязательно |
|---|---|---|---|
| Подсказка | Строка | Текстовый запрос, на который должна отвечать языковая модель. | Да |
| модель, deployment_name | Строка | Используемая языковая модель. | Да |
| максимальное количество токенов (max_tokens) | Целое число | Максимальное количество токенов для генерации в ответе. Значение по умолчанию — инф. | Нет |
| Температура | Плавать | Случайность созданного текста. Значение по умолчанию — 1. | Нет |
| Стоп | Список | Последовательность прекращения для сгенерированного текста. Значение по умолчанию равно NULL. | Нет |
| top_p | Плавать | Вероятность использования верхнего выбора из созданных токенов. Значение по умолчанию — 1. | Нет |
| штраф_за_присутствие | Плавать | Значение, которое управляет поведением модели в отношении повторяющихся фраз. Значение по умолчанию — 0. | Нет |
| частота_штрафа | Плавать | Значение, которое управляет поведением модели в отношении создания редких фраз. Значение по умолчанию — 0. | Нет |
| логит_биас | Словарь | Предвзятость логита для языковой модели. По умолчанию используется пустой словарь. | Нет |
Выходы
Выходные данные зависят от API, выбранного для входных данных.
| Интерфейс прикладного программирования (API) | Тип возвращаемого значения | Описание |
|---|---|---|
| Завершение | Строка | Текст одного прогнозируемого завершения. |
| Чат | Строка | Текст одного ответа в разговоре. |