Настройка запросов с помощью вариантов на классическом портале Microsoft Foundry

Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry. Дополнительные сведения о новом портале.

Примечание

Содержание в новой документации Microsoft Foundry может открываться по ссылкам в этой статье вместо документации Foundry (классической версии), которую вы просматриваете сейчас.

Предупреждение

Разработка функций потока запросов закончилась 20 апреля 2026 г. Функция будет полностью прекращена 20 апреля 2027 г. В дату выхода на пенсию, Prompt Flow переходит в режим только для чтения. Существующие потоки будут продолжать работать до этой даты.

Рекомендуемое действие: Перенесите рабочие нагрузки Prompt Flow на Microsoft Agent Framework до 20 апреля 2027 г.

В этой статье вы узнаете, как использовать варианты для настройки запросов и оценки производительности различных вариантов.

Создание хорошего запроса является сложной задачей, которая требует много творчества, ясности и релевантности. Хороший запрос может вызвать требуемые выходные данные из предварительно обученной языковой модели, в то время как неправильный запрос может привести к неточным, неуместным или нечувствительных выходных данных. Поэтому необходимо настроить запросы на оптимизацию производительности и надежности для различных задач и доменов.

Варианты могут помочь вам протестировать поведение модели в различных условиях, таких как различные слова, форматирование, контекст, температура или top-k. Вы можете сравнить и найти лучший запрос и конфигурацию, которая обеспечивает максимальную точность, разнообразие или согласованность модели.

Важно

Эта статья предоставляет устаревшую поддержку для проектов на основе концентраторов. Он не будет работать для проектов Foundry. Узнайте , какой у меня тип проекта?

примечание о совместимости SDK. Для примеров кода требуется определенная версия пакета SDK для Foundry Microsoft. При возникновении проблем совместимости рассмотрите возможность миграции из концентратора в проект Foundry.

Варианты в потоке запроса

С помощью потока запросов можно использовать варианты для настройки запроса. Вариант ссылается на определенную версию узла средства с различными параметрами. В настоящее время варианты поддерживаются только в средстве LLM. Например, в средстве LLM новый вариант может представлять другое содержимое запроса или разные параметры подключения.

Предположим, вы хотите создать сводку новостной статьи. Вы можете задать различные варианты запросов и параметров, как показано ниже.

Варианты Командная строка Параметры подключения
Вариант 0 Summary: {{input sentences}} Температура = 1
Вариант 1 Summary: {{input sentences}} Температура = 0,7
Вариант 2 What is the main point of this article? {{input sentences}} Температура = 1
Вариант 3 What is the main point of this article? {{input sentences}} Температура = 0,7

Используя различные варианты запросов и параметров, вы можете изучить, как модель реагирует на различные входные и выходные данные, что позволяет обнаруживать наиболее подходящее сочетание для ваших требований.

Преимущества использования вариантов:

  • Повышение качества создания LLM: создавая несколько вариантов одного узла LLM с различными запросами и конфигурациями, вы можете определить оптимальное сочетание, которое создает высококачественное содержимое в соответствии с вашими потребностями.
  • Экономия времени и усилий. Даже незначительные изменения в запросе могут дать различные результаты. Важно отслеживать и сравнивать производительность каждой версии запроса. С помощью вариантов можно легко управлять историческими версиями узлов LLM, упрощая обновления на основе любого варианта без риска забыть предыдущие итерации. Варианты позволяют сэкономить время и усилия при управлении историей подстройки подсказок.
  • Повышение производительности. Варианты упрощают процесс оптимизации для узлов LLM, что упрощает создание нескольких вариантов и управление ими. Вы можете добиться улучшенных результатов за меньшее время, тем самым увеличивая общую производительность.
  • Упрощение сравнения. Вы можете легко сравнить результаты, полученные из разных вариантов параллельно, что позволяет принимать решения на основе данных относительно варианта, который создает лучшие результаты.

Как настроить подсказки с помощью вариантов?

В этой статье мы используем пример потока веб-классификации в качестве примера.

  1. Откройте пример потока и сначала удалите узел prepare_examples как начальный шаг.
    1. В разделе "Сборка и настройка" выберите поток запроса.
    2. Выберите "Создать", чтобы открыть мастер создания потока.
    3. В галерее потоков в разделе «Обзор коллекции» в поле «Веб-классификация» выберите «Клонировать».
    4. На вкладке потока удалите узел prepare_examples .
  2. Используйте следующую строку в качестве базового запроса на узле classify_with_llm .
Your task is to classify a given url into one of the following types:
Movie, App, Academic, Channel, Profile, PDF or None based on the text content information.
The classification will be based on the url, the webpage text content summary, or both.

For a given URL : {{url}}, and text content: {{text_content}}.
Classify above url to complete the category and indicate evidence.

The output should be in this format: {"category": "App", "evidence": "Both"} 
OUTPUT:

Для оптимизации этого потока может быть несколько способов, и ниже приведены два направления.

  • Для узла classify_with_llm: я узнал из сообщества и научных статей, что более низкая температура дает более высокую точность, но меньше творчества и сюрприза, поэтому более низкая температура подходит для задач классификации. Также использование нескольких примеров для подсказок может повысить производительность LLM. Таким образом, я хотел бы проверить, как функционирует мой поток выполнения, когда температура изменяется с 1 до 0, и когда запрос с несколькими примерами.

  • Для узла summarize_text_content : я также хочу проверить поведение потока при изменении сводки с 100 слов на 300, чтобы узнать, может ли больше текстового содержимого помочь повысить производительность.

Создание вариантов

  1. Нажмите кнопку "Показать варианты" в правом верхнем углу узла LLM. Существующий узел LLM variant_0 является вариантом по умолчанию.
  2. Нажмите кнопку "Клонировать" на variant_0, чтобы создать variant_1, затем можно настроить параметры на разные значения или обновить запрос в variant_1.
  3. Повторите шаг, чтобы создать дополнительные варианты.
  4. Выберите "Скрыть варианты", чтобы остановить добавление дополнительных вариантов. Все варианты сложены. Вариант по умолчанию отображается для узла.

Для узла classify_with_llm на основе variant_0:

  • Создайте variant_1, где температура изменяется с 1 до 0.
  • Создайте variant_2, где температура составляет 0, и можно использовать следующий запрос, включая примеры с несколькими выстрелами.
Your task is to classify a given url into one of the following types:
Movie, App, Academic, Channel, Profile, PDF or None based on the text content information.
The classification will be based on the url, the webpage text content summary, or both.

Here are a few examples:

URL: https://play.google.com/store/apps/details?id=com.spotify.music 
Text content: Spotify is a free music and podcast streaming app with millions of songs, albums, and original podcasts. It also offers audiobooks, so users can enjoy thousands of stories. It has a variety of features such as creating and sharing music playlists, discovering new music, and listening to popular and exclusive podcasts. It also has a Premium subscription option which allows users to download and listen offline, and access ad-free music. It is available on all devices and has a variety of genres and artists to choose from. 
OUTPUT: {"category": "App", "evidence": "Both"} 
        
URL: https://www.youtube.com/channel/UC_x5XG1OV2P6uZZ5FSM9Ttw 
Text content: NFL Sunday Ticket is a service offered by Google LLC that allows users to watch NFL games on YouTube. It is available in 2023 and is subject to the terms and privacy policy of Google LLC. It is also subject to YouTube's terms of use and any applicable laws. 
OUTPUT: {"category": "Channel", "evidence": "URL"} 
        
URL: https://arxiv.org/abs/2303.04671 
Text content: Visual ChatGPT is a system that enables users to interact with ChatGPT by sending and receiving not only languages but also images, providing complex visual questions or visual editing instructions, and providing feedback and asking for corrected results. It incorporates different Visual Foundation Models and is publicly available. Experiments show that Visual ChatGPT opens the door to investigating the visual roles of ChatGPT with the help of Visual Foundation Models. 
OUTPUT: {"category": "Academic", "evidence": "Text content"} 
        
URL: https://ab.politiaromana.ro/ 
Text content: There is no content available for this text. 
OUTPUT: {"category": "None", "evidence": "None"}
        
For a given URL : {{url}}, and text content: {{text_content}}.
Classify above url to complete the category and indicate evidence.
OUTPUT:    

Для узла summarize_text_content, на основе variant_0, можно создать variant_1, где слова в запросе 100 words меняются на 300.

Теперь поток выглядит следующим образом: 2 варианта для summarize_text_content узла и 3 для classify_with_llm узла.

Выполнение всех вариантов с одной строкой данных и проверка выходных данных

Чтобы убедиться, что все варианты могут успешно выполняться и работать должным образом, можно запустить поток с одной строкой данных для тестирования.

Примечание

Каждый раз можно выбрать только один узел LLM с вариантами для выполнения, а другие узлы LLM будут использовать вариант по умолчанию.

В этом примере мы настраиваем варианты для summarize_text_content узла и classify_with_llm узла, поэтому необходимо выполнить два раза, чтобы протестировать все варианты.

  1. Нажмите кнопку "Запустить " в правом верхнем углу.
  2. Выберите узел LLM с вариантами. Другие узлы LLM используют вариант по умолчанию.
  3. Отправьте запуск потока.
  4. После завершения выполнения потока можно проверить соответствующий результат для каждого варианта.
  5. Отправьте другой запуск потока с другим узлом LLM с вариантами и проверьте выходные данные.
  6. Можно изменить другие входные данные (например, использовать URL-адрес страницы Википедии) и повторить описанные выше действия, чтобы протестировать варианты для различных данных.

Оценка вариантов

При выполнении вариантов с несколькими отдельными фрагментами данных и проверке результатов с ненамным глазом он не может отражать сложность и разнообразие реальных данных, тем временем выходные данные не измеримы, поэтому трудно сравнить эффективность различных вариантов, а затем выбрать лучшее.

Можно отправить пакетное выполнение, что позволяет протестировать варианты с большим объемом данных и оценить их с помощью метрик, чтобы помочь вам найти наиболее подходящий вариант.

  1. Сначала необходимо подготовить набор данных, который является весьма репрезентативным для реальной задачи, которую вы хотите решить с помощью Prompt flow. В этом примере приведен список URL-адресов и их эталон классификации. Мы используем точность для оценки производительности вариантов.

  2. Выберите "Оценить" в правом верхнем углу страницы и выберите "Настраиваемая оценка".

  3. Происходит мастер настройки пакетного запуска и оценки. Первым шагом является выбор узла для выполнения всех его вариантов.

    Чтобы проверить, как работают разные варианты для каждого узла в потоке, необходимо запустить пакетный запуск для каждого узла с вариантами по одному. Это помогает избежать влияния вариантов других узлов и сосредоточиться на результатах вариантов этого узла. Это следует правилу управляемого эксперимента, что означает, что вы изменяете только одну вещь одновременно и сохраняете все остальное.

    Например, можно выбрать узел classify_with_llm для выполнения всех вариантов, summarize_text_content узел использует вариант по умолчанию для этого пакетного запуска.

  4. Далее в параметрах пакетного запуска можно задать имя пакетного запуска, выбрать среду выполнения, отправить подготовленные данные.

  5. Затем в параметрах оценки выберите метод оценки.

    Так как этот поток предназначен для классификации, можно выбрать метод оценки точности классификации для оценки точности.

    Точность вычисляется путем сравнения прогнозируемых меток, назначенных потоком (прогнозированием) с фактическими метками данных (земная истина) и подсчетом количества их совпадений.

    В разделе сопоставления входных данных оценки необходимо указать эталонные данные из столбца категорий входного набора данных, а предсказание исходит из одного из выходных данных потока: категория.

  6. После просмотра всех параметров можно отправить пакетный запуск.

  7. После отправки запуска выберите ссылку, перейдите на страницу сведений о выполнении.

Примечание

Выполнение может занять несколько минут.

Визуализация выходных данных

  1. После завершения выполнения пакетных выполнений и оценки на странице сведений о запуске выберите несколько пакетных выполнений для каждого варианта, а затем выберите Визуализировать выходные данные. Вы увидите метрики трех вариантов для узла classify_with_llm и спрогнозированные выходные данные LLM для каждой записи данных.
  2. После определения лучшего варианта можно вернуться на страницу разработки потока и задать этот вариант как вариант по умолчанию узла.
  3. Чтобы также оценить варианты summarize_text_content узла, можно повторить описанные выше действия.

Теперь вы завершили процесс настройки запросов с помощью вариантов. Этот метод можно применить к собственному потоку запроса, чтобы найти лучший вариант для узла LLM.

Дальнейшие действия