Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
В настоящее время просмотр:Версия портала Foundry (классическая версия) - Переключиться на версию для нового портала Foundry
Узнайте, как настроить модели в Microsoft Foundry для наборов данных и вариантов использования. Позволяет точно настроить:
- Более качественные результаты, чем те, которые вы можете получить только от инженерия подсказок.
- Возможность обработки большего количества примеров, чем позволяют ограничения контекста запроса модели.
- Экономия токенов благодаря более коротким запросам.
- Запросы с низкой задержкой, особенно когда вы используете более небольшие модели.
В отличие от обучения с малым количеством примеров, тонкая настройка улучшает модель, обучая её на большем числе примеров, чем те, что помещаются в запросе. Так как весы адаптируются к задаче, вы включаете меньше примеров или инструкций. Сокращение количества токенов на вызов потенциально снижает затраты и задержки.
Мы используем низкоранговую адаптацию (LoRA) для точной настройки моделей таким образом, чтобы снизить их сложность, не влияя на их производительность. Этот метод работает, приближая исходную матрицу высокого ранга к матрице с более низким рангом. Тонкая настройка меньшего подмножества важных параметров во время фазы контролируемого обучения делает модель более управляемой и эффективной. Для пользователей это также делает обучение быстрее и более доступным, чем другие методы.
В этой статье описано, как:
- Выберите подходящие наборы данных и форматы для точной настройки.
- Запустите задание тонкой настройки, отслеживайте состояние и получайте результаты.
- Развертывание и оценка точно настроенной модели.
- Очистите ресурсы, если они больше не нужны.
На портале Microsoft Foundry есть два уникальных способа настройки.
- Hub или представление проекта: поддерживает модели точной настройки от нескольких поставщиков, таких как Azure OpenAI, Meta Llama и Microsoft Phi.
Центрированный на Azure OpenAI взгляд : поддерживает только тонкую настройку моделей Azure OpenAI, но имеет поддержку дополнительных функций, таких как интеграция с предварительной версиейWeights & Biases (W&B) . Если вы только дорабатываете модели Azure OpenAI, мы рекомендуем этот опыт.
Важно
Элементы, помеченные (предварительная версия) в этой статье, в настоящее время находятся в общедоступной предварительной версии. Эта предварительная версия предоставляется без соглашения об уровне обслуживания, и мы не рекомендуем ее для рабочих нагрузок. Некоторые функции могут не поддерживаться или могут иметь ограниченные возможности. Дополнительные сведения см. в разделе Supplemental Terms of Use for Microsoft Azure Previews.
Необходимые условия
- Прочитайте руководство по использованию тонкой настройки Azure OpenAI.
- Вам нужна Azure подписка. Создайте его бесплатно.
- Требуется ресурс Azure OpenAI, расположенный в регионе с поддержкой настройки модели Azure OpenAI. Список доступных моделей по регионам и поддерживаемым функциям см. в сводной таблице модели и доступности регионов. Дополнительные сведения см. в разделе Создание ресурса и развертывание модели с помощью Azure OpenAI.
- Для настройки требуется роль Azure AI Owner. Хотя пользователи Azure AI могут обучать (точно настраивать) модели, развертывать их могут только владельцы AI.
- Если у вас еще нет доступа к просмотру квот и развертыванию моделей на портале Foundry, вам потребуется больше разрешений.
Поддерживаемые модели
Чтобы проверить, какие регионы в настоящее время поддерживают точную настройку, ознакомьтесь со статьей о моделях.
Или можно дополнительно настроить ранее настроенную модель, отформатированную как base-model.ft-{jobid}.
Просмотр рабочего процесса на портале Foundry
Выполните обзор процесса тонкой настройки при работе с порталом Foundry:
- Подготовьте данные обучения и проверки.
- Используйте диалоговое окно "Создание точно настроенной модели" на портале Foundry для обучения пользовательской модели.
- Выберите метод обучения.
- Выберите базовую модель.
- Выберите тип обучения.
- Выберите тренировочные данные.
- При необходимости выберите данные проверки.
- При необходимости настройте параметры запуска для работы по тонкой настройке.
- При необходимости включите автоматическое развертывание для результирующей пользовательской модели.
- Просмотрите ваш выбор и обучите вашу новую специализированную модель.
- Проверьте статус вашей модели, настроенной под индивидуальные нужды.
- Разверните настраиваемую модель для использования.
- Используйте настраиваемую модель.
- При необходимости проанализируйте настраиваемую модель для оценки производительности и соответствия.
Приготовьте данные для обучения и валидации
Наборы данных для обучения и проверки состоят из примеров входных и выходных данных о том, как вы хотите, чтобы модель выполняла свои функции.
Используемые данные обучения и проверки должны быть отформатированы в виде документа JSON Lines (JSONL). Он также должен быть отформатирован в формате беседы, который использует API завершения чата .
Помимо формата JSONL, файлы данных обучения и проверки должны быть закодированы в UTF-8 и включать метку порядка байтов (BOM). Размер каждого файла должен быть меньше 512 МБ.
Как правило, мы рекомендуем использовать инструкции и запросы, которые, по вашему мнению, оказались наиболее эффективными в каждом обучающем примере. Этот подход помогает получить лучшие результаты, особенно если у вас меньше сотни примеров.
Пример формата файла
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who discovered Antarctica?"}, {"role": "assistant", "content": "Some chaps named Fabian Gottlieb von Bellingshausen and Mikhail Lazarev, as if they don't teach that in every school!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the biggest ocean?"}, {"role": "assistant", "content": "The Pacific Ocean. It's not like it's a small pond or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest planet?"}, {"role": "assistant", "content": "It's called Jupiter, you might have heard of it...or not."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who painted the Mona Lisa?"}, {"role": "assistant", "content": "Oh, some obscure artist named Leonardo da Vinci. Not that he is famous or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the boiling point of water?"}, {"role": "assistant", "content": "Exciting fact of the day: it's 100 degrees Celsius. Life-changing, isn't it?"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'The Odyssey'?"}, {"role": "assistant", "content": "Oh, just some poet named Homer. Nothing special, really."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest mammal?"}, {"role": "assistant", "content": "Blue Whale. Quite a big fish isn't it? Oh wait, it's not a fish!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the highest mountain peak?"}, {"role": "assistant", "content": "Everest. Brace yourself, it's not a walk in the park."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who invented the telephone?"}, {"role": "assistant", "content": "A guy named Alexander Graham Bell. Bet you didn't guess that one!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the distance from Earth to the Sun?"}, {"role": "assistant", "content": "About 93 million miles. Just a quick drive, really."}]}
Формат файла многократного чата для Azure OpenAI
Кроме того, поддерживаются несколько поворотов беседы в одной строке файла обучения JSONL. Чтобы пропустить точную настройку для определённых сообщений ассистента, добавьте необязательную пару «ключ-значение» weight. В настоящее время weight можно задать значение 0 или 1.
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the capital/major city of France?"}, {"role": "assistant", "content": "Paris", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Paris, as if everyone doesn't know that already.", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'Romeo and Juliet'?"}, {"role": "assistant", "content": "William Shakespeare", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Oh, just some guy named William Shakespeare. Ever heard of him?", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "How far is the Moon from Earth?"}, {"role": "assistant", "content": "384,400 kilometers", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Around 384,400 kilometers. Give or take a few, like that really matters.", "weight": 1}]}
Завершение чата с помощью визуального зрения
{"messages": [{"role": "user", "content": [{"type": "text", "text": "What's in this image?"}, {"type": "image_url", "image_url": {"url": "https://raw.githubusercontent.com/MicrosoftDocs/azure-ai-docs/main/articles/ai-services/openai/media/how-to/generated-seattle.png"}}]}, {"role": "assistant", "content": "The image appears to be a watercolor painting of a city skyline, featuring tall buildings and a recognizable structure often associated with Seattle, like the Space Needle. The artwork uses soft colors and brushstrokes to create a somewhat abstract and artistic representation of the cityscape."}]}
Рекомендации по размеру набора данных
Чем больше примеров обучения у вас есть, тем лучше. Задания точной настройки не будут продолжаться без не менее 10 примеров обучения, но такого небольшого числа недостаточно, чтобы заметно повлиять на ответы модели. Рекомендуется для успешной донастройки предоставить сотни или даже тысячи обучающих образцов. Рекомендуется начать с 50 хорошо созданных примеров.
Как правило, удвоение размера набора данных может привести к линейному увеличению качества модели. Но помните, что примеры низкого качества могут негативно повлиять на производительность. Если вы обучаете модель на большом объеме внутренних данных без предварительной обрезки набора до оставления только наиболее качественных примеров, модель может работать хуже, чем ожидалось.
Создайте точно настроенную модель
Портал Foundry предоставляет диалоговое окно Создать точно настроенную модель, чтобы создать и обучить точно настроенную модель для ресурса Azure в одном месте.
Перейдите на портал Foundry и войдите с учетными данными, имеющими доступ к ресурсу OpenAI Azure. Во время процесса входа в систему выберите соответствующий каталог, подписку Azure и ресурс Azure OpenAI.
Перейдите в раздел"Точное настройка>", а затем выберите модель точной настройки.
Выберите модель для точной настройки и нажмите кнопку "Далее".
Откроется диалоговое окно "Создание точно настроенной модели ".
Выбор метода обучения
Первым шагом является подтверждение выбора модели и метода обучения. Не все модели поддерживают все методы обучения.
- Под контролем выполняемая донастройка: поддерживается всеми моделями, не основанными на выводах.
- Оптимизация прямых предпочтений (предварительная версия): поддерживается GPT-4o.
- Точная настройка с подкреплением: поддерживается моделями рассуждений, такими как o4-mini.
При выборе модели можно также выбрать ранее настраиваемую модель, как описано далее в этой статье.
Выбор типа обучения
Foundry предлагает три уровня обучения для удовлетворения потребностей клиентов.
Уровень обучения "Стандартный"
Уровень "Стандартный" предоставляет выделенную емкость для точной настройки с прогнозируемой производительностью и соглашениями об уровне обслуживания. Это идеально подходит для рабочих нагрузок, требующих гарантированной пропускной способности.
Глобальный уровень обучения уровня "Стандартный"
Глобальный уровень обучения увеличивает доступность настройки модели с более доступными ценами на другие глобальные продукты. Он не предлагает региональное хранение данных. Если вам нужна резиденция данных, см. список доступных регионов для выбранной модели.
Данные обучения и результирующие веса модели могут быть скопированы в другой регион Azure.
При использовании этого уровня можно:
- Обучить последние модели OpenAI из более чем десятка регионов Azure OpenAI.
- Получите выгоду от более низких тарифов на обучение за один токен по сравнению с уровнем 'Стандарт'.
Уровень обучения разработчика
Уровень разработчика — это экономичный вариант, который использует простой мощностей для несрочных или исследовательских рабочих нагрузок. Задания на этом уровне могут быть приостановлены и возобновлены позже, поэтому он идеально подходит для экспериментов и экономически чувствительных вариантов использования.
Выбор обучающих данных
Следующим шагом является выбор существующих подготовленных обучающих данных или отправка новых подготовленных обучающих данных для использования при настройке модели, нажав кнопку "Добавить обучающие данные".
В диалоговом окне "Обучающие данные" отображаются все существующие ранее загруженные наборы данных. Он также предоставляет возможности для отправки новых обучающих данных.
Если данные обучения уже отправлены в службу, выберите "Файлы" из ресурса Подключенного искусственного интеллекта. Затем выберите файл из раскрывающегося списка.
Чтобы отправить новые обучающие данные, используйте один из следующих вариантов:
- Выберите " Отправить файлы " для отправки обучающих данных из локального файла.
- Выберите Azure Blob или другое общее веб-расположение для импорта обучающих данных из Azure Blob-хранилища или другого общего веб-расположения.
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут стать нестабильными при загрузке через многосоставные формы, так как запросы являются атомарными и не могут быть повторно отправлены или возобновлены. Дополнительные сведения о Хранилище BLOB-объектов см. в разделе Что такое Хранилище BLOB-объектов Azure?.
Выберите данные проверки (необязательно)
Если у вас есть набор данных проверки, выберите "Добавить обучающие данные". Вы можете выбрать существующие подготовленные данные проверки или отправить новые подготовленные данные проверки для использования при настройке модели.
В диалоговом окне "Данные проверки " отображаются все существующие ранее загруженные наборы данных для обучения и проверки. Он также предоставляет варианты отправки новых данных проверки.
Если данные проверки уже отправлены в службу, выберите "Выбрать набор данных". Затем выберите файл из раскрывающегося списка.
Чтобы отправить новые данные проверки, используйте один из следующих вариантов:
- Выберите локальный файл для отправки данных проверки из локального файла.
- Выберите объект Azure Blob или другие общие веб-расположения для импорта данных проверки из хранилища Azure Blob или другого общего веб-расположения.
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут стать нестабильными при загрузке через многосоставные формы, так как запросы являются атомарными и не могут быть повторно отправлены или возобновлены.
Сделать модель идентифицируемой (необязательно)
Мы рекомендуем включить suffix параметр, чтобы проще различать итерации вашей точно настроенной модели. Параметр suffix принимает строку до 18 символов и используется для именования полученной точно настроенной модели.
Настройка параметров обучения (необязательно)
Вы можете предоставить дополнительное начальное значение и настроить дополнительные гиперпараметры.
Семя контролирует воспроизводимость задачи. Передача одинаковых значений семени и параметров заданий должна приводить к одному и тому же результату, но в редких случаях результат может различаться. Если вы не указываете семя, оно создается случайным образом.
Для настройки на портале Foundry доступны следующие гиперпараметры:
| Имя | Тип | Описание |
|---|---|---|
| Размер пакета | Целое число | Размер пакета, используемый для обучения. Размер пакета — это количество примеров обучения, используемых для обучения одного и обратного прохода. Как правило, мы обнаружили, что большие размеры пакетов, как правило, лучше работают для больших наборов данных. Значение по умолчанию и максимальное значение этого свойства относятся к базовой модели. Более крупный размер пакета означает, что параметры модели обновляются реже, но с более низкой дисперсией. |
| Умножение скорости обучения | Номер | Коэффициент для скорости обучения, используемый при тренировке. Скорость обучения для точной настройки — это исходная скорость обучения, используемая для предварительного обучения, увеличенная на указанное значение. Более высокие скорости обучения, как правило, лучше работают с большими размерами батчей. Мы рекомендуем экспериментировать со значениями в диапазоне от 0,02 до 0,2 , чтобы увидеть, что дает лучшие результаты. Меньший темп обучения может оказаться полезным, чтобы избежать переобучения. |
| Число эпох | Целое число | Количество эпох для обучения модели. Эпоха – это один полный проход через обучающий набор данных. |
Включение автоматического развертывания (необязательно)
Чтобы сэкономить время, можно дополнительно включить автоматическое развертывание для результирующей модели. Если обучение завершится успешно, модель развертывается в соответствии с выбранным типом развертывания. Имя развертывания формируется на основе уникального имени, сгенерированного для вашей пользовательской модели, и необязательного суффикса, который вы могли указать ранее.
Примечание
В настоящее время для автоматического развертывания поддерживаются только развертывания Global Standard и Developer. Ни в чем из этих вариантов не предусмотрено размещение данных. Дополнительные сведения см. в документации по типам развертывания.
Просмотрите варианты и обучите модель
Просмотрите выбранные варианты и нажмите кнопку "Отправить ", чтобы начать обучение новой точно настроенной модели.
Проверка состояния пользовательской модели
После отправки задания тонкой настройки откроется страница со сведениями о вашей точно настроенной модели. Состояние и дополнительные сведения о настраиваемой модели можно найти на странице точной настройки на портале Foundry.
Ваше задание может находиться в очереди за другими заданиями в системе. Обучение модели может занять несколько минут или часов в зависимости от размера модели и набора данных.
Создание контрольных точек
После завершения каждой эпохи обучения создается контрольная точка. Контрольная точка — это полностью функциональная версия модели, которая может быть развернута и использована в качестве целевой модели для последующих заданий точной настройки.
Контрольные точки могут быть особенно полезными, так как они могут предоставлять моментальные снимки до переподбора. После завершения задания точной настройки у вас есть три последних версии модели, доступные для развертывания. С помощью REST API можно скопировать контрольные точки между ресурсами и подписками.
Приостановка и возобновление
Вы можете отслеживать ход выполнения в обоих детальных представлениях портала Foundry. Задание проходит через те же состояния, что и обычные задания тонкой настройки (в очереди, в процессе выполнения, выполнено успешно).
Вы также можете просмотреть файлы результатов во время обучения, чтобы получить представление о ходе выполнения и убедиться, что обучение проходит так, как ожидается.
Во время обучения можно просмотреть метрики и приостановить задание по мере необходимости. Приостановка может быть полезной, если метрики не сходятся или если вы считаете, что модель обучается не в правильном темпе. При приостановке задания обучения развертываемая контрольная точка создается после завершения оценки безопасности. Эта контрольная точка доступна для развертывания и использования для вывода или возобновления выполнения задания. Операция приостановки применима только для заданий, для которых произошло обучение как минимум одного шага и которые находятся в процессе выполнения.
Анализ пользовательской модели
Azure OpenAI присоединяет файл результатов с именем results.csv к каждому заданию тонкой настройки после завершения. Вы можете использовать файл результатов для анализа производительности обучения и проверки пользовательской модели. Идентификатор файла результата указан для каждой пользовательской модели в столбце идентификатора файла результатов на панели "Модели " портала Foundry. Идентификатор файла можно использовать для идентификации и скачивания файла результатов на панели файлов данных на портале Foundry.
Результатом является CSV-файл, содержащий строку заголовка и строку для каждого этапа обучения, выполняемого в задаче тонкой настройки. Результирующий файл содержит следующие столбцы:
| Имя столбца | Описание |
|---|---|
step |
Количество шага обучения. Шаг обучения представляет собой один проход вперед и назад в пакете обучающих данных. |
train_loss |
Потеря для обучаемого пакета. |
train_mean_token_accuracy |
Процент токенов в пакете обучения, которую модель правильно предсказала. Например, если размер пакета установлен на 3 и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
valid_loss |
Потеря пакета проверки. |
validation_mean_token_accuracy |
Процент токенов в проверочном пакете, которые модель правильно предсказала. Например, если размер пакета установлен на 3 и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
full_valid_loss |
Потеря проверки, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, потеря должна уменьшиться. |
full_valid_mean_token_accuracy |
Действительная средняя точность токена, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, точность токенов должна увеличиться. |
Вы также можете просмотреть данные в results.csv файле как графики на портале Foundry. При выборе ссылки для обученной модели отображаются три диаграммы: ошибка, средняя точность токена и точность токена. Если вы предоставили данные проверки, оба набора данных отображаются на одном графике.
Ожидайте, что ваша ошибка будет снижаться с течением времени, а точность увеличиваться. Если ваши данные обучения и проверки различаются, возможно, вы можете переобучиться. Попробуйте проводить обучение с меньшим количеством эпох или меньшим множителем скорости обучения.
Развертывание точно настроенной модели
Если вы удовлетворены метриками задачи тонкой настройки или просто хотите перейти к стадии выведения, необходимо развернуть модель.
Если вы развертываете для дальнейшей проверки, рассмотрите возможность развертывания для тестирования с помощью развертывания в разработческой среде.
Если вы готовы к развертыванию в рабочей среде или у вас есть определенные требования к размещению данных, следуйте руководству по развертыванию.
Использование развернутой точно настроенной модели
После развертывания тюнингованной модели её можно использовать как любую другую развернутую модель. Вы можете использовать детскую площадку в Foundry для экспериментов с новым развертыванием. Вы также можете использовать REST API для вызова вашей точно настроенной модели из собственного приложения. Вы можете даже начать использовать эту новую точно настроенную модель в потоках заданий для создания генеративного приложения ИИ.
Примечание
Для моделей чата системное сообщение, которое вы используете для управления точно настроенной моделью (развернутой или доступной для тестирования на детской площадке), должно совпадать с системным сообщением, используемым для обучения. Если вы используете другое системное сообщение, модель может не выполняться должным образом.
Выполнение непрерывной точной настройки
После создания точно настроенной модели может потребоваться продолжить уточнение модели с течением времени с помощью дальнейшей тонкой настройки. Непрерывная итеративная настройка — это итеративный процесс выбора уже настраиваемой модели в качестве базовой модели и последующей настройки новых наборов примеров обучения.
Для точной настройки модели, которую вы ранее настроили, используйте тот же процесс, который описан в разделе "Создание точно настроенной модели". Но вместо указания имени универсальной базовой модели можно указать уже настроенную модель. Настраиваемая модель выглядит следующим образом gpt-4o-2024-08-06.ft-d93dda6110004b4da3472d96f4dd4777-ft.
Очистка развертываний, пользовательских моделей и файлов обучения
Если вам больше не нужна ваша настраиваемая модель, вы можете удалить её внедрение и саму модель. Вы также можете удалить файлы обучения и проверки, отправленные в службу при необходимости.
Удалите развертывание модели
Важно
После развертывания настраиваемой модели, если развертывание в любое время остается неактивным в течение более 15 дней, развертывание удаляется. Развертывание настраиваемой модели неактивно, если модель была развернута более 15 дней назад и в течение непрерывного 15-дневного периода не выполнялись вызовы API на завершение чата или вызовы API получения ответов.
Удаление неактивного развертывания не влияет на базовую настраиваемую модель. Настраиваемая модель может быть развернута в любое время.
Как описано в ценообразовании модели Azure OpenAI в Microsoft Foundry, каждая кастомизированная (тонко настроенная) модель, которая развертывается, требует почасовой оплаты за размещение, независимо от того, проводятся ли завершения чата или делаются вызовы к API модели. Дополнительные сведения о планировании и управлении затратами на Azure OpenAI см. в статье Plan и управление затратами на Azure OpenAI.
Развертывание настраиваемой модели можно удалить на панели "Развертывания " на портале Foundry. Выберите развертывание для удаления и нажмите «Удалить».
Удалите пользовательскую модель
Вы можете удалить пользовательскую модель в разделе «Модели» на портале Foundry. Выберите пользовательскую модель для удаления на вкладке "Настраиваемые модели " и нажмите кнопку "Удалить".
Примечание
Вы не можете удалить пользовательскую модель, если она имеет существующее развертывание. Вы должны удалить развертывание модели перед тем, как сможете удалить свою пользовательскую модель.
Удаление обучающих файлов
При необходимости можно удалить файлы обучения и проверки, отправленные для обучения, а также файлы результатов, созданные во время обучения, на панели "Данные управления>и индексы " на портале Foundry. Выберите файл для удаления и нажмите кнопку "Удалить".
Необходимые условия
- Прочитайте руководство по использованию тонкой настройки Azure OpenAI.
- Вам нужна Azure подписка. Создайте его бесплатно.
- Вам требуется ресурс Azure OpenAI. Дополнительные сведения см. в разделе Создание ресурса и развертывание модели с помощью Azure OpenAI.
- Необходимы следующие библиотеки Python:
os,json,requests,openai. - Вам нужна библиотека OpenAI Python.
- Для настройки требуется роль Azure AI Owner. Хотя пользователи Azure AI могут обучать и дообучать модели, их могут развертывать только владельцы ИИ.
- Если у вас еще нет доступа к просмотру квот и развертыванию моделей на портале Foundry, вам потребуется больше разрешений.
Поддерживаемые модели
Чтобы проверить, какие регионы в настоящее время поддерживают точную настройку, ознакомьтесь со статьей о моделях.
Или можно дополнительно настроить ранее настроенную модель, отформатированную как base-model.ft-{jobid}.
Просмотр рабочего процесса для пакета SDK для Python
Просмотрите рабочий процесс тонкой настройки для использования пакета SDK Python с Azure OpenAI:
- Подготовьте данные обучения и проверки.
- Выберите базовую модель.
- Отправьте данные обучения.
- Обучите новую настраиваемую модель.
- Проверьте состояние настраиваемой модели.
- Разверните настраиваемую модель для использования.
- Используйте настраиваемую модель.
- При необходимости проанализируйте кастомизированную модель для оценки её производительности и соответствия.
Приготовьте данные для обучения и валидации
Наборы данных для обучения и проверки состоят из примеров входных и выходных данных о том, как вы хотите, чтобы модель выполняла свои функции.
Используемые данные обучения и проверки должны быть отформатированы в виде документа JSON Lines (JSONL). Он также должен быть отформатирован в формате беседы, который использует API завершения чата .
Помимо формата JSONL, файлы данных обучения и проверки должны быть закодированы в UTF-8 и включать метку порядка байтов (BOM). Размер каждого файла должен быть меньше 512 МБ.
Если вы хотите пошаговое руководство по настройке gpt-4o-mini-2024-07-18, ознакомьтесь с руководством по настройке Azure OpenAI.
Пример формата файла
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who discovered Antarctica?"}, {"role": "assistant", "content": "Some chaps named Fabian Gottlieb von Bellingshausen and Mikhail Lazarev, as if they don't teach that in every school!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the biggest ocean?"}, {"role": "assistant", "content": "The Pacific Ocean. It's not like it's a small pond or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest planet?"}, {"role": "assistant", "content": "It's called Jupiter, you might have heard of it...or not."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who painted the Mona Lisa?"}, {"role": "assistant", "content": "Oh, some obscure artist named Leonardo da Vinci. Not that he is famous or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the boiling point of water?"}, {"role": "assistant", "content": "Exciting fact of the day: it's 100 degrees Celsius. Life-changing, isn't it?"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'The Odyssey'?"}, {"role": "assistant", "content": "Oh, just some poet named Homer. Nothing special, really."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest mammal?"}, {"role": "assistant", "content": "Blue Whale. Quite a big fish, isn't it? Oh wait, it's not a fish!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the highest mountain peak?"}, {"role": "assistant", "content": "Everest. Brace yourself, it's not a walk in the park."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who invented the telephone?"}, {"role": "assistant", "content": "A guy named Alexander Graham Bell. Bet you didn't guess that one!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the distance from Earth to the Sun?"}, {"role": "assistant", "content": "About 93 million miles. Just a quick drive, really."}]}
Формат файла чата с несколькими поворотами
Кроме того, поддерживаются несколько поворотов беседы в одной строке файла обучения JSONL. Чтобы пропустить точную настройку для определённых сообщений ассистента, добавьте необязательную пару «ключ-значение» weight. В настоящее время weight можно задать значение 0 или 1.
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the capital/major city of France?"}, {"role": "assistant", "content": "Paris", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Paris, as if everyone doesn't know that already.", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'Romeo and Juliet'?"}, {"role": "assistant", "content": "William Shakespeare", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Oh, just some guy named William Shakespeare. Ever heard of him?", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "How far is the Moon from Earth?"}, {"role": "assistant", "content": "384,400 kilometers", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Around 384,400 kilometers. Give or take a few, like that really matters.", "weight": 1}]}
Завершение чата с помощью визуального зрения
{"messages": [{"role": "user", "content": [{"type": "text", "text": "What's in this image?"}, {"type": "image_url", "image_url": {"url": "https://raw.githubusercontent.com/MicrosoftDocs/azure-ai-docs/main/articles/ai-services/openai/media/how-to/generated-seattle.png"}}]}, {"role": "assistant", "content": "The image appears to be a watercolor painting of a city skyline, featuring tall buildings and a recognizable structure often associated with Seattle, like the Space Needle. The artwork uses soft colors and brushstrokes to create a somewhat abstract and artistic representation of the cityscape."}]}
Создание наборов данных для обучения и проверки
Чем больше примеров обучения у вас есть, тем лучше. Задания точной настройки не будут продолжаться без не менее 10 примеров обучения, но такого небольшого числа недостаточно, чтобы заметно повлиять на ответы модели. Рекомендуется для успешной донастройки предоставить сотни или даже тысячи обучающих образцов.
Как правило, удвоение размера набора данных может привести к линейному увеличению качества модели. Но помните, что примеры низкого качества могут негативно повлиять на производительность. Если вы обучаете модель на большом объеме внутренних данных без предварительной обрезки набора до оставления только наиболее качественных примеров, модель может работать хуже, чем ожидалось.
Отправка обучающих данных
Следующим шагом является выбор существующих подготовленных обучающих данных или отправка новых подготовленных обучающих данных для использования при настройке модели. После подготовки обучающих данных вы можете передать файлы в службу. Существует два способа отправки обучающих данных:
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут стать нестабильными при загрузке через многосоставные формы, так как запросы являются атомарными и не могут быть повторно отправлены или возобновлены. Дополнительные сведения о Хранилище BLOB-объектов см. в разделе Что такое Хранилище BLOB-объектов Azure?.
Следующий Python пример отправляет локальные файлы обучения и проверки с помощью пакета SDK Python и извлекает возвращенные идентификаторы файлов:
import os
from openai import OpenAI
# Load the OpenAI client
client = OpenAI(
api_key = os.getenv("AZURE_OPENAI_API_KEY"),
base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/"
)
# Upload the training and validation dataset files to Microsoft Foundry with the SDK.
training_file_name = 'training_set.jsonl'
validation_file_name = 'validation_set.jsonl'
training_response = client.files.create(file=open(training_file_name, "rb"), purpose="fine-tune")
validation_response = client.files.create(file=open(validation_file_name, "rb"), purpose="fine-tune")
training_file_id = training_response.id
validation_file_id = validation_response.id
print("Training file ID:", training_file_id)
print("Validation file ID:", validation_file_id)
Создание настраиваемой модели
После загрузки файлов для обучения и проверки вы уже готовы начать процесс тонкой настройки.
В следующем Python коде показан пример создания нового задания тонкой настройки с помощью пакета SDK для Python:
response = client.fine_tuning.jobs.create(
training_file=training_file_id,
validation_file=validation_file_id,
model="gpt-4.1-2025-04-14", # Enter the base model name.
suffix="my-model", # Custom suffix for naming the resulting model. Note that in Microsoft Foundry, the model can't contain dot/period characters.
seed=105, # Seed parameter controls reproducibility of the fine-tuning job. If you don't specify a seed, one is generated automatically.
extra_body={ "trainingType": "GlobalStandard" } # Change this value to your preferred training type. Other options are `Standard` and `Developer`.
)
job_id = response.id
# You can use the job ID to monitor the status of the fine-tuning job.
# The fine-tuning job takes some time to start and finish.
print("Job ID:", response.id)
print(response.model_dump_json(indent=2))
Примечание
Мы рекомендуем использовать уровень Global Standard для типа обучения, так как он обеспечивает экономию затрат и использует глобальную емкость для ускорения очередей. Однако он копирует данные и весовые значения за пределами текущего региона ресурсов. Если размещение данных является обязательным требованием, используйте модель, которая поддерживает обучение уровня "Стандарт".
Вы также можете передать дополнительные необязательные параметры, такие как гиперпараметры, чтобы получить более широкий контроль над процессом тонкой настройки. Для начального обучения рекомендуется использовать автоматические значения по умолчанию, которые присутствуют без указания этих параметров.
Поддерживаемые в настоящее время гиперпараметры для защищенной тонкой настройки:
| Имя | Тип | Описание |
|---|---|---|
batch_size |
Целое число | Размер пакета, используемый для обучения. Размер пакета — это количество примеров обучения, используемых для обучения одного и обратного прохода. Как правило, мы обнаружили, что большие размеры пакетов, как правило, лучше работают для больших наборов данных. Значение по умолчанию и максимальное значение этого свойства относятся к базовой модели. Более крупный размер пакета означает, что параметры модели обновляются реже, но с более низкой дисперсией. |
learning_rate_multiplier |
Номер | Коэффициент для скорости обучения, используемый при тренировке. Скорость обучения для точной настройки — это исходная скорость обучения, используемая для предварительного обучения, увеличенная на указанное значение. Более высокие скорости обучения, как правило, лучше работают с большими размерами батчей. Мы рекомендуем поэкспериментировать со значениями в диапазоне от 0.02 до 0.2, чтобы увидеть, что дает лучшие результаты. Меньший темп обучения может оказаться полезным, чтобы избежать переобучения. |
n_epochs |
Целое число | Количество эпох для обучения модели. Эпоха – это один полный проход через обучающий набор данных. |
seed |
Целое число | Управляющее значение, контролирующее воспроизводимость задания. Передача одинаковых значений семени и параметров заданий должна приводить к одному и тому же результату, но в редких случаях результат может различаться. Если вы не указываете начальное число, оно создается для вас. |
Чтобы задать пользовательские гиперпараметры с версией 1.x API OpenAI Python, предоставьте их в составе method:
client.fine_tuning.jobs.create(
training_file="file-abc123",
model="gpt-4.1-2025-04-14",
suffix="my-model",
seed=105,
method={
"type": "supervised", # In this case, the job is using supervised fine-tuning.
"supervised": {
"hyperparameters": {
"n_epochs": 2
}
}
},
extra_body={ "trainingType": "GlobalStandard" }
)
Дополнительные сведения о поддерживаемых гиперпараметрах для других методов настройки см. в руководстве по прямой оптимизации предпочтений и руководстве по настройке с подкреплением.
Тип обучения
Выберите уровень обучения на основе варианта использования и бюджета:
Стандартный: обучение происходит в текущем регионе ресурса Foundry и предоставляет гарантии для размещения данных. Идеально подходит для рабочих нагрузок, в которых данные должны оставаться в определенном регионе.
Глобальный: обеспечивает более доступные цены по сравнению со стандартом, используя емкость за пределами текущего региона. Данные и весовые значения копируются в регион, где происходит обучение. Идеально подходит, если место размещения данных не является ограничением, и требуется ускорить время очереди.
Разработчик (предварительная версия): обеспечивает значительную ценовую экономию, используя резервную мощность для обучения. Нет гарантий по задержке или SLA (Соглашение об уровне обслуживания), поэтому задачи в этом уровне могут быть автоматически прерваны, а затем возобновлены позже. Нет никаких гарантий для размещения данных. Идеально подходит для экспериментов и рабочих нагрузок, чувствительных к стоимости.
import openai
from openai import AzureOpenAI
base_uri = "https://<ACCOUNT-NAME>.services.ai.azure.com"
api_key = "<API-KEY>"
api_version = "2025-04-01-preview"
client = AzureOpenAI(
azure_endpoint=base_uri,
api_key=api_key,
api_version=api_version
)
try:
client.fine_tuning.jobs.create(
model="gpt-4.1-mini",
training_file="<FILE-ID>",
extra_body={"trainingType": "developerTier"}
)
except openai.APIConnectionError as e:
print("The server could not be reached")
print(e.__cause__) # An underlying exception, likely raised within httpx.
except openai.RateLimitError as e:
print("A 429 status code was received; we should back off a bit.")
except openai.APIStatusError as e:
print("Another non-200-range status code was received")
print(e.status_code)
print(e.response)
print(e.body)
Проверка состояния задания точной настройки
response = client.fine_tuning.jobs.retrieve(job_id)
print("Job ID:", response.id)
print("Status:", response.status)
print(response.model_dump_json(indent=2))
Список событий тонкой настройки
Чтобы проверить отдельные события тонкой настройки, созданные во время обучения, выполните следующую команду. Перед выполнением команды может потребоваться обновить клиентную библиотеку OpenAI до последней версии с помощью pip install openai --upgrade.
response = client.fine_tuning.jobs.list_events(fine_tuning_job_id=job_id, limit=10)
print(response.model_dump_json(indent=2))
Перечислить контрольные точки
Завершение каждой эпохи обучения создает контрольную точку. Контрольная точка — это полностью функциональная версия модели, которая может быть развернута и использована в качестве целевой модели для последующих заданий точной настройки. Контрольные точки могут быть особенно полезными, так как они могут предоставлять моментальные снимки до переподбора.
После завершения задания точной настройки у вас есть три последних версии модели, доступные для развертывания. Ваша точно настроенная модель представляет окончательную эпоху. Предыдущие две эпохи доступны в качестве контрольных точек.
Чтобы получить список контрольных точек, связанных с отдельным заданием точной настройки, можно выполнить следующую команду. Перед выполнением команды может потребоваться обновить клиентную библиотеку OpenAI до последней версии с помощью pip install openai --upgrade.
response = client.fine_tuning.jobs.checkpoints.list(job_id)
print(response.model_dump_json(indent=2))
Анализ настраиваемой модели
Azure OpenAI присоединяет файл результатов с именем results.csv к каждому заданию тонкой настройки после завершения. Вы можете использовать файл результатов для анализа производительности обучения и проверки настраиваемой модели. Идентификатор файла для результирующих файлов указан для каждой настраиваемой модели. Пакет SDK Python можно использовать для получения идентификатора файла и скачивания файла результатов для анализа.
В следующем примере на Python извлекается идентификатор первого файла результата, присоединенного к заданию тонкой настройки для вашей настраиваемой модели. Затем он использует пакет SDK Python для скачивания файла в текущий рабочий каталог для анализа.
# Retrieve the file ID of the first result file from the fine-tuning job
# for the customized model.
response = client.fine_tuning.jobs.retrieve(job_id)
if response.status == 'succeeded':
result_file_id = response.result_files[0]
retrieve = client.files.retrieve(result_file_id)
# Download the result file.
print(f'Downloading result file: {result_file_id}')
with open(retrieve.filename, "wb") as file:
result = client.files.content(result_file_id).read()
file.write(result)
Результатом является CSV-файл, содержащий строку заголовка и строку для каждого этапа обучения, выполняемого в задаче тонкой настройки. Результирующий файл содержит следующие столбцы:
| Имя столбца | Описание |
|---|---|
step |
Количество шага обучения. Шаг обучения представляет собой один проход вперед и назад в пакете обучающих данных. |
train_loss |
Потеря для обучаемого пакета. |
train_mean_token_accuracy |
Процент токенов в пакете обучения, которую модель правильно предсказала. Например, если размер пакета установлен на 3 и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
valid_loss |
Потеря пакета проверки. |
validation_mean_token_accuracy |
Процент токенов в проверочном пакете, которые модель правильно предсказала. Например, если размер пакета установлен на 3 и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
full_valid_loss |
Потеря проверки, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, потеря должна уменьшиться. |
full_valid_mean_token_accuracy |
Действительная средняя точность токена, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, точность токенов должна увеличиться. |
Вы также можете просмотреть данные в файле results.csv как графики на портале Microsoft Foundry. При выборе ссылки для обученной модели отображаются три диаграммы: ошибка, средняя точность токена и точность токена. Если вы предоставили данные проверки, оба набора данных отображаются на одном графике.
Ожидайте, что ваша ошибка будет снижаться с течением времени, а точность увеличиваться. Если ваши данные обучения и проверки различаются, возможно, вы можете переобучиться. Попробуйте проводить обучение с меньшим количеством эпох или меньшим множителем скорости обучения.
Развертывание точно настроенной модели
Если вы удовлетворены метриками задачи тонкой настройки или просто хотите перейти к стадии выведения, необходимо развернуть модель.
Если вы развертываете для дальнейшей проверки, рассмотрите возможность развертывания для тестирования с помощью развертывания в разработческой среде.
В отличие от предыдущих команд ПАКЕТА SDK, для развертывания необходимо использовать API уровня управления. Для этой задачи требуется отдельная авторизация, другой путь к API и другая версия API.
| Переменная | Определение |
|---|---|
token |
Маркер авторизации. Существует несколько способов генерации токена авторизации. Самый простой способ начального тестирования — открыть Azure Cloud Shell на портале Azure. Затем выполните команду az account get-access-token. Этот маркер можно использовать в качестве временного маркера авторизации для тестирования API. Рекомендуется хранить этот маркер в новой переменной среды. |
subscription |
Идентификатор подписки для связанного Azure ресурса OpenAI. |
resource_group |
Имя группы ресурсов для ресурса Azure OpenAI. |
resource_name |
Имя ресурса Azure OpenAI. |
model_deployment_name |
Настраиваемое имя для нового точно настроенного развертывания модели. Это имя упоминается в вашем коде во время вызовов для завершения чата. |
fine_tuned_model |
Ваша оптимизированная модель. Извлеките это значение из результатов вашей работы по точной настройке на предыдущем этапе. Похоже gpt-4.1-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83. Необходимо добавить значение в deploy_data JSON. Кроме того, можно развернуть контрольную точку, передав идентификатор контрольной точки, который отображается в формате ftchkpt-e559c011ecc04fc68eaa339d8227d02d. |
import json
import os
import requests
token= os.getenv("<TOKEN>")
subscription = "<YOUR_SUBSCRIPTION_ID>"
resource_group = "<YOUR_RESOURCE_GROUP_NAME>"
resource_name = "<YOUR_AZURE_OPENAI_RESOURCE_NAME>"
model_deployment_name ="gpt-41-ft" # Custom deployment name that you use to reference the model when making inference calls.
deploy_params = {'api-version': "2024-10-01"} # Control plane API version rather than the data plane API for this call
deploy_headers = {'Authorization': 'Bearer {}'.format(token), 'Content-Type': 'application/json'}
deploy_data = {
"sku": {"name": "standard", "capacity": 1},
"properties": {
"model": {
"format": "OpenAI",
"name": <"fine_tuned_model">, # Retrieve this value from the previous call; it looks like gpt-4.1-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83
"version": "1"
}
}
}
deploy_data = json.dumps(deploy_data)
request_url = f'https://management.azure.com/subscriptions/{subscription}/resourceGroups/{resource_group}/providers/Microsoft.CognitiveServices/accounts/{resource_name}/deployments/{model_deployment_name}'
print('Creating a new deployment...')
r = requests.put(request_url, params=deploy_params, headers=deploy_headers, data=deploy_data)
print(r)
print(r.reason)
print(r.json())
Чтобы узнать о развертывании между регионами и о том, как использовать развернутую точно настроенную модель, см. статью "Использование развернутой точно настроенной модели".
Если вы готовы к развертыванию в рабочей среде или у вас есть определенные требования к размещению данных, следуйте руководству по развертыванию.
Выполнение непрерывной точной настройки
После создания точно настроенной модели может потребоваться продолжить уточнение модели с течением времени с помощью дальнейшей тонкой настройки. Непрерывная итеративная настройка — это итеративный процесс выбора уже настраиваемой модели в качестве базовой модели и последующей настройки новых наборов примеров обучения. Поддерживается непрерывная тонкая настройка только для моделей OpenAI.
Для точной настройки модели, которую вы ранее настроили, используйте тот же процесс, описанный в разделе "Создание настраиваемой модели". Но вместо указания имени универсальной базовой модели необходимо указать идентификатор настраиваемой модели. Идентификатор точно настроенной модели выглядит как gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7.
response = client.fine_tuning.jobs.create(
training_file=training_file_id,
validation_file=validation_file_id,
model="gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7"
)
job_id = response.id
# You can use the job ID to monitor the status of the fine-tuning job.
# The fine-tuning job takes some time to start and finish.
print("Job ID:", response.id)
print("Status:", response.id)
print(response.model_dump_json(indent=2))
Мы также рекомендуем включить suffix параметр, чтобы проще различать итерации вашей точно настроенной модели. Параметр suffix принимает строку и устанавливается для идентификации точно настроенной модели. С помощью API OpenAI Python можно добавить строку до 18 символов в имя настраиваемой модели.
Если вы не уверены в идентификаторе вашей существующей настроенной модели, вы можете найти эту информацию на странице Models Microsoft Foundry. Кроме того, можно создать список моделей для ресурса OpenAI Azure с помощью REST API.
Очистка развертываний, настраиваемых моделей и файлов обучения
Если вам больше не нужна настраиваемая модель, можно удалить развертывание и модель. Вы также можете удалить файлы обучения и проверки, отправленные в службу при необходимости.
Удалите развертывание модели
Важно
После развертывания настраиваемой модели, если развертывание в любое время остается неактивным в течение более 15 дней, развертывание удаляется. Развертывание настраиваемой модели неактивно, если модель была развернута более 15 дней назад и в течение непрерывного 15-дневного периода не выполнялись вызовы API на завершение чата или вызовы API получения ответов.
Удаление неактивного развертывания не влияет на базовую настраиваемую модель. Настраиваемая модель может быть развернута в любое время.
Как описано в ценообразовании модели Azure OpenAI в Microsoft Foundry, каждая кастомизированная (тонко настроенная) модель, которая развертывается, требует почасовой оплаты за размещение, независимо от того, проводятся ли завершения чата или делаются вызовы к API модели. Дополнительные сведения о планировании и управлении затратами на Azure OpenAI см. в статье Plan и управление затратами на Azure OpenAI.
Вы можете использовать любой из этих методов для удаления развертывания для настраиваемой модели:
Удаление настраиваемой модели
Вы можете удалить настраиваемую модель с помощью Foundry.
Примечание
Вы не можете удалить настраиваемую модель, если она имеет существующее развертывание. Перед удалением настраиваемой модели необходимо удалить развертывание модели.
Удаление обучающих файлов
Вы можете по желанию удалить загруженные файлы обучения и проверки, а также файлы результатов, созданные в процессе обучения, из вашей подписки Azure OpenAI. Для удаления обучающих, проверки и результирующих файлов можно использовать следующие методы:
- Литейный цех
- REST API
- пакет SDK Python
В следующем примере Python используется пакет SDK Python для удаления файлов обучения, проверки и результатов для настраиваемой модели:
print('Checking for existing uploaded files.')
results = []
# Get the complete list of uploaded files in your subscription.
files = openai.File.list().data
print(f'Found {len(files)} total uploaded files in the subscription.')
# Enumerate all uploaded files. Extract the IDs for the
# files with file names that match your training dataset file and
# validation dataset file.
for item in files:
if item["filename"] in [training_file_name, validation_file_name, result_file_name]:
results.append(item["id"])
print(f'Found {len(results)} already uploaded files that match our files')
# Enumerate the file IDs for your files and delete each file.
print(f'Deleting already uploaded files.')
for id in results:
openai.File.delete(sid = id)
Необходимые условия
- Прочитайте руководство по использованию тонкой настройки Azure OpenAI.
- Вам нужна Azure подписка. Создайте его бесплатно.
- Вам требуется ресурс Azure OpenAI. Дополнительные сведения см. в разделе Создание ресурса и развертывание модели с помощью Azure OpenAI.
- Для настройки требуется роль Azure AI Owner. Хотя пользователи Azure AI могут обучать и дообучать модели, их могут развертывать только владельцы ИИ.
- Если у вас еще нет доступа к просмотру квот и развертыванию моделей на портале Foundry, вам потребуется больше разрешений.
Поддерживаемые модели
Чтобы проверить, какие регионы в настоящее время поддерживают точную настройку, ознакомьтесь со статьей о моделях.
Или можно дополнительно настроить ранее настроенную модель, отформатированную как base-model.ft-{jobid}.
Просмотр рабочего процесса для REST API
Изучите рабочий процесс тонкой настройки для работы с REST API и Python в Azure OpenAI.
- Подготовьте данные обучения и проверки.
- Выберите базовую модель.
- Отправьте данные обучения.
- Обучите новую настраиваемую модель.
- Проверьте состояние настраиваемой модели.
- Разверните настраиваемую модель для использования.
- Используйте настраиваемую модель.
- При необходимости проанализируйте кастомизированную модель для оценки её производительности и соответствия.
Приготовьте данные для обучения и валидации
Наборы данных для обучения и проверки состоят из примеров входных и выходных данных о том, как вы хотите, чтобы модель выполняла свои функции.
Используемые данные обучения и проверки должны быть отформатированы в виде документа JSON Lines (JSONL). Он также должен быть отформатирован в формате беседы, который использует API завершения чата .
Помимо формата JSONL, файлы данных обучения и проверки должны быть закодированы в UTF-8 и включать метку порядка байтов (BOM). Размер каждого файла должен быть меньше 512 МБ.
Если вы хотите пошаговое руководство по настройке gpt-4o-mini-2024-07-18, ознакомьтесь с руководством по настройке Azure OpenAI.
Пример формата файла
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who discovered Antarctica?"}, {"role": "assistant", "content": "Some chaps named Fabian Gottlieb von Bellingshausen and Mikhail Lazarev, as if they don't teach that in every school!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the biggest ocean?"}, {"role": "assistant", "content": "The Pacific Ocean. It's not like it's a small pond or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest planet?"}, {"role": "assistant", "content": "It's called Jupiter, you might have heard of it...or not."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who painted the Mona Lisa?"}, {"role": "assistant", "content": "Oh, some obscure artist named Leonardo da Vinci. Not that he is famous or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the boiling point of water?"}, {"role": "assistant", "content": "Exciting fact of the day: it's 100 degrees Celsius. Life-changing, isn't it?"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'The Odyssey'?"}, {"role": "assistant", "content": "Oh, just some poet named Homer. Nothing special, really."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest mammal?"}, {"role": "assistant", "content": "Blue Whale. Quite a big fish isn't it? Oh wait, it's not a fish!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the highest mountain peak?"}, {"role": "assistant", "content": "Everest. Brace yourself, it's not a walk in the park."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who invented the telephone?"}, {"role": "assistant", "content": "A guy named Alexander Graham Bell. Bet you didn't guess that one!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the distance from Earth to the Sun?"}, {"role": "assistant", "content": "About 93 million miles. Just a quick drive, really."}]}
Формат файла чата с несколькими поворотами
Кроме того, поддерживаются несколько поворотов беседы в одной строке файла обучения JSONL. Чтобы пропустить точную настройку для определённых сообщений ассистента, добавьте необязательную пару «ключ-значение» weight. В настоящее время weight можно задать значение 0 или 1.
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the capital/major city of France?"}, {"role": "assistant", "content": "Paris", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Paris, as if everyone doesn't know that already.", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'Romeo and Juliet'?"}, {"role": "assistant", "content": "William Shakespeare", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Oh, just some guy named William Shakespeare. Ever heard of him?", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "How far is the Moon from Earth?"}, {"role": "assistant", "content": "384,400 kilometers", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Around 384,400 kilometers. Give or take a few, like that really matters.", "weight": 1}]}
Завершение чата с помощью визуального зрения
{"messages": [{"role": "user", "content": [{"type": "text", "text": "What's in this image?"}, {"type": "image_url", "image_url": {"url": "https://raw.githubusercontent.com/MicrosoftDocs/azure-ai-docs/main/articles/ai-services/openai/media/how-to/generated-seattle.png"}}]}, {"role": "assistant", "content": "The image appears to be a watercolor painting of a city skyline, featuring tall buildings and a recognizable structure often associated with Seattle, like the Space Needle. The artwork uses soft colors and brushstrokes to create a somewhat abstract and artistic representation of the cityscape."}]}
Создание наборов данных для обучения и проверки
Чем больше примеров обучения у вас есть, тем лучше. Задания точной настройки не будут продолжаться без не менее 10 примеров обучения, но такого небольшого числа недостаточно, чтобы заметно повлиять на ответы модели. Рекомендуется для успешной донастройки предоставить сотни или даже тысячи обучающих образцов.
Как правило, удвоение размера набора данных может привести к линейному увеличению качества модели. Но помните, что примеры низкого качества могут негативно повлиять на производительность. Если вы обучаете модель на большом объеме внутренних данных без предварительной обрезки набора до оставления только наиболее качественных примеров, модель может работать хуже, чем ожидалось.
Отправка обучающих данных
Следующим шагом является выбор существующих подготовленных обучающих данных или отправка новых подготовленных обучающих данных для использования при настройке модели. После подготовки обучающих данных вы можете передать файлы в службу. Существует два способа отправки обучающих данных:
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут стать нестабильными при загрузке через многосоставные формы, так как запросы являются атомарными и не могут быть повторно отправлены или возобновлены. Дополнительные сведения о Хранилище BLOB-объектов см. в разделе Что такое Хранилище BLOB-объектов Azure?.
Отправка обучающих данных
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/files \
-H "Content-Type: multipart/form-data" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-F "purpose=fine-tune" \
-F "file=@C:\\fine-tuning\\training_set.jsonl;type=application/json"
Отправка данных проверки
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/files \
-H "Content-Type: multipart/form-data" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-F "purpose=fine-tune" \
-F "file=@C:\\fine-tuning\\validation_set.jsonl;type=application/json"
Создание настраиваемой модели
После загрузки файлов для обучения и проверки вы уже готовы начать процесс тонкой настройки. В следующем коде показано, как создать новое задание точной настройки с помощью REST API.
Этот пример включает передачу параметра начального значения. Параметр seed определяет воспроизводимость задачи. Передача одинаковых значений семени и параметров заданий должна приводить к одному и тому же результату, но в редких случаях результат может различаться. Если вы не указываете начальное число, оно создается для вас.
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '{
"model": "gpt-4.1-2025-04-14",
"training_file": "<TRAINING_FILE_ID>",
"validation_file": "<VALIDATION_FILE_ID>",
"seed": 105
}'
Если вы настраиваете модель, поддерживающую глобальное обучение, можно указать тип обучения с помощью extra_body именованного аргумента и использования api-version=2025-04-01-preview:
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/fine_tuning/jobs?api-version=2025-04-01-preview \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '{
"model": "gpt-4.1-2025-04-14",
"training_file": "<TRAINING_FILE_ID>",
"validation_file": "<VALIDATION_FILE_ID>",
"seed": 105,
"trainingType": "globalstandard"
}'
Кроме того, можно передать дополнительные необязательные параметры, такие как гиперпараметры , чтобы получить более широкий контроль над процессом тонкой настройки. Для начального обучения рекомендуется использовать автоматические значения по умолчанию, которые присутствуют без указания этих параметров.
Поддерживаемые в настоящее время гиперпараметры для защищенной тонкой настройки:
| Имя | Тип | Описание |
|---|---|---|
batch_size |
Целое число | Размер пакета, используемый для обучения. Размер пакета — это количество примеров обучения, используемых для обучения одного и обратного прохода. Как правило, мы обнаружили, что большие размеры пакетов, как правило, лучше работают для больших наборов данных. Значение по умолчанию и максимальное значение этого свойства относятся к базовой модели. Более крупный размер пакета означает, что параметры модели обновляются реже, но с более низкой дисперсией. |
learning_rate_multiplier |
Номер | Коэффициент для скорости обучения, используемый при тренировке. Скорость обучения для точной настройки — это исходная скорость обучения, используемая для предварительного обучения, увеличенная на указанное значение. Более высокие скорости обучения, как правило, лучше работают с большими размерами батчей. Мы рекомендуем поэкспериментировать со значениями в диапазоне от 0.02 до 0.2, чтобы увидеть, что дает лучшие результаты. Меньший темп обучения может оказаться полезным, чтобы избежать переобучения. |
n_epochs |
Целое число | Количество эпох для обучения модели. Эпоха – это один полный проход через обучающий набор данных. |
seed |
Целое число | Управляющее значение, контролирующее воспроизводимость задания. |
Дополнительные сведения о поддерживаемых гиперпараметрах для других методов настройки см. в руководстве по прямой оптимизации предпочтений и руководстве по настройке с подкреплением.
Выбор типа обучения
Выберите уровень обучения на основе варианта использования и бюджета:
Стандартный: обучение происходит в текущем регионе ресурса Foundry и предоставляет гарантии для размещения данных. Идеально подходит для рабочих нагрузок, в которых данные должны оставаться в определенном регионе.
Глобальный: обеспечивает более доступные цены по сравнению со стандартом, используя емкость за пределами текущего региона. Данные и весовые значения копируются в регион, где происходит обучение. Идеально подходит, если место размещения данных не является ограничением, и требуется ускорить время очереди.
Разработчик (предварительная версия): обеспечивает значительную ценовую экономию, используя резервную мощность для обучения. Нет гарантий по задержке или SLA (Соглашение об уровне обслуживания), поэтому задачи в этом уровне могут быть автоматически прерваны, а затем возобновлены позже. Нет никаких гарантий в отношении местонахождения данных. Идеально подходит для экспериментов и рабочих нагрузок, чувствительных к стоимости.
curl -X POST "https://<ACCOUNT-NAME>.openai.azure.com/openai/fine_tuning/jobs?api-version=2025-04-01-preview" -H "Content-Type: application/json" -H "api-key: <API-KEY>" -d "{"model": "gpt-4.1", "training_file": "<FILE_ID>", "hyperparameters": {"prompt_loss_weight": 0.1}, "trainingType": "developerTier"}"
Проверка состояния настраиваемой модели
После запуска задания точной настройки его завершение может занять какое-то время. Ваше задание может находиться в очереди за другими заданиями в системе. Обучение модели может занять несколько минут или часов в зависимости от размера модели и набора данных.
В следующем примере REST API используется для проверки состояния задания по доработке. В примере извлекаются сведения о задании с помощью идентификатора задания, возвращенного из предыдущего примера.
curl -X GET $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/<YOUR-JOB-ID> \
-H "api-key: $AZURE_OPENAI_API_KEY"
Список событий тонкой настройки
Чтобы изучить отдельные события тонкой настройки, возникшие во время обучения, сделайте следующее.
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Перечислить контрольные точки
Завершение каждой эпохи обучения создает контрольную точку. Контрольная точка — это полностью функциональная версия модели, которая может быть развернута и использована в качестве целевой модели для последующих заданий точной настройки. Контрольные точки могут быть особенно полезными, так как они могут предоставлять моментальные снимки до переподбора.
После завершения задания точной настройки у вас есть три последних версии модели, доступные для развертывания. Ваша точно настроенная модель представляет окончательную эпоху. Предыдущие две эпохи доступны в качестве контрольных точек.
Чтобы получить список контрольных точек, связанных с отдельным заданием тонкой настройки, можно выполнить следующую команду:
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Приостановка и возобновление
Во время обучения можно просмотреть журналы и метрики и приостановить задание по мере необходимости. Приостановка может быть полезной, если метрики не сходятся или если вы считаете, что модель обучается не в правильном темпе.
После приостановки задания обучения и завершения оценки безопасности создается развертываемая контрольная точка. Эта контрольная точка доступна для развертывания и использования для вывода или возобновления выполнения задания.
Операция приостановки применима только для заданий, для которых произошло обучение как минимум одного шага и которые находятся в процессе выполнения.
Пауза
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Резюме
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Копирование модели (предварительная версия)
Теперь можно скопировать настраиваемую модель контрольных точек из одного региона в другой, в разных подписках, но в одном клиенте. Этот процесс использует выделенные API для обеспечения эффективной и безопасной передачи. Эта функция в настоящее время доступна только с помощью API, а не через портал Foundry.
После копирования модели из региона А в регион B можно постоянно настраивать модель в регионе B и развертывать модель из этого расположения.
Примечание
Удаление контрольной точки модели в исходном регионе не приводит к удалению модели в целевом регионе. Чтобы удалить модель в обоих регионах после её копирования, необходимо развернуть модель в каждом регионе отдельно.
Необходимые условия
- Целевой ресурс или учетная запись должны иметь хотя бы одну задачу точной настройки.
- Целевой ресурс или учетная запись не должны отключать доступ к общедоступной сети (по крайней мере при отправке запроса на копирование).
- Вы можете скопировать только в целевую учетную запись, если учетная запись, инициирующая копию, имеет достаточные разрешения для доступа к целевой учетной записи.
Настройка разрешений
- Создайте управляемое удостоверение, назначаемое пользователем.
- Предоставьте роль Azure AI User назначенному пользователем управляемому удостоверению на конечном ресурсе или в учетной записи.
- Назначьте назначенное пользователем управляемое удостоверение учетной записи исходного ресурса.
Скопируйте модель
curl --request POST \
--url 'https://<aoai-resource>.openai.azure.com/openai/v1/fine_tuning/jobs/<ftjob>/checkpoints/<checkpoint-name>/copy' \
--header 'Content-Type: application/json' \
--header 'api-key: <api-key>' \
--header 'aoai-copy-ft-checkpoints: preview' \
--data '{
"destinationResourceId": "<resourceId>",
"region": "<region>"
}'
Так как это длительная операция, проверьте состояние точно настроенной модели, указав идентификатор контрольной точки исходной учетной записи, используемой в вызове POST .
Проверка состояния копирования
curl --request GET \
--url 'https://<aoai-resource>.openai.azure.com//openai/v1/fine_tuning/jobs/<ftjob>/checkpoints/<checkpoint-name>/copy' \
--header 'Content-Type: application/json' \
--header 'api-key: <api-key>' \
--header 'aoai-copy-ft-checkpoints: preview'
Примечание
При копировании контрольной точки из исходной учетной записи имя контрольной точки сохраняется в целевой учетной записи. Убедитесь, что вы используете точно такое же имя для точной настройки, развертывания или любой другой операции в целевой учетной записи. Эта контрольная точка не отображается в пользовательском интерфейсе list checkpoints или в API.
Анализ настраиваемой модели
Azure OpenAI присоединяет файл результатов с именем results.csv к каждому заданию тонкой настройки после завершения. Вы можете использовать файл результатов для анализа производительности обучения и проверки настраиваемой модели. Идентификатор файла для результирующих файлов указан для каждой настраиваемой модели. С помощью REST API можно получить идентификатор файла и скачать файл результата для анализа.
В следующем примере на Python, REST API используется для получения ID файла первого результатного файла, присоединенного к задаче точной настройки вашей настраиваемой модели. Затем он скачивает файл в рабочий каталог для анализа.
curl -X GET "$AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/<JOB_ID>" \
-H "api-key: $AZURE_OPENAI_API_KEY")
curl -X GET "$AZURE_OPENAI_ENDPOINT/openai/v1/files/<RESULT_FILE_ID>/content" \
-H "api-key: $AZURE_OPENAI_API_KEY" > <RESULT_FILENAME>
Результатом является CSV-файл, содержащий строку заголовка и строку для каждого этапа обучения, выполняемого в задаче тонкой настройки. Результирующий файл содержит следующие столбцы:
| Имя столбца | Описание |
|---|---|
step |
Количество шага обучения. Шаг обучения представляет собой один проход вперед и назад в пакете обучающих данных. |
train_loss |
Потеря для обучаемого пакета. |
train_mean_token_accuracy |
Процент токенов в пакете обучения, которую модель правильно предсказала. Например, если размер пакета установлен на 3 и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
valid_loss |
Потеря пакета проверки. |
validation_mean_token_accuracy |
Процент токенов в проверочном пакете, которые модель правильно предсказала. Например, если размер пакета установлен на 3 и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
full_valid_loss |
Потеря проверки, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, потеря должна уменьшиться. |
full_valid_mean_token_accuracy |
Действительная средняя точность токена, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, точность токенов должна увеличиться. |
Вы также можете просмотреть данные в results.csv файле как графики на портале Foundry. При выборе ссылки для обученной модели отображаются три диаграммы: ошибка, средняя точность токена и точность токена. Если вы предоставили данные проверки, оба набора данных отображаются на одном графике.
Ожидайте, что ваша ошибка будет снижаться с течением времени, а точность увеличиваться. Если ваши данные обучения и проверки различаются, возможно, вы можете переобучиться. Попробуйте проводить обучение с меньшим количеством эпох или меньшим множителем скорости обучения.
Развертывание точно настроенной модели
Если вы удовлетворены метриками задачи тонкой настройки или просто хотите перейти к стадии выведения, необходимо развернуть модель.
Если вы развертываете для дальнейшей проверки, рассмотрите возможность развертывания для тестирования с помощью развертывания в разработческой среде.
Если вы готовы к развертыванию в рабочей среде или у вас есть определенные требования к размещению данных, следуйте руководству по развертыванию.
| Переменная | Определение |
|---|---|
token |
Маркер авторизации. Существует несколько способов генерации токена авторизации. Самый простой способ начального тестирования — открыть Azure Cloud Shell на портале Azure. Затем выполните команду az account get-access-token. Этот маркер можно использовать в качестве временного маркера авторизации для тестирования API. Рекомендуется хранить этот маркер в новой переменной среды. |
subscription |
Идентификатор подписки для связанного Azure ресурса OpenAI. |
resource_group |
Имя группы ресурсов для ресурса Azure OpenAI. |
resource_name |
Имя ресурса Azure OpenAI. |
model_deployment_name |
Настраиваемое имя для нового точно настроенного развертывания модели. Это имя упоминается в вашем коде во время вызовов для завершения чата. |
fine_tuned_model |
Ваша оптимизированная модель. Извлеките это значение из результатов вашей работы по точной настройке на предыдущем этапе. Похоже gpt-4.1-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83. Необходимо добавить значение в deploy_data JSON. Кроме того, можно развернуть контрольную точку, передав идентификатор контрольной точки, который отображается в формате ftchkpt-e559c011ecc04fc68eaa339d8227d02d. |
curl -X POST "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2024-10-21" \
-H "Authorization: Bearer <TOKEN>" \
-H "Content-Type: application/json" \
-d '{
"sku": {"name": "standard", "capacity": 1},
"properties": {
"model": {
"format": "OpenAI",
"name": "<FINE_TUNED_MODEL>",
"version": "1"
}
}
}'
Чтобы узнать о развертывании между регионами и о том, как использовать развернутую точно настроенную модель, см. статью "Использование развернутой точно настроенной модели".
Выполнение непрерывной точной настройки
После создания точно настроенной модели может потребоваться продолжить уточнение модели с течением времени с помощью дальнейшей тонкой настройки. Непрерывная итеративная настройка — это итеративный процесс выбора уже настраиваемой модели в качестве базовой модели и последующей настройки новых наборов примеров обучения. Поддерживается непрерывная тонкая настройка только для моделей OpenAI.
Для точной настройки модели, которую вы ранее настроили, используйте тот же процесс, описанный в разделе "Создание настраиваемой модели". Но вместо указания имени универсальной базовой модели необходимо указать идентификатор настраиваемой модели. Идентификатор точно настроенной модели выглядит как gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7.
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '{
"model": "gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7",
"training_file": "<TRAINING_FILE_ID>",
"validation_file": "<VALIDATION_FILE_ID>",
"suffix": "<additional text used to help identify fine-tuned models>"
}'
Мы также рекомендуем включить suffix параметр, чтобы проще различать итерации вашей точно настроенной модели. Параметр suffix принимает строку и устанавливается для идентификации точно настроенной модели. Суффикс может содержать до 40 символов (a, z, A, Z, 0, 9, -, и _), которые добавляются к имени вашей точно настроенной модели.
Если вы не уверены в идентификаторе существующей модели с тонкой настройкой, эти сведения можно найти на странице «Модели» в Foundry. Кроме того, можно создать список моделей для ресурса OpenAI Azure с помощью REST API.
Очистка развертываний, настраиваемых моделей и файлов обучения
Если вам больше не нужна настраиваемая модель, можно удалить развертывание и модель. Вы также можете удалить файлы обучения и проверки, отправленные в службу при необходимости.
Удалите развертывание модели
Вы можете использовать любой из этих методов для удаления развертывания для настраиваемой модели:
Удаление настраиваемой модели
Вы можете удалить настраиваемую модель с помощью Foundry.
Примечание
Вы не можете удалить настраиваемую модель, если она имеет существующее развертывание. Перед удалением настраиваемой модели необходимо удалить развертывание модели.
Удаление обучающих файлов
Вы можете по желанию удалить загруженные файлы обучения и проверки, а также файлы результатов, созданные в процессе обучения, из вашей подписки Azure OpenAI. Для удаления файлов можно использовать Foundry .