Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Просмотр текущей версии:Классическая версия портала Foundry - Переключиться на версию нового портала Foundry
Узнайте, как настроить модели в Microsoft Foundry для наборов данных и вариантов использования. Позволяет точно настроить:
- Более качественные результаты, чем то, что вы можете получить только от инженерии подсказок.
- Возможность использовать больше примеров, чем может вместить ограничение контекста запроса модели.
- Экономия токенов из-за более коротких запросов.
- Запросы с низкой задержкой, особенно при использовании небольших моделей.
В отличие от обучения с малым количеством примеров, тонкая настройка улучшает модель, обучая её на большем количестве примеров, чем можно вместить в запросе. Так как весы адаптируются к задаче, вы включаете меньше примеров или инструкций. Уменьшение объема включает меньше токенов на вызов и потенциально снижает затраты и задержки.
Мы используем низкоранговую адаптацию (LoRA) для точной настройки моделей таким образом, чтобы снизить их сложность, не влияя на их производительность. Этот метод работает путем приближения исходной матрицы высокого ранга к матрице низкого ранга. Корректировка меньшего подмножества важных параметров на этапе контролируемого обучения делает модель более управляемой и эффективной. Для пользователей это также делает обучение быстрее и более доступным, чем другие методы.
В этой статье описано, как:
- Выберите подходящие наборы данных и форматы для точной настройки.
- Активируйте задание тонкой настройки, отслеживайте состояние и получайте результаты.
- Развертывание и оценка точно настроенной модели.
- Очистите ресурсы, если они больше не нужны.
На портале Microsoft Foundry есть два уникальных способа настройки.
- Hub или представление проекта: поддерживает модели точной настройки от нескольких поставщиков, таких как Azure OpenAI, Meta Llama и Microsoft Phi.
Центральное представление Azure OpenAI : поддерживает только настройку моделей Azure OpenAI, но также имеет поддержку дополнительных функций, таких какинтеграция предварительного просмотра Weights & Biases (W&B) . Если вы настраиваете только модели Azure OpenAI, мы рекомендуем обратиться к этому интерфейсу.
Важно
Элементы, помеченные (предварительная версия) в этой статье, в настоящее время находятся в общедоступной предварительной версии. Эта предварительная версия предоставляется без соглашения об уровне обслуживания, и мы не рекомендуем ее для рабочих нагрузок. Некоторые функции могут не поддерживаться или могут иметь ограниченные возможности. Дополнительные сведения см. в разделе Supplemental Terms of Use for Microsoft Azure Previews.
Необходимые условия
- Прочитайте руководство по использованию дополнительных настроек Azure OpenAI.
- Вам нужна Azure подписка. Создайте его бесплатно.
- Вам нужен ресурс Azure OpenAI, расположенный в регионе, который поддерживает тонкую настройку модели Azure OpenAI. Список доступных моделей по регионам и поддерживаемым функциям см. в сводной таблице модели и доступности регионов. Дополнительные сведения см. в разделе Создание ресурса и развертывание модели с помощью Azure OpenAI.
- Для настройки требуется роль Azure AI Owner. Хотя пользователи Azure AI могут обучать и точно настраивать модели, их могут развертывать только администраторы ИИ.
- Если у вас еще нет доступа к просмотру квот и развертыванию моделей на портале Foundry, вам потребуется больше разрешений.
Поддерживаемые модели
Чтобы проверить, какие регионы в настоящее время поддерживают точную настройку, ознакомьтесь со статьей о моделях.
Или можно дополнительно настроить ранее настроенную модель, отформатированную как base-model.ft-{jobid}.
Просмотр рабочего процесса на портале Foundry
Уделите время на изучение процесса тонкой настройки для использования портала Foundry.
- Подготовьте данные обучения и проверки.
- Используйте диалоговое окно "Создание точно настроенной модели" на портале Foundry для обучения пользовательской модели.
- Выберите метод обучения.
- Выберите базовую модель.
- Выберите тип обучения.
- Выберите данные обучения.
- При необходимости выберите данные проверки.
- При необходимости настройте параметры задачи для процесса тонкой настройки.
- При необходимости включите автоматическое развертывание для результирующей пользовательской модели.
- Просмотрите варианты и обучите новую пользовательскую модель.
- Проверьте статус вашей настраиваемой модели.
- Разверните настраиваемую модель для использования.
- Используйте настраиваемую модель.
- При необходимости проанализируйте настраиваемую модель на предмет производительности и соответствия.
Подготовьте данные для обучения и проверки
Наборы данных для обучения и валидации состоят из примеров входных и выходных данных, чтобы модель работала.
Используемые данные обучения и проверки должны быть отформатированы в виде документа JSON Lines (JSONL). Он также должен быть отформатирован в формате беседы, который использует API завершения чата .
Помимо формата JSONL, файлы данных обучения и проверки должны быть закодированы в UTF-8 и включать метку порядка байтов (BOM). Размер каждого файла должен быть меньше 512 МБ.
Как правило, мы рекомендуем использовать инструкции и подсказки, которые, по вашему мнению, работали лучше всего в каждом примере обучения. Этот подход помогает получить лучшие результаты, особенно если у вас меньше сотни примеров.
Пример формата файла
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who discovered Antarctica?"}, {"role": "assistant", "content": "Some chaps named Fabian Gottlieb von Bellingshausen and Mikhail Lazarev, as if they don't teach that in every school!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the biggest ocean?"}, {"role": "assistant", "content": "The Pacific Ocean. It's not like it's a small pond or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest planet?"}, {"role": "assistant", "content": "It's called Jupiter, you might have heard of it...or not."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who painted the Mona Lisa?"}, {"role": "assistant", "content": "Oh, some obscure artist named Leonardo da Vinci. Not that he is famous or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the boiling point of water?"}, {"role": "assistant", "content": "Exciting fact of the day: it's 100 degrees Celsius. Life-changing, isn't it?"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'The Odyssey'?"}, {"role": "assistant", "content": "Oh, just some poet named Homer. Nothing special, really."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest mammal?"}, {"role": "assistant", "content": "Blue Whale. Quite a big fish isn't it? Oh wait, it's not a fish!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the highest mountain peak?"}, {"role": "assistant", "content": "Everest. Brace yourself, it's not a walk in the park."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who invented the telephone?"}, {"role": "assistant", "content": "A guy named Alexander Graham Bell. Bet you didn't guess that one!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the distance from Earth to the Sun?"}, {"role": "assistant", "content": "About 93 million miles. Just a quick drive, really."}]}
Формат файла для чат-диалогов Azure OpenAI с несколькими обменами репликами
Кроме того, поддерживаются несколько поворотов беседы в одной строке файла обучения JSONL. Чтобы пропустить тонкую настройку для определенных сообщений помощника, добавьте необязательный параметр "ключ-значение" weight. В настоящее время weight можно задать значение 0 или 1.
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the capital/major city of France?"}, {"role": "assistant", "content": "Paris", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Paris, as if everyone doesn't know that already.", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'Romeo and Juliet'?"}, {"role": "assistant", "content": "William Shakespeare", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Oh, just some guy named William Shakespeare. Ever heard of him?", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "How far is the Moon from Earth?"}, {"role": "assistant", "content": "384,400 kilometers", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Around 384,400 kilometers. Give or take a few, like that really matters.", "weight": 1}]}
Завершение чата с помощью визуального зрения
{"messages": [{"role": "user", "content": [{"type": "text", "text": "What's in this image?"}, {"type": "image_url", "image_url": {"url": "https://raw.githubusercontent.com/MicrosoftDocs/azure-ai-docs/main/articles/ai-services/openai/media/how-to/generated-seattle.png"}}]}, {"role": "assistant", "content": "The image appears to be a watercolor painting of a city skyline, featuring tall buildings and a recognizable structure often associated with Seattle, like the Space Needle. The artwork uses soft colors and brushstrokes to create a somewhat abstract and artistic representation of the cityscape."}]}
Рекомендации по размеру набора данных
Чем больше примеров обучения у вас есть, тем лучше. Задания точной настройки не будут продолжаться без не менее 10 примеров обучения, но такого небольшого числа недостаточно, чтобы заметно повлиять на ответы модели. Рекомендуется обеспечить успешную тонкую настройку, предоставляя сотни, если не тысячи, примеров для обучения. Рекомендуется начать с 50 хорошо созданных примеров.
Как правило, удвоение размера набора данных может привести к линейному увеличению качества модели. Но помните, что примеры низкого качества могут негативно повлиять на производительность. Если вы обучаете модель на большом количестве внутренних данных, не очистив сначала набор данных и оставляя только примеры наивысшего качества, ваша модель может показывать результаты хуже, чем ожидалось.
Создайте точно настроенную модель
Портал Foundry предоставляет диалоговое окно Создать точно настроенную модель, чтобы создать и обучить точно настроенную модель для ресурса Azure в одном месте.
Перейдите на портал Foundry и войдите с учетными данными, имеющими доступ к ресурсу OpenAI Azure. Во время рабочего процесса входа выберите соответствующий каталог Azure, подписку Azure и ресурс Azure OpenAI.
Перейдите в раздел"Точное настройка>", а затем выберите модель точной настройки.
Выберите модель для точной настройки и нажмите кнопку "Далее".
Откроется диалоговое окно "Создание точно настроенной модели ".
Выбор метода обучения
Первым шагом является подтверждение выбора модели и метода обучения. Не все модели поддерживают все методы обучения.
- Контролируемая донастройка: поддерживается всеми моделями, не связанными с рассуждением.
- Оптимизация прямых предпочтений (предварительная версия): поддерживается GPT-4o.
- Тонкая настройка с подкреплением: поддерживается такими моделями рассуждений, как o4-mini.
При выборе модели можно также выбрать ранее настраиваемую модель, как описано далее в этой статье.
Выбор типа обучения
Foundry предлагает три уровня обучения для удовлетворения потребностей клиентов.
Уровень обучения "Стандартный"
Уровень "Стандартный" предоставляет выделенную емкость для точной настройки с прогнозируемой производительностью и соглашениями об уровне обслуживания. Это идеально подходит для рабочих нагрузок, требующих гарантированной пропускной способности.
Глобальный уровень обучения уровня "Стандартный"
Уровень глобального обучения расширяет возможности настройки модели благодаря более доступным ценам на другие глобальные предложения. Он не предлагает хранение данных в определенной юрисдикции. Если вам нужна резиденция данных, см. список доступных регионов для выбранной модели.
Данные обучения и веса модели могут быть скопированы в другой регион Azure.
При использовании этого уровня можно:
- Обучайте последние модели OpenAI из более чем десятка регионов Azure OpenAI.
- Воспользуйтесь более низкими ставками обучения за токен по сравнению с уровнем "Стандарт".
Уровень обучения разработчика
Тариф разработчика — это экономичный вариант, который использует резервные мощности для несрочных или исследовательских рабочих нагрузок. Задания на этом уровне могут быть приостановлены и возобновлены позже, поэтому он идеально подходит для экспериментов и затратных сценариев использования.
Выберите обучающие данные
Следующим шагом является выбор существующих подготовленных обучающих данных или отправка новых подготовленных обучающих данных для использования при настройке модели, нажав кнопку "Добавить обучающие данные".
В диалоговом окне "Обучающие данные" отображаются все существующие ранее загруженные наборы данных. Он также предоставляет возможности для отправки новых обучающих данных.
Если данные обучения уже отправлены в службу, выберите "Файлы" из ресурса Подключенного искусственного интеллекта. Затем выберите файл из раскрывающегося списка.
Чтобы отправить новые обучающие данные, используйте один из следующих вариантов:
- Выберите " Отправить файлы " для отправки обучающих данных из локального файла.
- Выберите объект Blob в Azure или другие совместно используемые веб-расположения для импорта обучающих данных из Хранилище BLOB-объектов Azure или другого совместно используемого веб-расположения.
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут становиться нестабильными при отправке их через формы с несколькими частями, так как запросы являются атомарными и не могут быть повторены или продолжены. Дополнительные сведения о Хранилище BLOB-объектов см. статью Что такое Хранилище BLOB-объектов Azure?.
Выберите данные проверки (необязательно)
Если у вас есть набор данных проверки, выберите "Добавить обучающие данные". Вы можете выбрать существующие подготовленные данные проверки или отправить новые подготовленные данные проверки для использования при настройке модели.
В диалоговом окне "Данные проверки " отображаются все существующие ранее загруженные наборы данных для обучения и проверки. Он также предоставляет варианты отправки новых данных проверки.
Если данные проверки уже отправлены в службу, выберите "Выбрать набор данных". Затем выберите файл из раскрывающегося списка.
Чтобы отправить новые данные проверки, используйте один из следующих вариантов:
- Выберите локальный файл для отправки данных проверки из локального файла.
- Выберите Azure Blob или другие общие веб-локации для импорта данных проверки из Хранилище BLOB-объектов Azure или другого общего веб-расположения.
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут стать нестабильными при отправке их через многокомпонентные формы, так как запросы являются атомарными и не могут быть повторно отправлены или возобновлены.
Сделать модель идентифицируемой (необязательно)
Мы рекомендуем включить suffix параметр, чтобы проще различать итерации вашей точно настроенной модели. Параметр suffix принимает строку до 18 символов и используется для именования полученной точно настроенной модели.
Настройка параметров обучения (необязательно)
Вы можете предоставить дополнительное начальное значение и настроить дополнительные гиперпараметры.
Сид контролирует воспроизводимость задания. Передача одинаковых параметров начального значения и заданий должна иметь одинаковые результаты, но может отличаться в редких случаях. Если вы не указываете начальное число, оно создается случайным образом.
Для настройки на портале Foundry доступны следующие гиперпараметры:
| Имя | Тип | Описание |
|---|---|---|
| Размер пакета | Целое число | Размер пакета, используемый для обучения. Размер пакета — это количество примеров обучения, используемых для обучения одного и обратного прохода. Как правило, мы обнаружили, что большие размеры пакетов, как правило, лучше работают для больших наборов данных. Значение по умолчанию и максимальное значение этого свойства относятся к базовой модели. Более крупный размер пакета означает, что параметры модели обновляются реже, но с более низкой дисперсией. |
| Умножение скорости обучения | Номер | Множитель скорости обучения для использования при обучении. Скорость обучения для настройки параметров модели — это исходная скорость обучения, используемая для предварительного обучения, умноженная на это значение. Более высокие темпы обучения, как правило, лучше работают с большими размерами мини-пакетов. Мы рекомендуем экспериментировать со значениями в диапазоне от 0,02 до 0,2 , чтобы увидеть, что дает лучшие результаты. Меньший темп обучения может оказаться полезным, чтобы избежать переподбора. |
| Число эпох | Целое число | Количество эпох для обучения модели. Эпоха относится к одному полному циклу через обучающий набор данных. |
Включение автоматического развертывания (необязательно)
Чтобы сэкономить время, можно дополнительно включить автоматическое развертывание для результирующей модели. Если обучение завершится успешно, модель развертывается в соответствии с выбранным типом развертывания. Имя развертывания основано на уникальном имени, созданном для пользовательской модели, и необязательном суффиксе, который вы могли предоставить ранее.
Примечание
В настоящее время для автоматического развертывания поддерживаются только развертывания Global Standard и Developer. Ни в чем из этих вариантов не предусмотрено размещение данных. Дополнительные сведения см. в документации по типам развертывания.
Просмотрите варианты и обучите модель
Просмотрите выбранные варианты и нажмите кнопку "Отправить ", чтобы начать обучение новой точно настроенной модели.
Проверка состояния пользовательской модели
После отправки задания тонкой настройки откроется страница со сведениями о вашей точно настроенной модели. Состояние и дополнительные сведения о настраиваемой модели можно найти на странице точной настройки на портале Foundry.
Ваша задача может быть поставлена в очередь после других задач в системе. Обучение модели может занять несколько минут или часов в зависимости от размера модели и набора данных.
Создание контрольных точек
После завершения каждой эпохи обучения создается контрольная точка. Контрольная точка — это полностью функциональная версия модели, которая может быть развернута и использована в качестве целевой модели для последующих заданий точной настройки.
Контрольные точки могут быть особенно полезными, так как они могут предоставлять моментальные снимки до того, как произойдёт переобучение. После завершения задания точной настройки у вас есть три последних версии модели, доступные для развертывания. С помощью REST API можно скопировать контрольные точки между ресурсами и подписками.
Приостановка и возобновление
Вы можете отслеживать ход выполнения в обоих представлениях тонкой настройки портала Foundry. Задание проходит через те же состояния, как обычные задания тонкой настройки (В очереди, Запуск, Успешное выполнение).
Вы также можете просматривать файлы результатов во время выполнения обучения, чтобы получить представление о том, как идет процесс и соответствует ли он ожиданиям.
Во время обучения можно просмотреть метрики и приостановить задание по мере необходимости. Приостановка может быть полезной, если метрики не сходятся или если вы считаете, что обучение модели идет не в правильном темпе. При приостановке задания обучения развертываемая контрольная точка создается после завершения оценки безопасности. Эта контрольная точка доступна для развертывания и использования для вывода или возобновления выполнения задания. Операция приостановки применима только для заданий, которые выполнялись по крайней мере один шаг и находятся в состоянии выполнения.
Анализ пользовательской модели
Azure OpenAI присоединяет файл результатов с именем results.csv к каждому заданию тонкой настройки после завершения. Вы можете использовать файл результатов для анализа производительности обучения и проверки пользовательской модели. Идентификатор файла результата указан для каждой пользовательской модели в столбце идентификатора файла результатов на панели "Модели " портала Foundry. Идентификатор файла можно использовать для идентификации и скачивания файла результатов на панели файлов данных на портале Foundry.
Результирующий файл — это CSV-файл, который содержит строку заголовка и строку для каждого шага обучения, выполняемого при доработке задания. Результирующий файл содержит следующие столбцы:
| Имя столбца | Описание |
|---|---|
step |
Количество шага обучения. Шаг обучения представляет собой один проход вперед и назад в пакете обучающих данных. |
train_loss |
Потери для пакета обучения. |
train_mean_token_accuracy |
Процент токенов из пакета обучения, который модель правильно предсказала. Например, если размер пакета задан как 3, и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
valid_loss |
Потеря пакета проверки. |
validation_mean_token_accuracy |
Процент токенов в валидационном батче, которые модель правильно предсказала. Например, если размер пакета задан как 3, и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
full_valid_loss |
Потеря проверки, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, потеря должна уменьшиться. |
full_valid_mean_token_accuracy |
Допустимая средняя точность маркера, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, точность маркеров должна увеличиться. |
Вы также можете просмотреть данные в results.csv файле как графики на портале Foundry. При нажатии на ссылку для обученной модели отображаются три диаграммы: функция потерь, средняя точность токена и точность токена. Если вы предоставили данные проверки, оба набора данных отображаются на одном графике.
Ожидайте снижения вашей потери с течением времени и увеличения вашей точности. Если данные обучения и проверки различаются, возможно, вы переобучаете модель. Попробуйте тренироваться с меньшим количеством эпох или меньшим множителем скорости обучения.
Разверните тонко настроенную модель
Если вы довольны результатами метрик из задачи тонкой настройки или хотите перейти к проведению инференции, необходимо внедрить модель.
Если вы развертываете для дополнительной проверки, рассмотрите возможность развертывания для тестирования с помощью развертывания для разработчиков.
Если вы готовы к развертыванию для эксплуатации или у вас есть определенные потребности в сохранении данных, следуйте руководству по развертыванию.
Использование развернутой тонко настроенной модели
После развертывания точно настроенной модели её можно использовать как любую другую развернутую модель. Вы можете использовать детскую площадку в Foundry для экспериментов с новым развертыванием. Вы также можете использовать REST API для вызова вашей точно настроенной модели из собственного приложения. Вы даже можете приступить к использованию этой новой точно настроенной модели в потоке запросов для создания генеративного приложения ИИ.
Примечание
Для моделей чата системное сообщение, которое вы используете для управления точно настроенной моделью (развернутой или доступной для тестирования на детской площадке), должно совпадать с системным сообщением, используемым для обучения. Если вы используете другое системное сообщение, модель может не выполняться должным образом.
Выполнение непрерывной точной настройки
После создания точно настроенной модели может потребоваться продолжить уточнение модели с течением времени с помощью дальнейшей тонкой настройки. Непрерывная итеративная настройка — это итеративный процесс выбора уже настраиваемой модели в качестве базовой модели и последующей настройки новых наборов примеров обучения.
Для точной настройки модели, которую вы ранее настроили, используйте тот же процесс, который описан в разделе "Создание точно настроенной модели". Но вместо указания имени универсальной базовой модели можно указать уже настроенную модель. Настроенная модель выглядит следующим образом gpt-4o-2024-08-06.ft-d93dda6110004b4da3472d96f4dd4777-ft.
Очистка развертываний, пользовательских моделей и файлов обучения
Когда вам больше не нужна настраиваемая модель, вы можете удалить как развертывание, так и модель. Вы также можете удалить файлы обучения и проверки, отправленные в службу при необходимости.
Удалите развертывание модели
Важно
После развертывания настраиваемой модели, если развертывание в любое время остается неактивным в течение более 15 дней, развертывание удаляется. Развертывание настроенной модели неактивно, если модель была развернута более 15 дней назад и в течение непрерывного 15-дневного периода к ней не направлялись завершения чатов или вызовы ответного API.
Удаление неактивного развертывания не влияет на базовую настраиваемую модель. Настраиваемая модель может быть развернута в любое время.
Как описано в разделе Цены на модели Azure OpenAI и Microsoft Foundry Models, каждая настраиваемая (адаптированная) модель, которая развертывается, требует оплаты почасового размещения, независимо от того, вызываются ли возможности завершения чата или делаются вызовы API к модели. Дополнительные сведения о планировании и управлении затратами на Azure OpenAI см. в статье Plan и управление затратами на Azure OpenAI.
Развертывание настраиваемой модели можно удалить на панели "Развертывания " на портале Foundry. Выберите развертывание для удаления, а затем выберите Удалить.
Удалите пользовательскую модель
Пользовательскую модель можно удалить на панели Модели на портале Foundry. Выберите пользовательскую модель для удаления на вкладке "Настраиваемые модели " и нажмите кнопку "Удалить".
Примечание
Вы не можете удалить пользовательскую модель, если она имеет существующее развертывание. Вы должны удалить развертывание вашей модели перед тем, как удалить вашу пользовательскую модель.
Удаление обучающих файлов
При необходимости можно удалить файлы обучения и проверки, отправленные для обучения, а также файлы результатов, созданные во время обучения, на панели "Данные управления>и индексы " на портале Foundry. Выберите файл для удаления и нажмите кнопку "Удалить".
Необходимые условия
- Прочитайте руководство по использованию дополнительных настроек Azure OpenAI.
- Вам нужна Azure подписка. Создайте его бесплатно.
- Вам нужен ресурс Azure OpenAI. Дополнительные сведения см. в разделе Создание ресурса и развертывание модели с помощью Azure OpenAI.
- Необходимы следующие библиотеки Python:
os,json,requests,openai. - Вам нужна библиотека OpenAI Python.
- Для настройки требуется роль Azure AI Owner. Хотя пользователи Azure AI могут обучать и настраивать модели, их могут развертывать только Владельцы ИИ.
- Если у вас еще нет доступа к просмотру квот и развертыванию моделей на портале Foundry, вам потребуется больше разрешений.
Поддерживаемые модели
Чтобы проверить, какие регионы в настоящее время поддерживают точную настройку, ознакомьтесь со статьей о моделях.
Или можно точно настроить ранее настраиваемую модель, отформатированную как base-model.ft-{jobid}.
Просмотр рабочего процесса для пакета SDK для Python
Пожалуйста, уделите время для ознакомления с рабочим процессом настройки использования Python SDK с Azure OpenAI.
- Подготовьте данные обучения и проверки.
- Выберите базовую модель.
- Отправьте данные обучения.
- Обучите новую настраиваемую модель.
- Проверьте состояние настраиваемой модели.
- Разверните настраиваемую модель для использования.
- Используйте настраиваемую модель.
- При необходимости проанализируйте вашу настраиваемую модель на производительность и соответствие.
Подготовьте данные для обучения и проверки
Наборы данных для обучения и валидации состоят из примеров входных и выходных данных, чтобы модель работала.
Используемые данные обучения и проверки должны быть отформатированы в виде документа JSON Lines (JSONL). Он также должен быть отформатирован в формате беседы, который использует API завершения чата .
Помимо формата JSONL, файлы данных обучения и проверки должны быть закодированы в UTF-8 и включать метку порядка байтов (BOM). Размер каждого файла должен быть меньше 512 МБ.
Если вы хотите пошаговое руководство по настройке gpt-4o-mini-2024-07-18, ознакомьтесь с руководством по настройке Azure OpenAI.
Пример формата файла
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who discovered Antarctica?"}, {"role": "assistant", "content": "Some chaps named Fabian Gottlieb von Bellingshausen and Mikhail Lazarev, as if they don't teach that in every school!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the biggest ocean?"}, {"role": "assistant", "content": "The Pacific Ocean. It's not like it's a small pond or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest planet?"}, {"role": "assistant", "content": "It's called Jupiter, you might have heard of it...or not."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who painted the Mona Lisa?"}, {"role": "assistant", "content": "Oh, some obscure artist named Leonardo da Vinci. Not that he is famous or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the boiling point of water?"}, {"role": "assistant", "content": "Exciting fact of the day: it's 100 degrees Celsius. Life-changing, isn't it?"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'The Odyssey'?"}, {"role": "assistant", "content": "Oh, just some poet named Homer. Nothing special, really."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest mammal?"}, {"role": "assistant", "content": "Blue Whale. Quite a big fish, isn't it? Oh wait, it's not a fish!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the highest mountain peak?"}, {"role": "assistant", "content": "Everest. Brace yourself, it's not a walk in the park."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who invented the telephone?"}, {"role": "assistant", "content": "A guy named Alexander Graham Bell. Bet you didn't guess that one!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the distance from Earth to the Sun?"}, {"role": "assistant", "content": "About 93 million miles. Just a quick drive, really."}]}
Формат файла чата с несколькими обменами репликами
Кроме того, поддерживаются несколько поворотов беседы в одной строке файла обучения JSONL. Чтобы пропустить тонкую настройку для определенных сообщений помощника, добавьте необязательный параметр "ключ-значение" weight. В настоящее время weight можно задать значение 0 или 1.
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the capital/major city of France?"}, {"role": "assistant", "content": "Paris", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Paris, as if everyone doesn't know that already.", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'Romeo and Juliet'?"}, {"role": "assistant", "content": "William Shakespeare", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Oh, just some guy named William Shakespeare. Ever heard of him?", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "How far is the Moon from Earth?"}, {"role": "assistant", "content": "384,400 kilometers", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Around 384,400 kilometers. Give or take a few, like that really matters.", "weight": 1}]}
Завершение чата с помощью визуального зрения
{"messages": [{"role": "user", "content": [{"type": "text", "text": "What's in this image?"}, {"type": "image_url", "image_url": {"url": "https://raw.githubusercontent.com/MicrosoftDocs/azure-ai-docs/main/articles/ai-services/openai/media/how-to/generated-seattle.png"}}]}, {"role": "assistant", "content": "The image appears to be a watercolor painting of a city skyline, featuring tall buildings and a recognizable structure often associated with Seattle, like the Space Needle. The artwork uses soft colors and brushstrokes to create a somewhat abstract and artistic representation of the cityscape."}]}
Создание наборов данных для обучения и проверки
Чем больше примеров обучения у вас есть, тем лучше. Задания точной настройки не будут продолжаться без не менее 10 примеров обучения, но такого небольшого числа недостаточно, чтобы заметно повлиять на ответы модели. Рекомендуется обеспечить успешную тонкую настройку, предоставляя сотни, если не тысячи, примеров для обучения.
Как правило, удвоение размера набора данных может привести к линейному увеличению качества модели. Но помните, что примеры низкого качества могут негативно повлиять на производительность. Если вы обучаете модель на большом количестве внутренних данных, не очистив сначала набор данных и оставляя только примеры наивысшего качества, ваша модель может показывать результаты хуже, чем ожидалось.
Отправка обучающих данных
Следующим шагом является выбор существующих подготовленных обучающих данных или отправка новых подготовленных обучающих данных для использования при настройке модели. После подготовки обучающих данных вы можете передать файлы в службу. Существует два способа отправки обучающих данных:
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут стать нестабильными при отправке их через многокомпонентные формы, так как запросы являются атомарными и не могут быть повторно отправлены или возобновлены. Дополнительные сведения о Хранилище BLOB-объектов см. статью Что такое Хранилище BLOB-объектов Azure?.
Следующий Python пример отправляет локальные файлы обучения и проверки с помощью пакета SDK Python и извлекает возвращенные идентификаторы файлов:
import os
from openai import OpenAI
# Load the OpenAI client
client = OpenAI(
api_key = os.getenv("AZURE_OPENAI_API_KEY"),
base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/"
)
# Upload the training and validation dataset files to Microsoft Foundry with the SDK.
training_file_name = 'training_set.jsonl'
validation_file_name = 'validation_set.jsonl'
training_response = client.files.create(file=open(training_file_name, "rb"), purpose="fine-tune")
validation_response = client.files.create(file=open(validation_file_name, "rb"), purpose="fine-tune")
training_file_id = training_response.id
validation_file_id = validation_response.id
print("Training file ID:", training_file_id)
print("Validation file ID:", validation_file_id)
Создание настраиваемой модели
После загрузки файлов обучения и проверки вы будете готовы начать задание тонкой настройки.
В следующем Python коде показан пример создания нового задания тонкой настройки с помощью пакета SDK для Python:
response = client.fine_tuning.jobs.create(
training_file=training_file_id,
validation_file=validation_file_id,
model="gpt-4.1-2025-04-14", # Enter the base model name.
suffix="my-model", # Custom suffix for naming the resulting model. Note that in Microsoft Foundry, the model can't contain dot/period characters.
seed=105, # Seed parameter controls reproducibility of the fine-tuning job. If you don't specify a seed, one is generated automatically.
extra_body={ "trainingType": "GlobalStandard" } # Change this value to your preferred training type. Other options are `Standard` and `Developer`.
)
job_id = response.id
# You can use the job ID to monitor the status of the fine-tuning job.
# The fine-tuning job takes some time to start and finish.
print("Job ID:", response.id)
print(response.model_dump_json(indent=2))
Примечание
Мы рекомендуем использовать уровень Global Standard для типа обучения, так как он обеспечивает экономию затрат и использует глобальную емкость для ускорения очередей. Однако он копирует данные и весовые значения за пределами текущего региона ресурсов. Если требуется размещение данных, используйте модель, которая поддерживает обучение на уровне «Стандарт».
Вы также можете передать дополнительные необязательные параметры, такие как гиперпараметры, чтобы получить более широкий контроль над процессом тонкой настройки. Для начального обучения рекомендуется использовать автоматические значения по умолчанию, которые присутствуют без указания этих параметров.
Поддерживаемые в настоящее время гиперпараметры для защищенной тонкой настройки:
| Имя | Тип | Описание |
|---|---|---|
batch_size |
Целое число | Размер пакета, используемый для обучения. Размер пакета — это количество примеров обучения, используемых для обучения одного и обратного прохода. Как правило, мы обнаружили, что большие размеры пакетов, как правило, лучше работают для больших наборов данных. Значение по умолчанию и максимальное значение этого свойства относятся к базовой модели. Более крупный размер пакета означает, что параметры модели обновляются реже, но с более низкой дисперсией. |
learning_rate_multiplier |
Номер | Множитель скорости обучения для использования при обучении. Скорость обучения для настройки параметров модели — это исходная скорость обучения, используемая для предварительного обучения, умноженная на это значение. Более высокие темпы обучения, как правило, лучше работают с большими размерами мини-пакетов. Мы рекомендуем поэкспериментировать со значениями в диапазоне от 0.02 до 0.2, чтобы увидеть, что дает лучшие результаты. Меньший темп обучения может оказаться полезным, чтобы избежать переподбора. |
n_epochs |
Целое число | Количество эпох для обучения модели. Эпоха относится к одному полному циклу через обучающий набор данных. |
seed |
Целое число | Сид, который обеспечивает воспроизводимость задания. Передача одинаковых параметров начального значения и заданий должна иметь одинаковые результаты, но может отличаться в редких случаях. Если вы не указываете сид, он будет сгенерирован для вас. |
Чтобы задать пользовательские гиперпараметры с версией 1.x API OpenAI Python, предоставьте их в составе method:
client.fine_tuning.jobs.create(
training_file="file-abc123",
model="gpt-4.1-2025-04-14",
suffix="my-model",
seed=105,
method={
"type": "supervised", # In this case, the job is using supervised fine-tuning.
"supervised": {
"hyperparameters": {
"n_epochs": 2
}
}
},
extra_body={ "trainingType": "GlobalStandard" }
)
Чтобы узнать о поддерживаемых гиперпараметрах для других методов настройки, см. руководство по прямой оптимизации предпочтений и руководство по тонкой настройке с подкреплением.
Тип обучения
Выберите уровень обучения на основе варианта использования и бюджета:
Стандартный: обучение происходит в текущем регионе ресурса Foundry и предоставляет гарантию размещения данных. Идеально подходит для рабочих нагрузок, в которых данные должны оставаться в определенном регионе.
Глобальный: обеспечивает более доступные цены по сравнению со стандартом, используя емкость за пределами текущего региона. Данные и весовые значения копируются в регион, где происходит обучение. Идеально подходит, если место размещения данных не является ограничением, и требуется ускорить время очереди.
Разработчик (предварительная версия): обеспечивает значительную экономию, используя резервные мощности для обучения. Нет гарантий задержки или гарантий соглашения об уровне обслуживания, поэтому задания на этом уровне могут быть автоматически прерваны и позже возобновлены. Нет никаких гарантий для хранения данных. Идеально подходит для экспериментов и чувствительных к цене рабочих нагрузок.
import openai
from openai import AzureOpenAI
base_uri = "https://<ACCOUNT-NAME>.services.ai.azure.com"
api_key = "<API-KEY>"
api_version = "2025-04-01-preview"
client = AzureOpenAI(
azure_endpoint=base_uri,
api_key=api_key,
api_version=api_version
)
try:
client.fine_tuning.jobs.create(
model="gpt-4.1-mini",
training_file="<FILE-ID>",
extra_body={"trainingType": "developerTier"}
)
except openai.APIConnectionError as e:
print("The server could not be reached")
print(e.__cause__) # An underlying exception, likely raised within httpx.
except openai.RateLimitError as e:
print("A 429 status code was received; we should back off a bit.")
except openai.APIStatusError as e:
print("Another non-200-range status code was received")
print(e.status_code)
print(e.response)
print(e.body)
Проверка статуса задания тонкой настройки
response = client.fine_tuning.jobs.retrieve(job_id)
print("Job ID:", response.id)
print("Status:", response.status)
print(response.model_dump_json(indent=2))
Список событий настройки
Чтобы проверить отдельные события тонкой настройки, созданные во время обучения, выполните следующую команду. Перед выполнением команды может потребоваться обновить клиентную библиотеку OpenAI до последней версии с помощью pip install openai --upgrade.
response = client.fine_tuning.jobs.list_events(fine_tuning_job_id=job_id, limit=10)
print(response.model_dump_json(indent=2))
Список контрольных точек
Завершение каждой эпохи обучения создает контрольную точку. Контрольная точка — это полностью функциональная версия модели, которая может быть развернута и использована в качестве целевой модели для последующих заданий точной настройки. Контрольные точки могут быть особенно полезными, так как они могут предоставлять моментальные снимки до того, как произойдёт переобучение.
После завершения задания точной настройки у вас есть три последних версии модели, доступные для развертывания. Ваша донастроенная модель представляет последнюю эпоху. Предыдущие две эпохи доступны в качестве контрольных точек.
Чтобы получить список контрольных точек, связанных с отдельным заданием точной настройки, можно выполнить следующую команду. Перед выполнением команды может потребоваться обновить клиентную библиотеку OpenAI до последней версии с помощью pip install openai --upgrade.
response = client.fine_tuning.jobs.checkpoints.list(job_id)
print(response.model_dump_json(indent=2))
Анализ настраиваемой модели
Azure OpenAI присоединяет файл результатов с именем results.csv к каждому заданию тонкой настройки после завершения. Вы можете использовать файл результатов для анализа производительности обучения и проверки настраиваемой модели. Идентификатор файла для результирующих файлов указан для каждой настраиваемой модели. Пакет SDK Python можно использовать для получения идентификатора файла и скачивания файла результатов для анализа.
В следующем примере на Python извлекается ID первого файла результатов, прикрепленного к работе точной настройки для вашей настраиваемой модели. Затем он использует пакет SDK Python для скачивания файла в текущий рабочий каталог для анализа.
# Retrieve the file ID of the first result file from the fine-tuning job
# for the customized model.
response = client.fine_tuning.jobs.retrieve(job_id)
if response.status == 'succeeded':
result_file_id = response.result_files[0]
retrieve = client.files.retrieve(result_file_id)
# Download the result file.
print(f'Downloading result file: {result_file_id}')
with open(retrieve.filename, "wb") as file:
result = client.files.content(result_file_id).read()
file.write(result)
Результирующий файл — это CSV-файл, который содержит строку заголовка и строку для каждого шага обучения, выполняемого при доработке задания. Результирующий файл содержит следующие столбцы:
| Имя столбца | Описание |
|---|---|
step |
Количество шага обучения. Шаг обучения представляет собой один проход вперед и назад в пакете обучающих данных. |
train_loss |
Потери для пакета обучения. |
train_mean_token_accuracy |
Процент токенов из пакета обучения, который модель правильно предсказала. Например, если задан объем пакета 3 и данные содержат выполнения [[1, 2], [0, 5], [4, 2]], это значение устанавливается в 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
valid_loss |
Потеря пакета проверки. |
validation_mean_token_accuracy |
Процент токенов в валидационном батче, которые модель правильно предсказала. Например, если размер пакета задан как 3, и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
full_valid_loss |
Потеря проверки, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, потеря должна уменьшиться. |
full_valid_mean_token_accuracy |
Допустимая средняя точность маркера, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, точность маркеров должна увеличиться. |
Вы также можете просмотреть данные в файле results.csv как графики на портале Microsoft Foundry. При нажатии на ссылку для обученной модели отображаются три диаграммы: функция потерь, средняя точность токена и точность токена. Если вы предоставили данные проверки, оба набора данных отображаются на одном графике.
Ожидайте снижения вашей потери с течением времени и увеличения вашей точности. Если данные обучения и проверки различаются, возможно, вы переобучаете модель. Попробуйте тренироваться с меньшим количеством эпох или меньшим множителем скорости обучения.
Разверните тонко настроенную модель
Если вы довольны результатами метрик из задачи тонкой настройки или хотите перейти к проведению инференции, необходимо внедрить модель.
Если вы развертываете для дополнительной проверки, рассмотрите возможность развертывания для тестирования с помощью развертывания для разработчиков.
В отличие от предыдущих команд ПАКЕТА SDK, для развертывания необходимо использовать API уровня управления. Для этой задачи требуется отдельная авторизация, другой путь к API и другая версия API.
| Переменная | Определение |
|---|---|
token |
Маркер авторизации. Существует несколько способов создания токена авторизации. Самый простой способ начального тестирования — открыть Azure Cloud Shell на портале Azure. Затем выполните команду az account get-access-token. Этот маркер можно использовать в качестве временного маркера авторизации для тестирования API. Рекомендуется хранить этот маркер в новой переменной среды. |
subscription |
Идентификатор подписки для связанного Azure ресурса OpenAI. |
resource_group |
Имя группы ресурсов для ресурса Azure OpenAI. |
resource_name |
Имя ресурса OpenAI Azure. |
model_deployment_name |
Настраиваемое название для нового тонко настроенного развертывания модели. Это имя ссылается в коде во время вызовов завершения сеанса чата. |
fine_tuned_model |
Ваша оптимизированная модель. Извлеките это значение из результатов задачи точной настройки на предыдущем шаге. Похоже gpt-4.1-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83. Необходимо добавить значение в deploy_data JSON. Кроме того, можно выполнить развертывание контрольной точки, передав ее идентификатор, который отображается в формате ftchkpt-e559c011ecc04fc68eaa339d8227d02d. |
import json
import os
import requests
token= os.getenv("<TOKEN>")
subscription = "<YOUR_SUBSCRIPTION_ID>"
resource_group = "<YOUR_RESOURCE_GROUP_NAME>"
resource_name = "<YOUR_AZURE_OPENAI_RESOURCE_NAME>"
model_deployment_name ="gpt-41-ft" # Custom deployment name that you use to reference the model when making inference calls.
deploy_params = {'api-version': "2024-10-01"} # Control plane API version rather than the data plane API for this call
deploy_headers = {'Authorization': 'Bearer {}'.format(token), 'Content-Type': 'application/json'}
deploy_data = {
"sku": {"name": "standard", "capacity": 1},
"properties": {
"model": {
"format": "OpenAI",
"name": <"fine_tuned_model">, # Retrieve this value from the previous call; it looks like gpt-4.1-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83
"version": "1"
}
}
}
deploy_data = json.dumps(deploy_data)
request_url = f'https://management.azure.com/subscriptions/{subscription}/resourceGroups/{resource_group}/providers/Microsoft.CognitiveServices/accounts/{resource_name}/deployments/{model_deployment_name}'
print('Creating a new deployment...')
r = requests.put(request_url, params=deploy_params, headers=deploy_headers, data=deploy_data)
print(r)
print(r.reason)
print(r.json())
Сведения о развертывании между регионами и использовании развернутой модели см. в статье "Использование развернутой точно настроенной модели".
Если вы готовы к развертыванию для эксплуатации или у вас есть определенные потребности в сохранении данных, следуйте руководству по развертыванию.
Выполнение непрерывной точной настройки
После создания точно настроенной модели может потребоваться продолжить уточнение модели с течением времени с помощью дальнейшей тонкой настройки. Непрерывная итеративная настройка — это итеративный процесс выбора уже настраиваемой модели в качестве базовой модели и последующей настройки новых наборов примеров обучения. Поддержка непрерывной тонкой настройки осуществляется только для моделей OpenAI.
Для точной настройки модели, которую вы ранее настроили, используйте тот же процесс, описанный в разделе "Создание настраиваемой модели". Но вместо указания имени универсальной базовой модели необходимо указать идентификатор настраиваемой модели. Идентификатор точно настроенной модели выглядит так: gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7.
response = client.fine_tuning.jobs.create(
training_file=training_file_id,
validation_file=validation_file_id,
model="gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7"
)
job_id = response.id
# You can use the job ID to monitor the status of the fine-tuning job.
# The fine-tuning job takes some time to start and finish.
print("Job ID:", response.id)
print("Status:", response.id)
print(response.model_dump_json(indent=2))
Мы также рекомендуем включить suffix параметр, чтобы проще различать итерации вашей точно настроенной модели. Параметр suffix принимает строку и устанавливается для идентификации точно настроенной модели. С помощью API OpenAI Python можно добавить строку до 18 символов в имя настраиваемой модели.
Если вы не уверены в идентификаторе существующей точно настроенной модели, вы можете найти эту информацию на странице Models Microsoft Foundry. Кроме того, можно создать список моделей для ресурса OpenAI Azure с помощью REST API.
Очистка развертываний, настраиваемых моделей и файлов обучения
Если вам больше не нужна настраиваемая модель, можно удалить развертывание и модель. Вы также можете удалить файлы обучения и проверки, отправленные в службу при необходимости.
Удалите развертывание модели
Важно
После развертывания настраиваемой модели, если развертывание в любое время остается неактивным в течение более 15 дней, развертывание удаляется. Развертывание настроенной модели неактивно, если модель была развернута более 15 дней назад и в течение непрерывного 15-дневного периода к ней не направлялись завершения чатов или вызовы ответного API.
Удаление неактивного развертывания не влияет на базовую настраиваемую модель. Настраиваемая модель может быть развернута в любое время.
Как описано в разделе Цены на модели Azure OpenAI и Microsoft Foundry Models, каждая настраиваемая (адаптированная) модель, которая развертывается, требует оплаты почасового размещения, независимо от того, вызываются ли возможности завершения чата или делаются вызовы API к модели. Дополнительные сведения о планировании и управлении затратами на Azure OpenAI см. в статье Plan и управление затратами на Azure OpenAI.
Вы можете использовать любой из этих методов для удаления развертывания для настраиваемой модели:
Удаление настраиваемой модели
Вы можете удалить настраиваемую модель с помощью Foundry.
Примечание
Вы не можете удалить настраиваемую модель, если она имеет существующее развертывание. Перед удалением вашей настраиваемой модели вам необходимо удалить развертывание модели.
Удаление обучающих файлов
Вы можете при необходимости удалить файлы обучения и проверки, которые вы загрузили для обучения, и файлы результатов, созданные в ходе обучения, из вашей подписки Azure OpenAI. Для удаления обучающих, проверки и результирующих файлов можно использовать следующие методы:
- Литейный цех
- REST API
- пакет SDK Python
В следующем примере Python используется пакет SDK Python для удаления файлов обучения, проверки и результатов для настраиваемой модели:
print('Checking for existing uploaded files.')
results = []
# Get the complete list of uploaded files in your subscription.
files = openai.File.list().data
print(f'Found {len(files)} total uploaded files in the subscription.')
# Enumerate all uploaded files. Extract the IDs for the
# files with file names that match your training dataset file and
# validation dataset file.
for item in files:
if item["filename"] in [training_file_name, validation_file_name, result_file_name]:
results.append(item["id"])
print(f'Found {len(results)} already uploaded files that match our files')
# Enumerate the file IDs for your files and delete each file.
print(f'Deleting already uploaded files.')
for id in results:
openai.File.delete(sid = id)
Необходимые условия
- Прочитайте руководство по использованию дополнительных настроек Azure OpenAI.
- Вам нужна Azure подписка. Создайте его бесплатно.
- Вам нужен ресурс Azure OpenAI. Дополнительные сведения см. в разделе Создание ресурса и развертывание модели с помощью Azure OpenAI.
- Для настройки требуется роль Azure AI Owner. Хотя пользователи Azure AI могут обучать (проводить тонкую настройку моделей), развертывать модели могут только владельцы ИИ.
- Если у вас еще нет доступа к просмотру квот и развертыванию моделей на портале Foundry, вам потребуется больше разрешений.
Поддерживаемые модели
Чтобы проверить, какие регионы в настоящее время поддерживают точную настройку, ознакомьтесь со статьей о моделях.
Или можно точно настроить ранее настраиваемую модель, отформатированную как base-model.ft-{jobid}.
Просмотр рабочего процесса для REST API
Уделите время, чтобы ознакомиться с рабочим процессом настройки для использования REST API и Python с Azure OpenAI.
- Подготовьте данные обучения и проверки.
- Выберите базовую модель.
- Отправьте данные обучения.
- Обучите новую настраиваемую модель.
- Проверьте состояние настраиваемой модели.
- Разверните настраиваемую модель для использования.
- Используйте настраиваемую модель.
- При необходимости проанализируйте вашу настраиваемую модель на производительность и соответствие.
Подготовьте данные для обучения и проверки
Наборы данных для обучения и валидации состоят из примеров входных и выходных данных, чтобы модель функционировала.
Используемые данные обучения и проверки должны быть отформатированы в виде документа JSON Lines (JSONL). Он также должен быть отформатирован в формате беседы, который использует API завершения чата .
Помимо формата JSONL, файлы данных обучения и проверки должны быть закодированы в UTF-8 и включать метку порядка байтов (BOM). Размер каждого файла должен быть меньше 512 МБ.
Если вы хотите пошаговое руководство по настройке gpt-4o-mini-2024-07-18, ознакомьтесь с руководством по настройке Azure OpenAI.
Пример формата файла
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who discovered Antarctica?"}, {"role": "assistant", "content": "Some chaps named Fabian Gottlieb von Bellingshausen and Mikhail Lazarev, as if they don't teach that in every school!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the biggest ocean?"}, {"role": "assistant", "content": "The Pacific Ocean. It's not like it's a small pond or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest planet?"}, {"role": "assistant", "content": "It's called Jupiter, you might have heard of it...or not."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who painted the Mona Lisa?"}, {"role": "assistant", "content": "Oh, some obscure artist named Leonardo da Vinci. Not that he is famous or anything."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the boiling point of water?"}, {"role": "assistant", "content": "Exciting fact of the day: it's 100 degrees Celsius. Life-changing, isn't it?"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'The Odyssey'?"}, {"role": "assistant", "content": "Oh, just some poet named Homer. Nothing special, really."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the largest mammal?"}, {"role": "assistant", "content": "Blue Whale. Quite a big fish isn't it? Oh wait, it's not a fish!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the highest mountain peak?"}, {"role": "assistant", "content": "Everest. Brace yourself, it's not a walk in the park."}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who invented the telephone?"}, {"role": "assistant", "content": "A guy named Alexander Graham Bell. Bet you didn't guess that one!"}]}
{"messages": [{"role": "system", "content": "Clippy is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What is the distance from Earth to the Sun?"}, {"role": "assistant", "content": "About 93 million miles. Just a quick drive, really."}]}
Формат файла чата с несколькими ходами
Кроме того, поддерживаются несколько поворотов беседы в одной строке файла обучения JSONL. Чтобы пропустить точную настройку определённых сообщений помощника, добавьте необязательную пару ключ-значение weight. В настоящее время weight можно задать значение 0 или 1.
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the capital/major city of France?"}, {"role": "assistant", "content": "Paris", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Paris, as if everyone doesn't know that already.", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'Romeo and Juliet'?"}, {"role": "assistant", "content": "William Shakespeare", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Oh, just some guy named William Shakespeare. Ever heard of him?", "weight": 1}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "How far is the Moon from Earth?"}, {"role": "assistant", "content": "384,400 kilometers", "weight": 0}, {"role": "user", "content": "Can you be more sarcastic?"}, {"role": "assistant", "content": "Around 384,400 kilometers. Give or take a few, like that really matters.", "weight": 1}]}
Завершение чата с помощью визуального зрения
{"messages": [{"role": "user", "content": [{"type": "text", "text": "What's in this image?"}, {"type": "image_url", "image_url": {"url": "https://raw.githubusercontent.com/MicrosoftDocs/azure-ai-docs/main/articles/ai-services/openai/media/how-to/generated-seattle.png"}}]}, {"role": "assistant", "content": "The image appears to be a watercolor painting of a city skyline, featuring tall buildings and a recognizable structure often associated with Seattle, like the Space Needle. The artwork uses soft colors and brushstrokes to create a somewhat abstract and artistic representation of the cityscape."}]}
Создание наборов данных для обучения и проверки
Чем больше примеров обучения у вас есть, тем лучше. Задания точной настройки не будут продолжаться без не менее 10 примеров обучения, но такого небольшого числа недостаточно, чтобы заметно повлиять на ответы модели. Рекомендуется для успешной тонкой настройки предоставить не менее сотни, а лучше тысячи примеров обучения.
Как правило, удвоение размера набора данных может привести к линейному увеличению качества модели. Но помните, что примеры низкого качества могут негативно повлиять на производительность. Если вы обучаете модель на большом объёме внутренних данных без предварительной очистки набора данных для оставления только наиболее качественных примеров, модель может показать худшие результаты, чем ожидалось.
Отправка обучающих данных
Следующим шагом является выбор существующих подготовленных обучающих данных или отправка новых подготовленных обучающих данных для использования при настройке модели. После подготовки обучающих данных вы можете передать файлы в службу. Существует два способа отправки обучающих данных:
Для больших файлов данных рекомендуется импортировать из Хранилище BLOB-объектов. Большие файлы могут стать нестабильными при отправке их через многокомпонентные формы, так как запросы являются атомарными и не могут быть повторно отправлены или возобновлены. Дополнительные сведения о Хранилище BLOB-объектов см. статью Что такое Хранилище BLOB-объектов Azure?.
Отправка обучающих данных
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/files \
-H "Content-Type: multipart/form-data" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-F "purpose=fine-tune" \
-F "file=@C:\\fine-tuning\\training_set.jsonl;type=application/json"
Отправка данных проверки
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/files \
-H "Content-Type: multipart/form-data" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-F "purpose=fine-tune" \
-F "file=@C:\\fine-tuning\\validation_set.jsonl;type=application/json"
Создание настраиваемой модели
После загрузки файлов обучения и проверки вы будете готовы начать задание тонкой настройки. В следующем коде показано, как создать новое задание точной настройки с помощью REST API.
Этот пример включает передачу параметра начального значения. Входное значение определяет воспроизводимость задания. Передача одинаковых параметров начального значения и параметров задания должна производить одинаковые результаты, но может отличаться в редких случаях. Если вы не указываете сид, он будет сгенерирован для вас.
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '{
"model": "gpt-4.1-2025-04-14",
"training_file": "<TRAINING_FILE_ID>",
"validation_file": "<VALIDATION_FILE_ID>",
"seed": 105
}'
Если вы настраиваете модель, поддерживающую глобальное обучение, можно указать тип обучения с помощью extra_body именованного аргумента и использования api-version=2025-04-01-preview:
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/fine_tuning/jobs?api-version=2025-04-01-preview \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '{
"model": "gpt-4.1-2025-04-14",
"training_file": "<TRAINING_FILE_ID>",
"validation_file": "<VALIDATION_FILE_ID>",
"seed": 105,
"trainingType": "globalstandard"
}'
Кроме того, можно передать дополнительные необязательные параметры, такие как гиперпараметры , чтобы получить более широкий контроль над процессом тонкой настройки. Для начального обучения рекомендуется использовать автоматические значения по умолчанию, которые присутствуют без указания этих параметров.
Поддерживаемые в настоящее время гиперпараметры для защищенной тонкой настройки:
| Имя | Тип | Описание |
|---|---|---|
batch_size |
Целое число | Размер пакета, используемый для обучения. Размер пакета — это количество примеров обучения, используемых для обучения одного прохода вперёд и обратно. Как правило, мы обнаружили, что большие размеры пакетов, как правило, лучше работают для больших наборов данных. Значение по умолчанию и максимальное значение этого свойства относятся к базовой модели. Более крупный размер пакета означает, что параметры модели обновляются реже, но с более низкой дисперсией. |
learning_rate_multiplier |
Номер | Множитель скорости обучения для проведения тренировки. Скорость обучения тонкой настройки — это исходная скорость обучения, используемая для предварительного обучения, умноженная на это значение. Более крупные темпы обучения обычно лучше работают с большими размерами партий. Мы рекомендуем поэкспериментировать со значениями в диапазоне от 0.02 до 0.2, чтобы увидеть, что дает лучшие результаты. Меньшая скорость обучения может оказаться полезной, чтобы избежать переобучения. |
n_epochs |
Целое число | Общее количество эпох, предусмотренных для обучения модели. Эпоха относится к одному полному циклу через обучающий набор данных. |
seed |
Целое число | Сид, который обеспечивает воспроизводимость задания. |
Чтобы узнать о поддерживаемых гиперпараметрах для других методов настройки, см. руководство по прямой оптимизации предпочтений и руководство по тонкой настройке с подкреплением.
Выбор типа обучения
Выберите уровень обучения на основе варианта использования и бюджета:
Стандартный: обучение происходит в текущем регионе ресурса Foundry и предоставляет гарантию размещения данных. Идеально подходит для рабочих нагрузок, в которых данные должны оставаться в определенном регионе.
Глобальный: обеспечивает более доступные цены по сравнению со стандартом, используя емкость за пределами текущего региона. Данные и весовые значения копируются в регион, где происходит обучение. Идеально подходит, если место размещения данных не является ограничением, и требуется ускорить время очереди.
Разработчик (предварительная версия): обеспечивает значительную экономию, используя резервные мощности для обучения. Нет гарантий задержки или гарантий соглашения об уровне обслуживания, поэтому задания на этом уровне могут быть автоматически прерваны и позже возобновлены. Нет никаких гарантий размещения данных. Идеально подходит для экспериментов и чувствительных к цене рабочих нагрузок.
curl -X POST "https://<ACCOUNT-NAME>.openai.azure.com/openai/fine_tuning/jobs?api-version=2025-04-01-preview" -H "Content-Type: application/json" -H "api-key: <API-KEY>" -d "{"model": "gpt-4.1", "training_file": "<FILE_ID>", "hyperparameters": {"prompt_loss_weight": 0.1}, "trainingType": "developerTier"}"
Проверка состояния настраиваемой модели
После запуска задания точной настройки может потребоваться некоторое время для завершения. Ваше задание может быть поставлено в очередь за другими заданиями в системе. Обучение модели может занять несколько минут или часов в зависимости от размера модели и набора данных.
В следующем примере REST API используется, чтобы проверить состояние задания тонкой настройки. В примере извлекаются сведения о задании с помощью идентификатора задания, возвращенного из предыдущего примера.
curl -X GET $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/<YOUR-JOB-ID> \
-H "api-key: $AZURE_OPENAI_API_KEY"
Список событий настройки
Чтобы проверить отдельные события тонкой настройки, созданные во время обучения, выполните следующие действия.
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Список контрольных точек
Завершение каждой эпохи обучения создает контрольную точку. Контрольная точка — это полностью функциональная версия модели, которая может быть развернута и использована в качестве целевой модели для последующих заданий точной настройки. Контрольные точки могут быть особенно полезными, так как они могут предоставлять моментальные снимки до переподбора.
После завершения задания точной настройки у вас есть три последних версии модели, доступные для развертывания. Ваша донастроенная модель представляет последнюю эпоху. Предыдущие две эпохи доступны в качестве контрольных точек.
Чтобы получить список контрольных точек, связанных с отдельным заданием тонкой настройки, можно выполнить следующую команду:
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Приостановка и возобновление
Во время обучения можно просмотреть журналы и метрики и приостановить задание по мере необходимости. Приостановка может быть полезной, если метрики не сходятся или если вы считаете, что модель обучается не с нужной скоростью.
После приостановки задания обучения и завершения оценки безопасности создается развертываемая контрольная точка. Эта контрольная точка доступна для развертывания и использования для вывода или возобновления выполнения задания.
Операция приостановки применима только для задач, для которых выполнено как минимум один шаг и которые находятся в состоянии Running.
Пауза
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Резюме
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY"
Копирование модели (предварительная версия)
Теперь можно скопировать настраиваемую модель контрольных точек из одного региона в другой, в разных подписках, но в одном клиенте. Этот процесс использует выделенные API для обеспечения эффективной и безопасной передачи. Эта функция в настоящее время доступна только с помощью API, а не через портал Foundry.
После копирования модели из региона А в регион B можно постоянно настраивать модель в регионе B и развертывать модель из этого расположения.
Примечание
Удаление контрольной точки модели в исходном регионе не приводит к удалению модели в целевом регионе. Чтобы иметь возможность удалить модель в обоих регионах после ее копирования, необходимо развернуть модель отдельно в каждом регионе.
Необходимые условия
- Целевой ресурс или учетная запись должны иметь по крайней мере одно задание тонкой настройки.
- Целевой ресурс или учетная запись не должны отключать доступ к общедоступной сети (по крайней мере при отправке запроса на копирование).
- Вы можете скопировать только в целевую учетную запись, если учетная запись, инициирующая копию, имеет достаточные разрешения для доступа к целевой учетной записи.
Настройка разрешений
- Создайте управляемое удостоверение, назначаемое пользователем.
- Предоставьте роль Azure AI User назначенному пользователем управляемому удостоверению на вашем целевом ресурсе или учетной записи.
- Назначьте управляемую идентичность, назначаемую пользователем, в вашей учетной записи исходного ресурса.
Скопируйте модель
curl --request POST \
--url 'https://<aoai-resource>.openai.azure.com/openai/v1/fine_tuning/jobs/<ftjob>/checkpoints/<checkpoint-name>/copy' \
--header 'Content-Type: application/json' \
--header 'api-key: <api-key>' \
--header 'aoai-copy-ft-checkpoints: preview' \
--data '{
"destinationResourceId": "<resourceId>",
"region": "<region>"
}'
Поскольку это длительно выполняющаяся операция, проверьте состояние копии точно настроенной модели, указав идентификатор контрольной точки исходной учетной записи, используемой в вызове POST.
Проверка состояния копирования
curl --request GET \
--url 'https://<aoai-resource>.openai.azure.com//openai/v1/fine_tuning/jobs/<ftjob>/checkpoints/<checkpoint-name>/copy' \
--header 'Content-Type: application/json' \
--header 'api-key: <api-key>' \
--header 'aoai-copy-ft-checkpoints: preview'
Примечание
При копировании контрольной точки из исходной учетной записи имя контрольной точки сохраняется в целевой учетной записи. Убедитесь, что вы используете точно такое же имя для точной настройки, развертывания или любой другой операции в целевой учетной записи. Эта контрольная точка не отображается в пользовательском интерфейсе list checkpoints или в API.
Анализ настраиваемой модели
Azure OpenAI присоединяет файл результатов с именем results.csv к каждому заданию тонкой настройки после завершения. Вы можете использовать файл результатов для анализа производительности обучения и проверки настраиваемой модели. Идентификатор файла для результирующих файлов указан для каждой настраиваемой модели. С помощью REST API можно получить идентификатор файла и скачать файл результата для анализа.
В следующем примере на Python используется REST API для получения идентификатора первого результирующего файла, присоединенного к задаче тонкой настройки вашей настраиваемой модели. Затем он скачивает файл в рабочий каталог для анализа.
curl -X GET "$AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs/<JOB_ID>" \
-H "api-key: $AZURE_OPENAI_API_KEY")
curl -X GET "$AZURE_OPENAI_ENDPOINT/openai/v1/files/<RESULT_FILE_ID>/content" \
-H "api-key: $AZURE_OPENAI_API_KEY" > <RESULT_FILENAME>
Результирующий файл — это CSV-файл, который содержит строку заголовка и строку для каждого шага обучения, выполняемого при доработке задания. Результирующий файл содержит следующие столбцы:
| Имя столбца | Описание |
|---|---|
step |
Количество шага обучения. Шаг обучения представляет собой один проход вперед и назад в пакете обучающих данных. |
train_loss |
Потери для пакета обучения. |
train_mean_token_accuracy |
Процент токенов из пакета обучения, который модель правильно предсказала. Например, если размер пакета задан как 3, и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
valid_loss |
Потеря пакета проверки. |
validation_mean_token_accuracy |
Процент токенов в валидационном батче, которые модель правильно предсказала. Например, если размер пакета задан как 3, и ваши данные содержат завершения [[1, 2], [0, 5], [4, 2]], это значение устанавливается на 0.83 (5 из 6), если модель предсказала [[1, 1], [0, 5], [4, 2]]. |
full_valid_loss |
Потеря проверки, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, потеря должна уменьшиться. |
full_valid_mean_token_accuracy |
Допустимая средняя точность маркера, вычисляемая в конце каждой эпохи. Когда обучение идет хорошо, точность маркеров должна увеличиться. |
Вы также можете просмотреть данные в results.csv файле как графики на портале Foundry. При нажатии на ссылку для обученной модели отображаются три диаграммы: функция потерь, средняя точность токена и точность токена. Если вы предоставили данные проверки, оба набора данных отображаются на одном графике.
Ожидайте снижения вашей потери с течением времени и увеличения вашей точности. Если данные обучения и проверки различаются, возможно, вы переобучаете модель. Попробуйте тренироваться с меньшим количеством эпох или меньшим множителем скорости обучения.
Разверните тонко настроенную модель
Если вы довольны результатами метрик из задачи тонкой настройки или хотите перейти к проведению инференции, необходимо внедрить модель.
Если вы развертываете для дополнительной проверки, рассмотрите возможность развертывания для тестирования с помощью развертывания для разработчиков.
Если вы готовы к развертыванию в рабочей среде или у вас есть особые требования к размещению данных, следуйте руководству по развертыванию.
| Переменная | Определение |
|---|---|
token |
Маркер авторизации. Существует несколько способов создания токена авторизации. Самый простой способ начального тестирования — открыть Azure Cloud Shell на портале Azure. Затем выполните команду az account get-access-token. Этот маркер можно использовать в качестве временного маркера авторизации для тестирования API. Рекомендуется хранить этот маркер в новой переменной среды. |
subscription |
Идентификатор подписки для связанного Azure ресурса OpenAI. |
resource_group |
Имя группы ресурсов для ресурса Azure OpenAI. |
resource_name |
Имя ресурса OpenAI Azure. |
model_deployment_name |
Настраиваемое название для нового тонко настроенного развертывания модели. Это имя ссылается в коде во время вызовов завершения сеанса чата. |
fine_tuned_model |
Ваша оптимизированная модель. Извлеките это значение из результатов задачи точной настройки на предыдущем шаге. Похоже gpt-4.1-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83. Необходимо добавить значение в deploy_data JSON. Кроме того, можно развернуть контрольную точку, указав идентификатор контрольной точки, который отображается в формате ftchkpt-e559c011ecc04fc68eaa339d8227d02d. |
curl -X POST "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2024-10-21" \
-H "Authorization: Bearer <TOKEN>" \
-H "Content-Type: application/json" \
-d '{
"sku": {"name": "standard", "capacity": 1},
"properties": {
"model": {
"format": "OpenAI",
"name": "<FINE_TUNED_MODEL>",
"version": "1"
}
}
}'
Сведения о развертывании между регионами и использовании развернутой модели см. в разделе "Использование развернутой донастроенной модели".
Выполнение непрерывной точной настройки
После создания точно настроенной модели может потребоваться продолжить уточнение модели с течением времени с помощью дальнейшей тонкой настройки. Непрерывная итеративная настройка — это итеративный процесс выбора уже настраиваемой модели в качестве базовой модели и последующей настройки новых наборов примеров обучения. Поддерживается только непрерывная тонкая настройка моделей OpenAI.
Для точной настройки модели, которую вы ранее настроили, используйте тот же процесс, описанный в разделе "Создание настраиваемой модели". Но вместо указания имени универсальной базовой модели необходимо указать идентификатор настраиваемой модели. Идентификатор точно настроенной модели выглядит как gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7.
curl -X POST $AZURE_OPENAI_ENDPOINT/openai/v1/fine_tuning/jobs \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '{
"model": "gpt-4.1-2025-04-14.ft-5fd1918ee65d4cd38a5dcf6835066ed7",
"training_file": "<TRAINING_FILE_ID>",
"validation_file": "<VALIDATION_FILE_ID>",
"suffix": "<additional text used to help identify fine-tuned models>"
}'
Мы также рекомендуем включить suffix параметр, чтобы проще различать итерации вашей точно настроенной модели. Параметр suffix принимает строку и устанавливается для идентификации точно настроенной модели. Суффикс может содержать до 40 символов (a до z, A до Z, 0 до 9, - и _), которые добавляются в название вашей настроенной модели.
Если вы не уверены в идентификаторе вашей существующей точно настроенной модели, вы можете найти эту информацию на странице "Модели" на Foundry. Кроме того, можно создать список моделей для ресурса OpenAI Azure с помощью REST API.
Очистка развертываний, настраиваемых моделей и файлов обучения
Если вам больше не нужна настраиваемая модель, можно удалить развертывание и модель. Вы также можете удалить файлы обучения и проверки, отправленные в службу при необходимости.
Удалите развертывание модели
Вы можете использовать любой из этих методов для удаления развертывания для настраиваемой модели:
Удаление настраиваемой модели
Вы можете удалить настраиваемую модель с помощью Foundry.
Примечание
Вы не можете удалить настраиваемую модель, если она имеет существующее развертывание. Перед удалением вашей настраиваемой модели вам необходимо удалить развертывание модели.
Удаление обучающих файлов
Вы можете при необходимости удалить файлы обучения и проверки, которые вы загрузили для обучения, и файлы результатов, созданные в ходе обучения, из вашей подписки Azure OpenAI. Для удаления файлов можно использовать Foundry .