Поделиться через


Тонкое настройка модели Foundation

Внимание

Эта функция доступна в общедоступной предварительной версии в следующих регионах: centralus, , eastus, eastus2и northcentraluswestus.

Благодаря тонкой настройке модели Foundation (в настоящее время частью Обучения модели Мозаичного ИИ) можно использовать собственные данные для настройки базовой модели для оптимизации производительности для конкретного приложения. Выполняя полную настройку или продолжая обучение базовой модели, вы можете обучать собственную модель с помощью значительно меньше данных, времени и вычислительных ресурсов, чем обучение модели с нуля.

При использовании Databricks у вас есть все на одной платформе: собственные данные для обучения, базовая модель для обучения, контрольные точки, сохраненные в MLflow, и модель, зарегистрированная в каталоге Unity и готова к развертыванию.

См . руководство по созданию и развертыванию запуска тонкой настройки модели Foundation, чтобы узнать, как создать запуск с помощью API тонкой настройки модели Foundation, а затем просмотреть результаты и развернуть модель с помощью пользовательского интерфейса Databricks и службы модели ИИ Мозаики.

Что такое настройка модели Foundation?

Базовая настройка модели позволяет использовать API Databricks или пользовательский интерфейс для настройки или дальнейшего обучения базовой модели.

С помощью тонкой настройки модели Foundation можно:

  • Обучите модель пользовательскими данными, используя контрольные точки, сохраненные в MLflow. Вы сохраняете полный контроль над обученной моделью.
  • Автоматически регистрируйте модель в каталоге Unity, что позволяет легко развертывать с помощью службы моделей.
  • Дальнейшее обучение завершенной собственной модели путем загрузки весов ранее обученной модели.

Databricks рекомендует попробовать настроить модель Foundation, если:

  • Вы пробовали несколько выстрелов обучения и хотят лучше результатов.
  • Вы попробовали инженерию запросов на существующую модель и хотите получить лучшие результаты.
  • Вы хотите полное владение пользовательской моделью для конфиденциальности данных.
  • Вы учитываете задержку или учитываете затраты и хотите использовать меньшую, дешевле модель с данными конкретной задачи.

Поддерживаемые задачи

Базовая настройка модели поддерживает следующие варианты использования:

  • Завершение чата: рекомендуемая задача. Обучение модели в журналах чата между пользователем и помощником по искусственному интеллекту. Этот формат можно использовать как для фактических журналов чата, так и в качестве стандартного формата для ответа на вопросы и текста беседы. Текст автоматически отформатирован в соответствующий формат для конкретной модели. Дополнительные сведения о шаблоне см. в примере шаблонов чатов в документации HuggingFace.
  • Защищенная настройка: обучение модели на структурированных данных запроса на ответ. Используйте эту функцию, чтобы адаптировать модель к новой задаче, изменить его стиль отклика или добавить следующие инструкции. Эта задача не применяет к данным автоматически форматирование и рекомендуется только в том случае, если требуется настраиваемое форматирование данных.
  • Продолжающееся предварительное обучение: обучение модели с дополнительными текстовыми данными. Используйте это, чтобы добавить новые знания в модель или сосредоточиться на модели в определенном домене.

Требования

  • Рабочая область Databricks в одном из следующих регионов Azure: centralus, , eastuseastus2northcentralusили westus.
  • Api-интерфейсы точной настройки модели Foundation, установленные с помощью pip install databricks_genai.
  • Databricks Runtime 12.2 LTS ML или более поздней версии, если данные хранятся в таблице Delta.

Дополнительные сведения о необходимых форматах входных данных см. в статье "Подготовка данных для модели Foundation".

Рекомендуемый размер данных для обучения модели

Databricks рекомендует первоначально обучать с помощью одной до четырех эпох. После оценки точно настроенной модели, если вы хотите, чтобы выходные данные модели были более похожими на обучающие данные, вы можете начать обучение с помощью одной до двух других эпох.

Если производительность модели значительно снижается на задачах, не представленных в данных тонкой настройки, или если модель, как представляется, выводит точные копии данных тонкой настройки, Databricks рекомендует сократить количество эпох обучения.

Для защищенной настройки и завершения чата необходимо предоставить достаточно маркеров для хотя бы одной полной длины контекста модели. Например, маркеры 4096 для meta-llama/Llama-2-7b-chat-hf или 32768 для mistralai/Mistral-7B-v0.1.

Для продолжения подготовки Databricks рекомендует не менее 1,5 миллиона маркеров получить модель более высокого качества, которая изучает пользовательские данные.

Поддерживаемые модели

В следующей таблице перечислены поддерживаемые модели. Для последних поддерживаемых моделей и связанных с ними длин контекста используйте функцию get_models() .


from databricks.model_training import foundation_model

foundation_model.get_models()

Внимание

Meta Llama 3.2 лицензирован в соответствии с лицензией сообщества LLAMA 3.2, © Meta Platform, Inc. Все права зарезервированы. Клиенты отвечают за соблюдение условий этой лицензии и политики допустимого использования Llama 3.2.

Meta Llama 3.1 лицензирован в соответствии с лицензией сообщества LLAMA 3.1, © Meta Platform, Inc. Все права зарезервированы. Клиенты отвечают за обеспечение соответствия применимым лицензиям модели.

Llama 3 лицензирована в соответствии с лицензией СООБЩЕСТВА LLAMA 3, Метаплатформами авторских © прав, Inc. Все права зарезервированы. Клиенты отвечают за обеспечение соответствия применимым лицензиям модели.

Модели Llama 2 и Code Llama лицензированы в соответствии с лицензией сообщества LLAMA 2, © Meta Platform, Inc. Все права зарезервированы. Клиенты отвечают за обеспечение соответствия применимым лицензиям модели.

DBRX предоставляется под лицензией Databricks Open Model, Copyright © Databricks, Inc. Все права защищены. Клиенты отвечают за обеспечение соответствия применимым лицензиям модели, включая политику допустимого использования Databricks.

Модель Максимальная длина контекста Примечания.
databricks/dbrx-base 32768
databricks/dbrx-instruct 32768
meta-llama/Llama-3.2-1B 131072
meta-llama/Llama-3.2-1B-Instruct 131072
meta-llama/Llama-3.2-3B 131072
meta-llama/Llama-3.2-3B-Instruct 131072
meta-llama/Meta-Llama-3.1-405B 131072
meta-llama/Meta-Llama-3.1-405B-Instruct 131072
meta-llama/Meta-Llama-3.1-70B 131072
meta-llama/Meta-Llama-3.1-70B-Instruct 131072
meta-llama/Meta-Llama-3.1-8B 131072
meta-llama/Meta-Llama-3.1-8B-Instruct 131072
meta-llama/Meta-Llama-3-70B 8192 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Meta-Llama-3-70B-Instruct 8192 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Meta-Llama-3-8B 8192 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Meta-Llama-3-8B-Instruct 8192 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Llama-2-7b-hf 4096 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Llama-2-13b-hf 4096 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Llama-2-70b-hf 4096 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Llama-2-7b-chat-hf 4096 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Llama-2-13b-chat-hf 4096 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
meta-llama/Llama-2-70b-chat-hf 4096 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-7b-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-13b-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-34b-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-7b-Instruct-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-13b-Instruct-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-34b-Instruct-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-7b-Python-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-13b-Python-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
codellama/CodeLlama-34b-Python-hf 16384 После 13 декабря 2024 г. эта модель больше не будет поддерживаться. Ознакомьтесь с устаревшими моделями для рекомендуемой замены.
mistralai/Mistral-7B-v0.1 32768
mistralai/Mistral-7B-Instruct-v0.2 32768
mistralai/Mixtral-8x7B-v0.1 32768

Использование тонкой настройки модели Foundation

Базовая настройка модели доступна с помощью databricks_genai пакета SDK. В следующем примере создается и запускается обучающий запуск, использующий данные из томов каталога Unity. Дополнительные сведения о конфигурации см. в статье "Создание обучающего запуска с помощью API тонкой настройки модели Foundation".

from databricks.model_training import foundation_model as fm

model = 'meta-llama/Meta-Llama-3.1-8B-Instruct'
# UC Volume with JSONL formatted data
train_data_path = 'dbfs:/Volumes/main/mydirectory/ift/train.jsonl'
register_to = 'main.mydirectory'
run = fm.create(
  model=model,
  train_data_path=train_data_path,
  register_to=register_to,
)

Дополнительные сведения о настройке инструкции: демонстрационная записная книжка распознавания именованных сущностей см. в примере точной настройки инструкции, которая описывает подготовку данных, настройку конфигурации и развертывания для обучения.

Ограничения

  • Большие наборы данных (10B+ токены) не поддерживаются из-за доступности вычислений.

  • Для непрерывного предварительного обучения рабочие нагрузки ограничены 60-256 МБ-файлами. Файлы размером более 1 ГБ могут привести к более длительной обработке.

  • Databricks стремится сделать последние современные модели доступными для настройки с помощью тонкой настройки модели Foundation. По мере того как новые модели становятся доступными, доступ к старым моделям из API или пользовательского интерфейса может быть удален, старые модели могут быть устарели или обновлены. См . политику обслуживания моделей создания моделей ИИ.

  • Базовая настройка модели поддерживает только обучение моделей для рабочих областей Azure с помощью хранилища за Приватный канал.

    • В настоящее время поддерживается только чтение данных из хранилища за Приватный каналeastus2.
  • Если у вас есть брандмауэры в учетной записи Azure Data Lake Storage, в которой хранятся данные в каталоге Unity, необходимо разрешить трафик из кластеров бессерверных плоскостей данных Databricks для использования тонкой настройки модели Foundation. Обратитесь к группе учетных записей Databricks, чтобы получить дополнительные сведения и возможные пользовательские решения.