Поделиться через


Избранные модели Azure AI Foundry

Каталог моделей ИИ Azure предлагает большой выбор моделей из широкого спектра поставщиков. У вас есть различные варианты развертывания моделей из каталога моделей. В этой статье перечислены рекомендуемые модели в каталоге моделей, которые можно развернуть и разместить на серверах Майкрософт с помощью бессерверных API. Для некоторых из этих моделей их также можно разместить в инфраструктуре для развертывания с помощью управляемых вычислений. Смотрите Доступные модели для поддерживаемых вариантов развертывания, чтобы найти модели в каталоге, доступные для развертывания через управляемое вычисление или бессерверный API.

Это важно

Модели, которые находятся в предварительной версии, помечены как предварительный просмотр на своих карточках моделей в каталоге моделей.

Для выполнения вывода с моделями некоторые модели, такие как TimeGEN-1 от Nixtla и Cohere rerank, требуют использования пользовательских API от поставщиков модели. Другие поддерживают инференцию с помощью модели Azure ИИ. Дополнительные сведения об отдельных моделях можно найти, просмотрев карточки моделей в каталоге моделей на портале Azure AI Foundry.

Анимация с разделом каталога моделей Azure AI Studio и доступными моделями.

Лаборатории AI21

The Jamba family models are AI21's production-grade Mamba-based large language model (LLM) which uses AI21's hybrid Mamba-Transformer architecture. It's an instruction-tuned version of AI21's hybrid structured state space model (SSM) transformer Jamba model. Семейные модели Jamba создаются для надежного коммерческого использования с учетом качества и производительности.

Модель Тип Возможности
AI21-Jamba-1.5-Mini завершение чата - Входные данные: текст (262 144 токена)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON, структурированные выходные данные
AI21-Jamba-1.5-Large завершение чата - Входные данные: текст (262 144 токена)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON, структурированные выходные данные

См . эту коллекцию моделей на портале Azure AI Foundry.

Azure OpenAI

Служба Azure OpenAI предлагает разнообразный набор моделей с разными возможностями и ценовыми точками. Эти модели включают:

  • Современные модели, разработанные для решения задач рассуждения и решения проблем с повышенной фокусировкой и возможностями
  • Модели, которые могут понять и создать естественный язык и код
  • Модели, которые могут транскрибировать и переводить речь в текст
Модель Тип Возможности
o3-mini завершение чата - Входные данные: текст и изображение (200 000 маркеров)
- Выходные данные: текст (100 000 маркеров)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON, структурированные выходные данные
o1 завершение чата (с изображениями) - Входные данные: текст и изображение (200 000 маркеров)
- Выходные данные: текст (100 000 маркеров)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON, структурированные выходные данные
o1-preview завершение чата - Входные данные: текст (128 000 токенов)
- Выходные данные: текст (32 768 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON, структурированные выходные данные
o1-mini завершение чата - Входные данные: текст (128 000 токенов)
- Выходные данные: текст (65 536 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
gpt-4o-realtime-preview в реальном времени - Входные данные: элемент управления, текст и звук (131 072 токенов)
- Выходные данные: текст и звук (16 384 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
gpt-4o завершение чата (с изображением и звуковым содержимым) - Входные данные: текст, изображение и звук (131 072 токенов)
- Выходные данные: текст (16 384 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON, структурированные выходные данные
gpt-4o-mini завершение чата (с изображением и звуковым содержимым) - Входные данные: текст, изображение и звук (131 072 токенов)
- Выходные данные: текст (16 384 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON, структурированные выходные данные
text-embedding-3-large встраивания - Входные данные: текст (8 191 токенов)
- Output: Vector (3,072 dim.)
text-embedding-3-small встраивания - Входные данные: текст (8 191 токенов)
- Output: Vector (1,536 dim.)

См . эту коллекцию моделей на портале Azure AI Foundry.

Cohere

Семейство моделей Cohere включает различные модели, оптимизированные для разных сценариев использования, включая переподборку, завершение сеансов чата и модели вложений.

Cohere command and embed

В следующей таблице перечислены модели Cohere, которые можно вывести с помощью вывода модели ИИ Azure.

Модель Тип Возможности
Cohere-command-A завершение чата - Входные данные: текст (256 000 маркеров)
- Выходные данные: текст (8000 маркеров)
- Вызов инструмента: Да
- Форматы ответов: текст
Cohere-command-r-plus-08-2024 завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Cohere-command-r-08-2024 завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Cohere-command-r-plus
(не рекомендуется)
завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Cohere-command-r
(не рекомендуется)
завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Cohere-embed-4 встраивания
внедрение изображений
- Входные данные: изображение, текст
- Выходные данные: изображение, текст (128 000 маркеров)
- Вызов инструмента: Да
- Форматы ответов: изображение, текст
Cohere-embed-v3-english встраивания
внедрение изображений
- Входные данные: текст (512 токенов)
- Результат: Вектор (1024 измерения)
Cohere-embed-v3-многоязычный встраивания
внедрение изображений
- Входные данные: текст (512 токенов)
- Результат: Вектор (1024 измерения)

Inference examples: Cohere command and embed

Дополнительные примеры использования моделей Cohere см. в следующих примерах:

Описание Язык Образец
Веб-запросы Bash Command-RCommand-R+
cohere-embed.ipynb
Пакет вывода искусственного интеллекта Azure для C# C# Ссылка
Пакет вывода искусственного интеллекта Azure для JavaScript JavaScript Ссылка
Пакет вывода искусственного интеллекта Azure для Python Питон Ссылка
Пакет SDK OpenAI (экспериментальный) Питон Ссылка
LangChain Питон Ссылка
Cohere SDK Питон Command
Внедрить
LiteLLM SDK Питон Ссылка

Retrieval Augmented Generation (RAG) and tool use samples: Cohere command and embed

Описание Пакеты Образец
Create a local Facebook AI similarity search (FAISS) vector index, using Cohere embeddings - Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Используйте команду Cohere R/R+ для ответа на вопросы из данных в локальном индексе вектора FAISS — Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Use Cohere Command R/R+ to answer questions from data in AI search vector index - Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Используйте Cohere Command R/R+ для ответа на вопросы из данных в векторном индексе поиска ИИ — SDK от Cohere cohere, azure_search_documents cohere-aisearch-rag.ipynb
Command R+ tool/function calling, using LangChain cohere, langchain, langchain_cohere command_tools-langchain.ipynb

Cohere rerank

В следующей таблице перечислены модели повторной ранжировки Cohere. Для выполнения инференции с этими моделями повторного ранжирования необходимо использовать пользовательские API для повторного ранжирования Cohere, перечисленные в таблице.

Модель Тип Inference API
Cohere-rerank-v3.5 rerank
классификация текста
Cohere's v2/rerank API
Cohere-rerank-v3-english
(не рекомендуется)
rerank
классификация текста
Cohere's v2/rerank API
Cohere's v1/rerank API
Cohere-rerank-v3-многоязычный
(не рекомендуется)
rerank
классификация текста
Cohere's v2/rerank API
Cohere's v1/rerank API

Цены на модели повторной ранжировки Cohere

Запросы, которые не следует путать с запросом пользователя, — это счетчик цен, который ссылается на стоимость, связанную с маркерами, используемыми в качестве входных данных для вывода модели Cohere Rerank. Cohere считает одной единицей поиска запрос, содержащий до 100 документов, которые будут ранжированы. Документы длиной более 500 токенов (для Cohere-rerank-v3.5) или более 4096 токенов (для Cohere-rerank-v3-english и Cohere-rerank-v3-многоязычный) при включении длины поискового запроса разделяются на несколько блоков, где каждый блок учитывается как один документ.

См. коллекцию моделей Cohere на портале Azure AI Foundry.

Core42

Core42 includes autoregressive bi-lingual LLMs for Arabic & English with state-of-the-art capabilities in Arabic.

Модель Тип Возможности
jais-30b-chat завершение чата - Входные данные: текст (8 192 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON

См . эту коллекцию моделей на портале Azure AI Foundry.

Примеры вывода: Core42

Дополнительные примеры использования моделей Jais см. в следующих примерах:

Описание Язык Образец
Пакет вывода искусственного интеллекта Azure для C# C# Ссылка
Пакет вывода искусственного интеллекта Azure для JavaScript JavaScript Ссылка
Пакет вывода искусственного интеллекта Azure для Python Питон Ссылка

DeepSeek

Семейство моделей DeepSeek включает DeepSeek-R1, который превосходен в задачах рассуждения, используя пошаговый процесс обучения, таких как задачи лингвистики, научного рассуждения и программирования, DeepSeek-V3-0324, языковую модель на основе смеси экспертов (Mixture-of-Experts, MoE) и другие.

Модель Тип Возможности
DeekSeek-V3-0324 завершение чата - Входные данные: текст (131 072 токенов)
- выходные данные: (131 072 токенов)
- Вызов инструмента: Нет
- Форматы ответов: Текст, JSON
DeepSeek-V3
(Legacy)
завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (131 072 токенов)
- Вызов инструмента: Нет
- Форматы ответов: Текст, JSON
DeepSeek-R1 chat-completion with reasoning content - Входные данные: текст (163 840 токенов)
- Выходные данные: текст (163 840 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст.

Для получения инструкции по DeepSeek-R1 см. Учебное пособие: Начало работы с моделью рассуждений DeepSeek-R1 в Azure AI.

См . эту коллекцию моделей на портале Azure AI Foundry.

Примеры вывода: DeepSeek

Дополнительные примеры использования моделей DeepSeek см. в следующих примерах:

Описание Язык Образец
Пакет вывода искусственного интеллекта Azure для Python Питон Ссылка
Пакет вывода искусственного интеллекта Azure для JavaScript JavaScript Ссылка
Пакет вывода искусственного интеллекта Azure для C# C# Ссылка
Пакет вывода искусственного интеллекта Azure для Java Ява Ссылка

Мета

Модели и инструменты Meta Llama — это коллекция предварительно обученных и точно настроенных генеративных моделей ИИ для работы с текстами и изображениями. Диапазон метаданных моделей масштабируется для включения:

  • Small language models (SLMs) like 1B and 3B Base and Instruct models for on-device and edge inferencing
  • Mid-size large language models (LLMs) like 7B, 8B, and 70B Base and Instruct models
  • Высокопроизводительные модели, такие как Meta Llama 3.1-405B Instruct, используются для генерации синтетических данных и сценариев дистилляции.
  • Высокопроизводительные изначально многомодальные модели Llama 4 Scout и Llama 4 Maverick используют сочетание экспертных методов архитектуры для достижения ведущих результатов в распознавании текста и изображений.
Модель Тип Возможности
Лама-4-Scout-17B-16E-Instruct завершение чата - Входные данные: текст и изображение (128 000 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Да
- Форматы ответов: текст
Llama 4-Maverick-17B-128E-Instruct-FP8 завершение чата - Входные данные: текст и изображение (128 000 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Да
- Форматы ответов: текст
Лама-3.3-70B-Instruct завершение чата - Входные данные: текст (128 000 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Лама-3.2-90B-Vision-Instruct завершение чата (с изображениями) - Входные данные: текст и изображение (128 000 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Лама-3.2-11B-Vision-Instruct завершение чата (с изображениями) - Входные данные: текст и изображение (128 000 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Мета-Ллома-3.1-8B-Instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Meta-Llama-3.1-405B-Instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Meta-Llama-3.1-70B-Instruct (не рекомендуется) завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Meta-Llama-3-8B-Instruct (не рекомендуется) завершение чата - Входные данные: текст (8 192 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Meta-Llama-3-70B-Instruct (не рекомендуется) завершение чата - Входные данные: текст (8 192 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст

См . эту коллекцию моделей на портале Azure AI Foundry.

Примеры выводов: Meta Llama

Дополнительные примеры использования моделей Meta Llama см. в следующих примерах:

Описание Язык Образец
CURL запрос Bash Ссылка
Пакет вывода искусственного интеллекта Azure для C# C# Ссылка
Пакет вывода искусственного интеллекта Azure для JavaScript JavaScript Ссылка
Пакет вывода искусственного интеллекта Azure для Python Питон Ссылка
Веб-запросы Python Питон Ссылка
Пакет SDK OpenAI (экспериментальный) Питон Ссылка
LangChain Питон Ссылка
LiteLLM Питон Ссылка

Корпорация Майкрософт

Модели Майкрософт включают различные группы моделей, такие как модели MAI, модели Phi, модели ИИ здравоохранения и многое другое. Чтобы просмотреть все доступные модели Майкрософт, просмотрите коллекцию моделей Майкрософт на портале Azure AI Foundry.

Модель Тип Возможности
MAI-DS-R1 chat-completion with reasoning content - Входные данные: текст (163 840 токенов)
- Выходные данные: текст (163 840 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст.
Phi-4-multimodal-instruct завершение чата (с изображением и звуковым содержимым) - Входные данные: текст, изображения и звук (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Фи-4-мини-инструкт завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-4 завершение чата - Входные данные: текст (16 384 токенов)
- Выходные данные: текст (16 384 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3.5-mini-instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3.5-MoE-instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3.5-vision-instruct завершение чата (с изображениями) - Входные данные: текст и изображение (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3-mini-128k-instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3-mini-4k-instruct завершение чата - Входные данные: текст (4096 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3-small-128k-instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3-small-8k-instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3-medium-128k-instruct завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Phi-3-medium-4k-instruct завершение чата - Входные данные: текст (4096 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст

Примеры вывода: модели Майкрософт

Дополнительные примеры использования моделей Майкрософт см. в следующих примерах:

Описание Язык Образец
Пакет вывода искусственного интеллекта Azure для C# C# Ссылка
Пакет вывода искусственного интеллекта Azure для JavaScript JavaScript Ссылка
Пакет вывода искусственного интеллекта Azure для Python Питон Ссылка
LangChain Питон Ссылка
Лама Индекс Питон Ссылка

См . коллекцию моделей Майкрософт на портале Azure AI Foundry.

Мистраль ИИ

Мистраль ИИ предлагает две категории моделей, а именно:

  • Модели премиум-класса: в это число входят модели "Мистраль Большой", "Мистраль Малый", "Мистраль-OCR-2503" и "Министраль 3B" и доступны как бессерверные API с оплатой по мере использования токенов.
  • Открытые модели: к ним относятся Мистраль-малый-2503, Codestral и Mistral Nemo (которые доступны как бессерверные API с выставлением счетов по мере использования токенов) и Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 и Mistral-7B-v01(которые доступны для скачивания и запуска на локальных управляемых конечных точках).
Модель Тип Возможности
Codestral-2501 завершение чата - Входные данные: текст (262 144 токена)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст
Министрал-3B завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Мистраль-Немо завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Мистраль-Large-2411 завершение чата - Входные данные: текст (128 000 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Mistral-large-2407
(не рекомендуется)
завершение чата - Входные данные: текст (131 072 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Мистраль Лардж
(не рекомендуется)
завершение чата - Входные данные: текст (32 768 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Мистраль-OCR-2503 изображение в текст - Входные данные: изображения или PDF-страницы (1000 страниц, максимум 50 МБ PDF-файла)
- Выходные данные: текст
- Вызов инструмента: Нет
- Форматы ответов: Текст, JSON, Markdown
Мистраль-малый-2503 завершение чата (с изображениями) - Входные данные: текст и изображения (131 072 токенов),
image-based tokens are 16px x 16px
блоки исходных изображений
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON
Мистраль-маленький завершение чата - Входные данные: текст (32 768 токенов)
- Выходные данные: текст (4096 токенов)
- Вызов инструмента: Да
- Форматы ответов: Текст, JSON

См . эту коллекцию моделей на портале Azure AI Foundry.

Inference examples: Mistral

Дополнительные примеры использования Мистральных моделей см. в следующих примерах и руководствах.

Описание Язык Образец
CURL запрос Bash Ссылка
Пакет вывода искусственного интеллекта Azure для C# C# Ссылка
Пакет вывода искусственного интеллекта Azure для JavaScript JavaScript Ссылка
Пакет вывода искусственного интеллекта Azure для Python Питон Ссылка
Веб-запросы Python Питон Ссылка
Пакет SDK OpenAI (экспериментальный) Питон Mistral - пример пакета SDK OpenAI
LangChain Питон Мистраль — пример LangChain
Мистраль ИИ Питон Mistral - образец Mistral AI
LiteLLM Питон Мистраль — пример LiteLLM

Nixtla

TimeGEN-1 в Nixtla — это созданная предварительно обученная модель прогнозирования и обнаружения аномалий для данных временных рядов. TimeGEN-1 может создавать точные прогнозы для новых временных рядов без обучения, используя только исторические значения и экзогенные ковариации в качестве входных данных.

To perform inferencing, TimeGEN-1 requires you to use Nixtla's custom inference API.

Модель Тип Возможности Inference API
TimeGEN-1 Прогнозирование - Ввод: Данные временных рядов как JSON или кадры данных (с поддержкой многовариантных входных данных)
- Выпуск: Данные временных рядов в формате JSON
- Вызов инструмента: Нет
- Форматы ответов: JSON
Клиент прогноза для взаимодействия с API Nixtla

Оцените количество необходимых токенов

Прежде чем создать развертывание TimeGEN-1, полезно оценить количество токенов, которые вы планируете использовать и за которые будет выставлен счет. Один маркер соответствует одной точке данных в входном наборе данных или выходном наборе данных.

Предположим, что у вас есть следующий входной набор данных временных рядов:

Уникальный_идентификатор Отметка времени Целевая переменная Экзогенная переменная 1 Экзогенная переменная 2
BE 2016-10-22 00:00:00 70,00 49593.0 57253,0
BE 2016-10-22 01:00:00 37.10 46073.0 51887.0

Чтобы определить количество маркеров, умножьте количество строк (в этом примере два) и количество столбцов, используемых для прогнозирования, не подсчитывая столбцы unique_id и метки времени (в этом примере три), чтобы получить всего шесть маркеров.

Учитывая следующий выходной набор данных:

Уникальный_идентификатор Отметка времени Прогнозируемая целевая переменная
BE 2016-10-22 02:00:00 46.57
BE 2016-10-22 03:00:00 48.57

You can also determine the number of tokens by counting the number of data points returned after data forecasting. В этом примере количество токенов равно двум.

Оценка цен на основе токенов

Существует четыре счетчика цен, определяющих цену, которую вы оплачиваете. Эти метры приведены следующим образом:

Измеритель цен Описание
paygo-inference-input-tokens Затраты, связанные с маркерами, используемыми в качестве входных данных для вывода при finetune_steps = 0
paygo-inference-output-tokens Затраты, связанные с маркерами, используемыми в качестве вывода при finetune_steps = 0
paygo-finetuned-model-inference-input-tokens Затраты, связанные с маркерами, используемыми в качестве входных данных при finetune_steps> 0
paygo-finetuned-model-inference-output-tokens Затраты, связанные с маркерами, используемыми в качестве вывода при finetune_steps> 0

См. коллекцию моделей Nixtla на портале Azure AI Foundry.

NTT DATA

tsuzumi — это оптимизированный авторегрессионный языковой преобразователь. The tuned versions use supervised fine-tuning (SFT). tsuzumi обрабатывает как японский, так и английский язык с высокой эффективностью.

Модель Тип Возможности
tsuzumi-7b завершение чата - Входные данные: текст (8 192 токенов)
- Выходные данные: текст (8 192 токенов)
- Вызов инструмента: Нет
- Форматы ответов: текст

Stability AI

Коллекция моделей генерации изображений компании Stability AI включает Stable Image Core, Stable Image Ultra и Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large позволяет использование изображений и текста в качестве ввода.

Модель Тип Возможности
Стабильная диффузия 3.5 Большая Генерирование изображений - Входные данные: текст и изображение (1000 маркеров и 1 изображение)
- Выходные данные: 1 изображение
- Вызов инструмента: Нет
- Форматы ответов: изображение (PNG и JPG)
Стабильное ядро имиджа Генерирование изображений - Входные данные: текст (1000 токенов)
- Выходные данные: 1 изображение
- Вызов инструмента: Нет
- Форматы ответов: Изображение (PNG и JPG)
Стабильное изображение Ultra Генерирование изображений - Входные данные: текст (1000 токенов)
- Выходные данные: 1 изображение
- Вызов инструмента: Нет
- Форматы ответов: Изображение (PNG и JPG)

Inference examples: Stability AI

Stability AI models deployed to serverless APIs implement the Azure AI model inference API on the route /image/generations. Примеры использования моделей ИИ стабильности см. в следующих примерах: