Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Каталог моделей ИИ Azure предлагает большой выбор моделей из широкого спектра поставщиков. У вас есть различные варианты развертывания моделей из каталога моделей. В этой статье перечислены рекомендуемые модели в каталоге моделей, которые можно развернуть и разместить на серверах Майкрософт с помощью бессерверных API. Для некоторых из этих моделей их также можно разместить в инфраструктуре для развертывания с помощью управляемых вычислений. Смотрите Доступные модели для поддерживаемых вариантов развертывания, чтобы найти модели в каталоге, доступные для развертывания через управляемое вычисление или бессерверный API.
Это важно
Модели, которые находятся в предварительной версии, помечены как предварительный просмотр на своих карточках моделей в каталоге моделей.
Для выполнения вывода с моделями некоторые модели, такие как TimeGEN-1 от Nixtla и Cohere rerank, требуют использования пользовательских API от поставщиков модели. Другие поддерживают инференцию с помощью модели Azure ИИ. Дополнительные сведения об отдельных моделях можно найти, просмотрев карточки моделей в каталоге моделей на портале Azure AI Foundry.
Лаборатории AI21
The Jamba family models are AI21's production-grade Mamba-based large language model (LLM) which uses AI21's hybrid Mamba-Transformer architecture. It's an instruction-tuned version of AI21's hybrid structured state space model (SSM) transformer Jamba model. Семейные модели Jamba создаются для надежного коммерческого использования с учетом качества и производительности.
Модель | Тип | Возможности |
---|---|---|
AI21-Jamba-1.5-Mini | завершение чата |
-
Входные данные: текст (262 144 токена) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON, структурированные выходные данные |
AI21-Jamba-1.5-Large | завершение чата |
-
Входные данные: текст (262 144 токена) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON, структурированные выходные данные |
См . эту коллекцию моделей на портале Azure AI Foundry.
Azure OpenAI
Служба Azure OpenAI предлагает разнообразный набор моделей с разными возможностями и ценовыми точками. Эти модели включают:
- Современные модели, разработанные для решения задач рассуждения и решения проблем с повышенной фокусировкой и возможностями
- Модели, которые могут понять и создать естественный язык и код
- Модели, которые могут транскрибировать и переводить речь в текст
Модель | Тип | Возможности |
---|---|---|
o3-mini | завершение чата |
-
Входные данные: текст и изображение (200 000 маркеров) - Выходные данные: текст (100 000 маркеров) - Вызов инструмента: Да - Форматы ответов: Текст, JSON, структурированные выходные данные |
o1 | завершение чата (с изображениями) |
-
Входные данные: текст и изображение (200 000 маркеров) - Выходные данные: текст (100 000 маркеров) - Вызов инструмента: Да - Форматы ответов: Текст, JSON, структурированные выходные данные |
o1-preview | завершение чата |
-
Входные данные: текст (128 000 токенов) - Выходные данные: текст (32 768 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON, структурированные выходные данные |
o1-mini | завершение чата |
-
Входные данные: текст (128 000 токенов) - Выходные данные: текст (65 536 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
gpt-4o-realtime-preview | в реальном времени |
-
Входные данные: элемент управления, текст и звук (131 072 токенов) - Выходные данные: текст и звук (16 384 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
gpt-4o | завершение чата (с изображением и звуковым содержимым) |
-
Входные данные: текст, изображение и звук (131 072 токенов) - Выходные данные: текст (16 384 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON, структурированные выходные данные |
gpt-4o-mini | завершение чата (с изображением и звуковым содержимым) |
-
Входные данные: текст, изображение и звук (131 072 токенов) - Выходные данные: текст (16 384 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON, структурированные выходные данные |
text-embedding-3-large | встраивания |
-
Входные данные: текст (8 191 токенов) - Output: Vector (3,072 dim.) |
text-embedding-3-small | встраивания |
-
Входные данные: текст (8 191 токенов) - Output: Vector (1,536 dim.) |
См . эту коллекцию моделей на портале Azure AI Foundry.
Cohere
Семейство моделей Cohere включает различные модели, оптимизированные для разных сценариев использования, включая переподборку, завершение сеансов чата и модели вложений.
Cohere command and embed
В следующей таблице перечислены модели Cohere, которые можно вывести с помощью вывода модели ИИ Azure.
Модель | Тип | Возможности |
---|---|---|
Cohere-command-A | завершение чата |
-
Входные данные: текст (256 000 маркеров) - Выходные данные: текст (8000 маркеров) - Вызов инструмента: Да - Форматы ответов: текст |
Cohere-command-r-plus-08-2024 | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Cohere-command-r-08-2024 | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Cohere-command-r-plus (не рекомендуется) |
завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Cohere-command-r (не рекомендуется) |
завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Cohere-embed-4 |
встраивания внедрение изображений |
-
Входные данные: изображение, текст - Выходные данные: изображение, текст (128 000 маркеров) - Вызов инструмента: Да - Форматы ответов: изображение, текст |
Cohere-embed-v3-english |
встраивания внедрение изображений |
-
Входные данные: текст (512 токенов) - Результат: Вектор (1024 измерения) |
Cohere-embed-v3-многоязычный |
встраивания внедрение изображений |
-
Входные данные: текст (512 токенов) - Результат: Вектор (1024 измерения) |
Inference examples: Cohere command and embed
Дополнительные примеры использования моделей Cohere см. в следующих примерах:
Описание | Язык | Образец |
---|---|---|
Веб-запросы | Bash |
Command-RCommand-R+ cohere-embed.ipynb |
Пакет вывода искусственного интеллекта Azure для C# | C# | Ссылка |
Пакет вывода искусственного интеллекта Azure для JavaScript | JavaScript | Ссылка |
Пакет вывода искусственного интеллекта Azure для Python | Питон | Ссылка |
Пакет SDK OpenAI (экспериментальный) | Питон | Ссылка |
LangChain | Питон | Ссылка |
Cohere SDK | Питон |
Command Внедрить |
LiteLLM SDK | Питон | Ссылка |
Retrieval Augmented Generation (RAG) and tool use samples: Cohere command and embed
Описание | Пакеты | Образец |
---|---|---|
Create a local Facebook AI similarity search (FAISS) vector index, using Cohere embeddings - Langchain |
langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Используйте команду Cohere R/R+ для ответа на вопросы из данных в локальном индексе вектора FAISS — Langchain |
langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Use Cohere Command R/R+ to answer questions from data in AI search vector index - Langchain |
langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Используйте Cohere Command R/R+ для ответа на вопросы из данных в векторном индексе поиска ИИ — SDK от Cohere |
cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Command R+ tool/function calling, using LangChain |
cohere , langchain , langchain_cohere |
command_tools-langchain.ipynb |
Cohere rerank
В следующей таблице перечислены модели повторной ранжировки Cohere. Для выполнения инференции с этими моделями повторного ранжирования необходимо использовать пользовательские API для повторного ранжирования Cohere, перечисленные в таблице.
Модель | Тип | Inference API |
---|---|---|
Cohere-rerank-v3.5 | rerank классификация текста |
Cohere's v2/rerank API |
Cohere-rerank-v3-english (не рекомендуется) |
rerank классификация текста |
Cohere's v2/rerank API Cohere's v1/rerank API |
Cohere-rerank-v3-многоязычный (не рекомендуется) |
rerank классификация текста |
Cohere's v2/rerank API Cohere's v1/rerank API |
Цены на модели повторной ранжировки Cohere
Запросы, которые не следует путать с запросом пользователя, — это счетчик цен, который ссылается на стоимость, связанную с маркерами, используемыми в качестве входных данных для вывода модели Cohere Rerank. Cohere считает одной единицей поиска запрос, содержащий до 100 документов, которые будут ранжированы. Документы длиной более 500 токенов (для Cohere-rerank-v3.5) или более 4096 токенов (для Cohere-rerank-v3-english и Cohere-rerank-v3-многоязычный) при включении длины поискового запроса разделяются на несколько блоков, где каждый блок учитывается как один документ.
См. коллекцию моделей Cohere на портале Azure AI Foundry.
Core42
Core42 includes autoregressive bi-lingual LLMs for Arabic & English with state-of-the-art capabilities in Arabic.
Модель | Тип | Возможности |
---|---|---|
jais-30b-chat | завершение чата |
-
Входные данные: текст (8 192 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
См . эту коллекцию моделей на портале Azure AI Foundry.
Примеры вывода: Core42
Дополнительные примеры использования моделей Jais см. в следующих примерах:
Описание | Язык | Образец |
---|---|---|
Пакет вывода искусственного интеллекта Azure для C# | C# | Ссылка |
Пакет вывода искусственного интеллекта Azure для JavaScript | JavaScript | Ссылка |
Пакет вывода искусственного интеллекта Azure для Python | Питон | Ссылка |
DeepSeek
Семейство моделей DeepSeek включает DeepSeek-R1, который превосходен в задачах рассуждения, используя пошаговый процесс обучения, таких как задачи лингвистики, научного рассуждения и программирования, DeepSeek-V3-0324, языковую модель на основе смеси экспертов (Mixture-of-Experts, MoE) и другие.
Модель | Тип | Возможности |
---|---|---|
DeekSeek-V3-0324 | завершение чата |
-
Входные данные: текст (131 072 токенов) - выходные данные: (131 072 токенов) - Вызов инструмента: Нет - Форматы ответов: Текст, JSON |
DeepSeek-V3 (Legacy) |
завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (131 072 токенов) - Вызов инструмента: Нет - Форматы ответов: Текст, JSON |
DeepSeek-R1 | chat-completion with reasoning content |
-
Входные данные: текст (163 840 токенов) - Выходные данные: текст (163 840 токенов) - Вызов инструмента: Нет - Форматы ответов: текст. |
Для получения инструкции по DeepSeek-R1 см. Учебное пособие: Начало работы с моделью рассуждений DeepSeek-R1 в Azure AI.
См . эту коллекцию моделей на портале Azure AI Foundry.
Примеры вывода: DeepSeek
Дополнительные примеры использования моделей DeepSeek см. в следующих примерах:
Описание | Язык | Образец |
---|---|---|
Пакет вывода искусственного интеллекта Azure для Python | Питон | Ссылка |
Пакет вывода искусственного интеллекта Azure для JavaScript | JavaScript | Ссылка |
Пакет вывода искусственного интеллекта Azure для C# | C# | Ссылка |
Пакет вывода искусственного интеллекта Azure для Java | Ява | Ссылка |
Мета
Модели и инструменты Meta Llama — это коллекция предварительно обученных и точно настроенных генеративных моделей ИИ для работы с текстами и изображениями. Диапазон метаданных моделей масштабируется для включения:
- Small language models (SLMs) like 1B and 3B Base and Instruct models for on-device and edge inferencing
- Mid-size large language models (LLMs) like 7B, 8B, and 70B Base and Instruct models
- Высокопроизводительные модели, такие как Meta Llama 3.1-405B Instruct, используются для генерации синтетических данных и сценариев дистилляции.
- Высокопроизводительные изначально многомодальные модели Llama 4 Scout и Llama 4 Maverick используют сочетание экспертных методов архитектуры для достижения ведущих результатов в распознавании текста и изображений.
Модель | Тип | Возможности |
---|---|---|
Лама-4-Scout-17B-16E-Instruct | завершение чата |
-
Входные данные: текст и изображение (128 000 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Да - Форматы ответов: текст |
Llama 4-Maverick-17B-128E-Instruct-FP8 | завершение чата |
-
Входные данные: текст и изображение (128 000 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Да - Форматы ответов: текст |
Лама-3.3-70B-Instruct | завершение чата |
-
Входные данные: текст (128 000 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Лама-3.2-90B-Vision-Instruct | завершение чата (с изображениями) |
-
Входные данные: текст и изображение (128 000 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Лама-3.2-11B-Vision-Instruct | завершение чата (с изображениями) |
-
Входные данные: текст и изображение (128 000 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Мета-Ллома-3.1-8B-Instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Meta-Llama-3.1-405B-Instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Meta-Llama-3.1-70B-Instruct (не рекомендуется) | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Meta-Llama-3-8B-Instruct (не рекомендуется) | завершение чата |
-
Входные данные: текст (8 192 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Meta-Llama-3-70B-Instruct (не рекомендуется) | завершение чата |
-
Входные данные: текст (8 192 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
См . эту коллекцию моделей на портале Azure AI Foundry.
Примеры выводов: Meta Llama
Дополнительные примеры использования моделей Meta Llama см. в следующих примерах:
Описание | Язык | Образец |
---|---|---|
CURL запрос | Bash | Ссылка |
Пакет вывода искусственного интеллекта Azure для C# | C# | Ссылка |
Пакет вывода искусственного интеллекта Azure для JavaScript | JavaScript | Ссылка |
Пакет вывода искусственного интеллекта Azure для Python | Питон | Ссылка |
Веб-запросы Python | Питон | Ссылка |
Пакет SDK OpenAI (экспериментальный) | Питон | Ссылка |
LangChain | Питон | Ссылка |
LiteLLM | Питон | Ссылка |
Корпорация Майкрософт
Модели Майкрософт включают различные группы моделей, такие как модели MAI, модели Phi, модели ИИ здравоохранения и многое другое. Чтобы просмотреть все доступные модели Майкрософт, просмотрите коллекцию моделей Майкрософт на портале Azure AI Foundry.
Модель | Тип | Возможности |
---|---|---|
MAI-DS-R1 | chat-completion with reasoning content |
-
Входные данные: текст (163 840 токенов) - Выходные данные: текст (163 840 токенов) - Вызов инструмента: Нет - Форматы ответов: текст. |
Phi-4-multimodal-instruct | завершение чата (с изображением и звуковым содержимым) |
-
Входные данные: текст, изображения и звук (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Фи-4-мини-инструкт | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-4 | завершение чата |
-
Входные данные: текст (16 384 токенов) - Выходные данные: текст (16 384 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3.5-mini-instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3.5-MoE-instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3.5-vision-instruct | завершение чата (с изображениями) |
-
Входные данные: текст и изображение (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3-mini-128k-instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3-mini-4k-instruct | завершение чата |
-
Входные данные: текст (4096 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3-small-128k-instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3-small-8k-instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3-medium-128k-instruct | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Phi-3-medium-4k-instruct | завершение чата |
-
Входные данные: текст (4096 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Примеры вывода: модели Майкрософт
Дополнительные примеры использования моделей Майкрософт см. в следующих примерах:
Описание | Язык | Образец |
---|---|---|
Пакет вывода искусственного интеллекта Azure для C# | C# | Ссылка |
Пакет вывода искусственного интеллекта Azure для JavaScript | JavaScript | Ссылка |
Пакет вывода искусственного интеллекта Azure для Python | Питон | Ссылка |
LangChain | Питон | Ссылка |
Лама Индекс | Питон | Ссылка |
См . коллекцию моделей Майкрософт на портале Azure AI Foundry.
Мистраль ИИ
Мистраль ИИ предлагает две категории моделей, а именно:
- Модели премиум-класса: в это число входят модели "Мистраль Большой", "Мистраль Малый", "Мистраль-OCR-2503" и "Министраль 3B" и доступны как бессерверные API с оплатой по мере использования токенов.
- Открытые модели: к ним относятся Мистраль-малый-2503, Codestral и Mistral Nemo (которые доступны как бессерверные API с выставлением счетов по мере использования токенов) и Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 и Mistral-7B-v01(которые доступны для скачивания и запуска на локальных управляемых конечных точках).
Модель | Тип | Возможности |
---|---|---|
Codestral-2501 | завершение чата |
-
Входные данные: текст (262 144 токена) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Министрал-3B | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Мистраль-Немо | завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Мистраль-Large-2411 | завершение чата |
-
Входные данные: текст (128 000 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Mistral-large-2407 (не рекомендуется) |
завершение чата |
-
Входные данные: текст (131 072 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Мистраль Лардж (не рекомендуется) |
завершение чата |
-
Входные данные: текст (32 768 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Мистраль-OCR-2503 | изображение в текст |
-
Входные данные: изображения или PDF-страницы (1000 страниц, максимум 50 МБ PDF-файла) - Выходные данные: текст - Вызов инструмента: Нет - Форматы ответов: Текст, JSON, Markdown |
Мистраль-малый-2503 | завершение чата (с изображениями) |
-
Входные данные: текст и изображения (131 072 токенов), image-based tokens are 16px x 16px блоки исходных изображений - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
Мистраль-маленький | завершение чата |
-
Входные данные: текст (32 768 токенов) - Выходные данные: текст (4096 токенов) - Вызов инструмента: Да - Форматы ответов: Текст, JSON |
См . эту коллекцию моделей на портале Azure AI Foundry.
Inference examples: Mistral
Дополнительные примеры использования Мистральных моделей см. в следующих примерах и руководствах.
Описание | Язык | Образец |
---|---|---|
CURL запрос | Bash | Ссылка |
Пакет вывода искусственного интеллекта Azure для C# | C# | Ссылка |
Пакет вывода искусственного интеллекта Azure для JavaScript | JavaScript | Ссылка |
Пакет вывода искусственного интеллекта Azure для Python | Питон | Ссылка |
Веб-запросы Python | Питон | Ссылка |
Пакет SDK OpenAI (экспериментальный) | Питон | Mistral - пример пакета SDK OpenAI |
LangChain | Питон | Мистраль — пример LangChain |
Мистраль ИИ | Питон | Mistral - образец Mistral AI |
LiteLLM | Питон | Мистраль — пример LiteLLM |
Nixtla
TimeGEN-1 в Nixtla — это созданная предварительно обученная модель прогнозирования и обнаружения аномалий для данных временных рядов. TimeGEN-1 может создавать точные прогнозы для новых временных рядов без обучения, используя только исторические значения и экзогенные ковариации в качестве входных данных.
To perform inferencing, TimeGEN-1 requires you to use Nixtla's custom inference API.
Модель | Тип | Возможности | Inference API |
---|---|---|---|
TimeGEN-1 | Прогнозирование |
-
Ввод: Данные временных рядов как JSON или кадры данных (с поддержкой многовариантных входных данных) - Выпуск: Данные временных рядов в формате JSON - Вызов инструмента: Нет - Форматы ответов: JSON |
Клиент прогноза для взаимодействия с API Nixtla |
Оцените количество необходимых токенов
Прежде чем создать развертывание TimeGEN-1, полезно оценить количество токенов, которые вы планируете использовать и за которые будет выставлен счет. Один маркер соответствует одной точке данных в входном наборе данных или выходном наборе данных.
Предположим, что у вас есть следующий входной набор данных временных рядов:
Уникальный_идентификатор | Отметка времени | Целевая переменная | Экзогенная переменная 1 | Экзогенная переменная 2 |
---|---|---|---|---|
BE | 2016-10-22 00:00:00 | 70,00 | 49593.0 | 57253,0 |
BE | 2016-10-22 01:00:00 | 37.10 | 46073.0 | 51887.0 |
Чтобы определить количество маркеров, умножьте количество строк (в этом примере два) и количество столбцов, используемых для прогнозирования, не подсчитывая столбцы unique_id и метки времени (в этом примере три), чтобы получить всего шесть маркеров.
Учитывая следующий выходной набор данных:
Уникальный_идентификатор | Отметка времени | Прогнозируемая целевая переменная |
---|---|---|
BE | 2016-10-22 02:00:00 | 46.57 |
BE | 2016-10-22 03:00:00 | 48.57 |
You can also determine the number of tokens by counting the number of data points returned after data forecasting. В этом примере количество токенов равно двум.
Оценка цен на основе токенов
Существует четыре счетчика цен, определяющих цену, которую вы оплачиваете. Эти метры приведены следующим образом:
Измеритель цен | Описание |
---|---|
paygo-inference-input-tokens | Затраты, связанные с маркерами, используемыми в качестве входных данных для вывода при finetune_steps = 0 |
paygo-inference-output-tokens | Затраты, связанные с маркерами, используемыми в качестве вывода при finetune_steps = 0 |
paygo-finetuned-model-inference-input-tokens | Затраты, связанные с маркерами, используемыми в качестве входных данных при finetune_steps> 0 |
paygo-finetuned-model-inference-output-tokens | Затраты, связанные с маркерами, используемыми в качестве вывода при finetune_steps> 0 |
См. коллекцию моделей Nixtla на портале Azure AI Foundry.
NTT DATA
tsuzumi — это оптимизированный авторегрессионный языковой преобразователь. The tuned versions use supervised fine-tuning (SFT). tsuzumi обрабатывает как японский, так и английский язык с высокой эффективностью.
Модель | Тип | Возможности |
---|---|---|
tsuzumi-7b | завершение чата |
-
Входные данные: текст (8 192 токенов) - Выходные данные: текст (8 192 токенов) - Вызов инструмента: Нет - Форматы ответов: текст |
Stability AI
Коллекция моделей генерации изображений компании Stability AI включает Stable Image Core, Stable Image Ultra и Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large позволяет использование изображений и текста в качестве ввода.
Модель | Тип | Возможности |
---|---|---|
Стабильная диффузия 3.5 Большая | Генерирование изображений |
-
Входные данные: текст и изображение (1000 маркеров и 1 изображение) - Выходные данные: 1 изображение - Вызов инструмента: Нет - Форматы ответов: изображение (PNG и JPG) |
Стабильное ядро имиджа | Генерирование изображений |
-
Входные данные: текст (1000 токенов) - Выходные данные: 1 изображение - Вызов инструмента: Нет - Форматы ответов: Изображение (PNG и JPG) |
Стабильное изображение Ultra | Генерирование изображений |
-
Входные данные: текст (1000 токенов) - Выходные данные: 1 изображение - Вызов инструмента: Нет - Форматы ответов: Изображение (PNG и JPG) |
Inference examples: Stability AI
Stability AI models deployed to serverless APIs implement the Azure AI model inference API on the route /image/generations
.
Примеры использования моделей ИИ стабильности см. в следующих примерах:
- Используйте SDK OpenAI с моделями Stability AI для запросов 'текст в изображение'
- Используйте библиотеку Requests с моделями Stability AI для запросов преобразования текста в изображение
- Use Requests library with Stable Diffusion 3.5 Large for image to image requests
- Пример полнокодированного ответа на создание изображения