Примеры вывода бессерверных API для моделей Foundry (классическая модель)

Применяется только к:Портал Foundry (классический). Эта статья недоступна для нового портала Foundry. Дополнительные сведения о новом портале.

Примечание

Содержание в новой документации Microsoft Foundry может открываться по ссылкам в этой статье вместо документации Foundry (классической версии), которую вы просматриваете сейчас.

Каталог моделей Foundry предлагает большой выбор моделей Microsoft Foundry от широкого спектра поставщиков. У вас есть различные варианты развертывания моделей из каталога моделей. В этой статье перечислены примеры вывода для развертываний бессерверных API.

Важно

Модели, которые находятся в предварительной версии, помечены как предварительный просмотр на своих карточках моделей в каталоге моделей.

Для выполнения вывода с моделями некоторые модели, такие как Nixtla's TimeGEN-1 и Cohere rerank, требуют использования пользовательских API от поставщиков моделей. Другие поддерживают вывод с помощью API вывода модели. Дополнительные сведения об отдельных моделях можно найти, просмотрив карточки моделей в каталоге моделей на портале Foundry.

Cohere

Семейство моделей Cohere включает различные модели, оптимизированные для различных вариантов использования, включая пересортировку, завершение чата и модели эмбеддингов.

Примеры интерпретации: команда Cohere и встраивание

В следующей таблице приведены ссылки на примеры использования моделей Cohere.

Описание Язык Образец
Веб-запросы Bash Command-RCommand-R+
cohere-embed.ipynb
пакет вывода Azure ИИ для C# C# Link
пакет инференции Azure ИИ для JavaScript Javascript Link
Пакет инференса для искусственного интеллекта Azure для Python Python Ссылка
Пакет SDK OpenAI (экспериментальный) Python Ссылка
LangChain Python Ссылка
Cohere SDK Python Команды
Внедрить
LiteLLM SDK Python Link

Генерация с дополнением извлечения (RAG) и примеры использования инструментов: команда Cohere и встраивание

Описание Пакеты Образец
Создайте локальный индекс сходства векторных данных ИИ Facebook (FAISS) с использованием эмбеддингов Cohere и Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Используйте команду Cohere R/R+ для ответа на вопросы из данных в локальном индексе вектора FAISS — Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Используйте Cohere Command R/R+ для ответа на вопросы из данных в векторном индексе поиска ИИ — Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Использование Cohere Command R/R+ для ответа на вопросы из данных в векторном индексе поиска ИИ — пакет Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Вызов функции или инструмента "Command R+" с использованием LangChain cohere langchain langchain_cohere command_tools-langchain.ipynb

Cohere rerank

Чтобы выполнить инференс с помощью моделей повторной ранжировки Cohere, необходимо использовать пользовательские API повторной ранжировки Cohere. Дополнительные сведения о модели переупорядочения Cohere и её возможностях см. в разделе Cohere rerank.

Цены на модели переранжирования Cohere

Запросы, которые не следует путать с запросом пользователя, — это счетчик цен, который ссылается на стоимость, связанную с маркерами, используемыми в качестве входных данных для вывода модели Cohere Rerank. Cohere считает одной единицей поиска запрос, содержащий до 100 документов, которые будут обработаны и ранжированы. Документы длиной более 500 токенов (для Cohere-rerank-v3.5) или более 4096 токенов (для Cohere-rerank-v3-english и Cohere-rerank-v3-многоязычный) при включении длины поискового запроса разделяются на несколько блоков, где каждый блок учитывается как один документ.

См. коллекцию моделей Cohere на портале Foundry.

Core42

В следующей таблице приведены ссылки на примеры использования моделей Jais.

Описание Язык Образец
Пакет анализа Azure AI для C# C# Link
Пакет Azure AI Inference для JavaScript Javascript Link
пакет вывода Azure ИИ для Python Python Ссылка

DeepSeek

Семейство моделей DeepSeek включает в себя DeepSeek-R1, которое превосходно справляется с решением задач пошагового обучения, таких как язык, научные рассуждения и задачи программирования, DeepSeek-V3-0324, языковая модель смешанного эксперта (MoE) и многое другое.

В следующей таблице приведены ссылки на примеры использования моделей DeepSeek.

Описание Язык Образец
пакет вывода Azure ИИ для Python Python Ссылка
пакет вывода Azure ИИ для JavaScript Javascript Ссылка
Пакет вывода Azure для AI на C# C# Ссылка
Пакет Azure AI для выполнения выводов на Java Java Link

Мета

Модели и инструменты Meta Llama — это коллекция предварительно обученных и точно настроенных генеративных моделей ИИ для обработки текста и изображений. Диапазон метаданных моделей масштабируется для включения:

  • Небольшие языковые модели (SLM), такие как 1B и 3B Base и модели Instruct для вывода на устройствах и встраиваемого вывода
  • Модели языка среднего размера (LLMs), такие как 7B, 8B и 70B Base и Instruct models
  • Высокопроизводительные модели, такие как Meta Llama 3.1-405B, инструктируют для создания искусственных данных и вариантов использования дистилляции.
  • Высокопроизводительные многомодальные модели Llama 4 Scout и Llama 4 Maverick используют архитектуру смеси экспертов для обеспечения производительности, лидирующей в отрасли, в распознавании текста и изображений.

В следующей таблице приведены ссылки на примеры использования моделей Meta Llama.

Описание Язык Образец
Запрос CURL Bash Ссылка
инферентный пакет Azure для ИИ на C# C# Link
пакет вывода Azure ИИ для JavaScript Javascript Link
пакет инференции ИИ Azure для Python Python Ссылка
веб-запросы Python Python Ссылка
Пакет SDK OpenAI (экспериментальный) Python Ссылка
LangChain Python Ссылка
LiteLLM Python Ссылка

Microsoft

Microsoft модели включают различные группы моделей, такие как модели MAI, модели Phi, модели ИИ здравоохранения и многое другое. Чтобы просмотреть все доступные модели Microsoft, просмотрите коллекцию моделей коллекцию моделей Microsoft на портале Foundry.

В следующей таблице приведены ссылки на примеры использования моделей Microsoft.

Описание Язык Образец
Пакет Azure AI Inference для C# C# Link
пакет вывода Azure ИИ для JavaScript Javascript Link
пакет вывода Azure ИИ для Python Python Ссылка
LangChain Python Ссылка
Llama-Index Python Ссылка

См. раздел коллекция моделей Microsoft на портале Foundry.

Мистраль ИИ

Мистраль ИИ предлагает две категории моделей, а именно:

  • Модели уровня "Премиум": Мистраль Большой, Мистраль Малый, Мистраль-OCR-2503, Мистраль Средний 3 (25.05) и Министраль 3B доступны как бессерверные API с оплатой по мере использования токенов.
  • Открытые модели: к ним относятся Мистраль-малый-2503, Codestral и Mistral Nemo (которые доступны как бессерверные API с выставлением счетов по мере использования токенов) и Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 и Mistral-7B-v01(которые доступны для скачивания и запуска на локальных управляемых конечных точках).

В следующей таблице приведены ссылки на примеры использования моделей Mistral.

Описание Язык Образец
Запрос CURL Bash Ссылка
Пакет анализа Azure AI для C# C# Link
пакет инференции Azure ИИ для JavaScript Javascript Link
пакет для вывода AI Azure для Python Python Ссылка
веб-запросы Python Python Ссылка
Пакет SDK OpenAI (экспериментальный) Python Mistral - Пример пакета SDK OpenAI
LangChain Python Мистраль — пример LangChain
Мистраль ИИ Python Мистраль — пример Mistral AI
LiteLLM Python Мистраль — пример LiteLLM

Nixtla

TimeGEN-1 в Nixtla — это созданная предварительно обученная модель прогнозирования и обнаружения аномалий для данных временных рядов. TimeGEN-1 может создавать точные прогнозы для новых временных рядов без обучения, используя только исторические значения и экзогенные ковариации в качестве входных данных.

Для выполнения инференции TimeGEN-1 требуется использовать специализированный API инференции Nixtla. Дополнительные сведения о модели TimeGEN-1 и ее возможностях см. в разделе Nixtla.

Оценить необходимое количество токенов

Прежде чем создать развертывание TimeGEN-1, полезно оценить количество токенов, которые вы планируете использовать и за которые будет выставлен счет. Один маркер соответствует одной точке данных в входном наборе данных или выходном наборе данных.

Предположим, что у вас есть следующий входной набор данных временных рядов:

Уникальный_идентификатор Timestamp Целевая переменная Экзогенная переменная 1 Экзогенная переменная 2
БЫТЬ 2016-10-22 00:00:00 70.00 49593.0 57253.0
БЫТЬ 2016-10-22 01:00:00 37.10 46073.0 51887.0

Чтобы определить количество маркеров, умножьте количество строк (в этом примере два) и количество столбцов, используемых для прогнозирования, не подсчитывая столбцы unique_id и метки времени (в этом примере три), чтобы получить всего шесть маркеров.

Учитывая следующий выходной набор данных:

Unique_id Timestamp Прогнозируемая целевая переменная
БУДЬ 2016-10-22 02:00:00 46.57
БЫТЬ 2016-10-22 03:00:00 48.57

Кроме того, можно определить количество токенов, подсчитывая количество единиц данных, возвращаемых после прогнозирования данных. В этом примере число токенов составляет два.

Оценка цен на основе токенов

Существует четыре счетчика цен, определяющих цену, которую вы оплачиваете. Эти метры приведены следующим образом:

Индикатор цен Описание
paygo-inference-input-tokens Затраты, связанные с маркерами, используемыми в качестве входных данных для вывода при finetune_steps = 0
paygo-inference-output-токены Затраты, связанные с маркерами, используемыми в качестве вывода при finetune_steps = 0
paygo-finetuned-model-inference-input-token Затраты, связанные с маркерами, используемыми в качестве входных данных при finetune_steps> 0
paygo-finetuned-model-inference-output-токены Затраты, связанные с маркерами, используемыми в качестве вывода при finetune_steps> 0

См. коллекцию моделей Nixtla на портале Foundry.

ИИ стабильности

Модели ИИ стабильности, развернутые с помощью бессерверного развертывания API, реализуют API вывода моделей на маршруте /image/generations. Примеры использования моделей ИИ стабильности см. в следующих примерах:

Gretel Навигатор

Gretel Navigator использует составную архитектуру ИИ, специально спроектированную для синтетических данных, сочетая лучшие небольшие языковые модели с открытым исходным кодом (SLM), доработанные для использования в более чем 10 промышленных секторах. Эта специально созданная система создает разнообразные наборы данных, относящиеся к домену, в масштабе сотен до миллионов примеров. Система также сохраняет сложные статистические связи и обеспечивает повышенную скорость и точность по сравнению с созданием данных вручную.

Описание Язык Образец
Пакет Azure AI Inference для JavaScript Javascript Ссылка
пакет вывода Azure ИИ для Python Python Ссылка