Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Внимание
Элементы, обозначенные в этой статье как (предварительная версия), сейчас предлагаются в общедоступной предварительной версии. Эта предварительная версия предоставляется без соглашения об уровне обслуживания, и мы не рекомендуем ее для рабочих нагрузок. Некоторые функции могут не поддерживаться или их возможности могут быть ограничены. Дополнительные сведения см. в статье Дополнительные условия использования Предварительных версий Microsoft Azure.
Вы можете использовать вывод модели ИИ Azure в проектах в Azure AI Foundry для создания приложений и взаимодействия и управления доступными моделями. Чтобы использовать службу вывода модели ИИ Azure в проекте, необходимо создать подключение к ресурсу Служб искусственного интеллекта Azure.
В следующей статье объясняется, как создать подключение к ресурсу Служб искусственного интеллекта Azure для использования конечной точки вывода.
Предварительные условия
Для работы с этой статьей необходимо иметь следующее.
Подписка Azure. Если вы используете GitHub Models, вы можете улучшить свой опыт и одновременно создать подписку на Azure. Прочтите О переходе с моделей GitHub на модели вывода Azure AI, если это относится к вам.
Ресурс служб ИИ Azure. Дополнительные сведения см. в статье "Создание ресурса служб искусственного интеллекта Azure".
Ресурс проекта ИИ.
Функция развертывания моделей в сервис предсказаний на основе искусственного интеллекта Azure включена.
Добавить подключение
Вы можете создать подключение к ресурсу служб искусственного интеллекта Azure, выполнив следующие действия.
Перейдите на портал Azure AI Foundry.
В левом нижнем углу экрана выберите центр управления.
В разделе "Подключения" выберите "Создать подключение".
Выберите службы ИИ Azure.
В браузере найдите существующий ресурс Служб искусственного интеллекта Azure в подписке.
Выберите Добавить подключение.
Новое подключение добавлено к вашему узлу.
Вернитесь на целевую страницу проекта, чтобы продолжить и теперь выберите новое созданное соединение. Обновите страницу, если она не отображается немедленно.
Просмотр развертываний моделей в подключенном ресурсе
Чтобы увидеть развертывания модели, доступные в подключенном ресурсе, выполните следующие действия:
Перейдите на портал Azure AI Foundry.
На панели навигации слева выберите модели и конечные точки.
На странице отображаются развертывания моделей, доступные вам, сгруппированные по названиям подключений. Найдите только что созданное соединение, которое должно быть типа служб ИИ Azure.
Выберите любое развертывание модели, которое требуется проверить.
На странице сведений отображаются сведения о конкретном развертывании. Если вы хотите протестировать модель, можно использовать параметр "Открыть на детской площадке".
Отображается игровая площадка Azure AI Foundry, где можно взаимодействовать с данной моделью.
Внимание
Элементы, обозначенные в этой статье как (предварительная версия), сейчас предлагаются в общедоступной предварительной версии. Эта предварительная версия предоставляется без соглашения об уровне обслуживания, и мы не рекомендуем ее для рабочих нагрузок. Некоторые функции могут не поддерживаться или их возможности могут быть ограничены. Дополнительные сведения см. в статье Дополнительные условия использования Предварительных версий Microsoft Azure.
Вы можете использовать вывод модели ИИ Azure в проектах в Azure AI Foundry для создания приложений и взаимодействия и управления доступными моделями. Чтобы использовать службу вывода модели ИИ Azure в проекте, необходимо создать подключение к ресурсу Служб искусственного интеллекта Azure.
В следующей статье объясняется, как создать подключение к ресурсу Служб искусственного интеллекта Azure для использования конечной точки вывода.
Предварительные условия
Для работы с этой статьей необходимо иметь следующее.
Подписка Azure. Если вы используете GitHub Models, вы можете улучшить ваш опыт и создать подписку Azure в процессе. Прочитайте инструкцию по обновлению с моделей GitHub на вывод моделей ИИ Azure, если это применимо в вашем случае.
Ресурс служб ИИ Azure. Дополнительные сведения см. в статье "Создание ресурса служб искусственного интеллекта Azure".
Установите Azure CLI и
ml
расширение для Azure AI Foundry:az extension add -n ml
Определите следующие сведения:
Идентификатор вашей подписки Azure.
Имя ресурса Служб искусственного интеллекта Azure.
Группа ресурсов, в которой развернут ресурс Служб искусственного интеллекта Azure.
Добавить подключение
Чтобы добавить модель, сначала необходимо определить модель, которую требуется развернуть. Вы можете запросить доступные модели следующим образом:
Войдите в подписку Azure:
az login
Настройте интерфейс командной строки для указания проекта:
az account set --subscription <subscription> az configure --defaults workspace=<project-name> group=<resource-group> location=<location>
Создайте определение подключения:
connection.yml
name: <connection-name> type: aiservices endpoint: https://<ai-services-resourcename>.services.ai.azure.com api_key: <resource-api-key>
Создайте подключение:
az ml connection create -f connection.yml
На этом этапе подключение доступно для потребления.
Внимание
Элементы, обозначенные в этой статье как (предварительная версия), сейчас предлагаются в общедоступной предварительной версии. Эта предварительная версия предоставляется без соглашения об уровне обслуживания, и мы не рекомендуем ее для рабочих нагрузок. Некоторые функции могут не поддерживаться или их возможности могут быть ограничены. Дополнительные сведения см. в статье Дополнительные условия использования Предварительных версий Microsoft Azure.
Вы можете использовать вывод модели ИИ Azure в проектах в Azure AI Foundry для создания приложений и взаимодействия и управления доступными моделями. Чтобы использовать службу вывода модели ИИ Azure в проекте, необходимо создать подключение к ресурсу Служб искусственного интеллекта Azure.
В следующей статье объясняется, как создать подключение к ресурсу Служб искусственного интеллекта Azure для использования конечной точки вывода.
Предварительные требования
Для работы с этой статьей необходимо иметь следующее.
Подписка Azure. Если вы используете GitHub Models, вы можете улучшить ваш опыт и создать подписку Azure в процессе. Ознакомьтесь с тем, как перейти от моделей GitHub к инференции модели ИИ Azure, если это ваш случай.
Ресурс служб ИИ Azure. Дополнительные сведения см. в статье "Создание ресурса служб искусственного интеллекта Azure".
Проект ИИ Azure с центром искусственного интеллекта.
Установите интерфейс командной строки Azure.
Определите следующие сведения:
Идентификатор вашей подписки Azure.
Имя ресурса Служб искусственного интеллекта Azure.
Идентификатор ресурса Служб искусственного интеллекта Azure.
Имя Центра искусственного интеллекта Azure, в котором развернут проект.
Группа ресурсов, в которой развернут ресурс Служб искусственного интеллекта Azure.
Добавить подключение
Используйте шаблон
ai-services-connection-template.bicep
для описания подключения:ai-services-connection-template.bicep
@description('Name of the hub where the connection will be created') param hubName string @description('Name of the connection') param name string @description('Category of the connection') param category string = 'AIServices' @allowed(['AAD', 'ApiKey', 'ManagedIdentity', 'None']) param authType string = 'AAD' @description('The endpoint URI of the connected service') param endpointUri string @description('The resource ID of the connected service') param resourceId string = '' @secure() param key string = '' resource connection 'Microsoft.MachineLearningServices/workspaces/connections@2024-04-01-preview' = { name: '${hubName}/${name}' properties: { category: category target: endpointUri authType: authType isSharedToAll: true credentials: authType == 'ApiKey' ? { key: key } : null metadata: { ApiType: 'Azure' ResourceId: resourceId } } }
Запустите развертывание:
RESOURCE_GROUP="<resource-group-name>" ACCOUNT_NAME="<azure-ai-model-inference-name>" ENDPOINT_URI="https://<azure-ai-model-inference-name>.services.ai.azure.com" RESOURCE_ID="<resource-id>" HUB_NAME="<hub-name>" az deployment group create \ --resource-group $RESOURCE_GROUP \ --template-file ai-services-connection-template.bicep \ --parameters accountName=$ACCOUNT_NAME hubName=$HUB_NAME endpointUri=$ENDPOINT_URI resourceId=$RESOURCE_ID