Рекомендации по обеспечению безопасности ИИ Azure

В этой статье приведены рекомендации по защите рабочих нагрузок искусственного интеллекта (ИИ) в Azure. Поскольку организации внедряют возможности искусственного интеллекта с беспрецедентной скоростью, группы безопасности должны заранее получить представление об использовании ИИ и реализовать соответствующие элементы управления для снижения рисков.

В этой статье рассматриваются вопросы безопасности ИИ, относящиеся к Azure. Подробные рекомендации по обеспечению безопасности, не зависящие от платформы ИИ, включая стратегию организации, платформы управления и полный жизненный цикл безопасности ИИ , см. в документации по безопасности Майкрософт.

В этой статье дополняется модель общей ответственности ИИ, которая объясняет разделение обязанностей безопасности между вами и Корпорацией Майкрософт для рабочих нагрузок ИИ. Инструкции по обеспечению безопасности с применением политики Azure см. в статье Microsoft Cloud Security Benchmark версии 2 — безопасность искусственного интеллекта.

Обеспечьте видимость использования и рабочих нагрузок ИИ

Прежде чем обеспечить безопасность рабочих нагрузок ИИ, необходимо просмотреть, какие приложения ИИ используются и создаются в вашей организации.

  • Используйте Microsoft Defender для облака, чтобы обнаруживать рабочие нагрузки ИИ в вашем облаке Azure.: план управления безопасностью в облаке Microsoft Defender (CSPM) предоставляет возможности управления безопасностью ИИ, включая обнаружение спецификаций генерирующего ИИ (AI BOM), встроенные рекомендации по вопросам безопасности и анализ пути атаки. Дополнительные сведения см. в разделе "Управление безопасностью искусственного интеллекта" с помощью Defender для облака.

  • Используйте Microsoft Defender для облачных приложений для обнаружения SaaS-приложений ИИ. Каталог Defender для облачных приложений включает более тысячи генеративных приложений ИИ. Вы можете просматривать оценки рисков, санкционировать или блокировать приложения, а также создавать политики для обнаружения новых приложений ИИ. Дополнительные сведения см. в разделе Управление обнаруженными приложениями.

  • Отслеживание удостоверений агентов ИИ с помощью Microsoft Entra Agent ID. Идентификатор Microsoft Entra Agent ID предоставляет единый каталог удостоверений агентов, созданных в Microsoft Copilot Studio и Azure AI Foundry, что помогает управлять жизненным циклом и разрешениями агентов.

Защита развертываний службы OpenAI Azure

Служба Azure OpenAI предоставляет доступ REST API к мощным языковым моделям. Защита этих развертываний важна для защиты данных и предотвращения неправильного использования.

  • Используйте частные конечные точки для сетевой изоляции. Настройте Службу Azure OpenAI для использования частных конечных точек, удаление общедоступной конечной точки и ограничение доступа к виртуальной сети. Дополнительные сведения см. в разделе "Конфигурация сети и доступа" для Azure OpenAI.

  • Используйте управляемое удостоверение для проверки подлинности.: настройте приложения для проверки подлинности с помощью управляемых удостоверений Microsoft Entra вместо ключей API, устраняя необходимость управления секретами и смены их. Дополнительные сведения см. в разделе "Настройка Службы OpenAI Azure" с помощью проверки подлинности идентификатора Microsoft Entra.

  • Реализуйте многоуровневую фильтрацию содержимого.: разверните фильтрацию содержимого на нескольких этапах, чтобы создать защиту в глубине:

  • Фильтрация входных данных: используйте Azure AI Content Safety для анализа запросов на вредоносное содержимое, включая попытки инъекции запросов и атаки типа "jailbreak"

  • Фильтрация выходных данных. Настройка фильтрации содержимого Azure OpenAI для блокировки вредоносных ответов перед доставкой

  • Элементы управления шлюзом API. Использование службы "Управление API Azure" для применения ограничения скорости и проверки схемы

Дополнительные сведения см. в разделе "Фильтрация содержимого " и "Безопасность содержимого ИИ Azure".

  • Используйте мета-запросы безопасности для управления поведением модели.: Проектируйте системные запросы, которые четко определяют роль модели, содержат явные инструкции для отклонения вредоносных входных данных и указывают модели отдавать приоритет системным инструкциям над пользовательскими вводами. Используйте методы выделения, чтобы изолировать ненадежные данные в запросах и интегрировать Защиту запросов для обнаружения попыток взлома.

  • Мониторинг использования с помощью журналов диагностики. Включение ведения журнала диагностики для отслеживания запросов API, использования маркеров, фильтрации содержимого и ошибок. Отправка журналов в Azure Monitor для анализа и оповещений. Дополнительные сведения см. в статье "Мониторинг Azure OpenAI".

Защита Azure AI Foundry и Azure Machine Learning

Azure AI Foundry и Машинное обучение Azure предоставляют платформы для создания и развертывания приложений ИИ. Защита этих сред требует внимания к сетевой изоляции, управлению доступом и управлению моделями.

  • Используйте управляемую сетевую изоляцию.. Создание центров Azure AI Foundry и рабочих областей Машинного обучения Azure с управляемыми виртуальными сетями, предоставляющими частные конечные точки для зависимых служб и управления исходящим трафиком. Дополнительные сведения см. в статье Об управляемой сетевой изоляции для Azure AI Foundry и настройке частной конечной точки для Машинного обучения Azure.

  • Реализуйте управление доступом с минимальными привилегиями.. Настройте RBAC с помощью встроенных ролей и назначьте разрешения на уровне проекта или рабочей области. Используйте идентификатор агента Microsoft Entra для управления удостоверениями агента ИИ, применяя ограниченные по времени короткие токены для получения доступа к функциям агента. Дополнительные сведения см. в разделе "Управление доступом на основе ролей" для Microsoft Foundry.

  • Развертывание только утвержденных моделей ИИ. Использование реестра моделей машинного обучения Azure для отслеживания подтверждения модели, состояния проверки и журнала утверждений. Настройте автоматическое сканирование для проверки целостности модели и тестирования на устойчивость к атакующим входным данным перед развертыванием. Разверните политику Azure "[предварительная версия]: развертывания машинного обучения Azure должны использовать только утвержденные модели реестра", чтобы применить управление. Дополнительные сведения см. в разделе "Управление моделями" и "Развертывание".

  • Безопасные вычислительные ресурсы. Настройка вычислительных экземпляров без публичных IP-адресов, использование аутентификации с управляемыми удостоверениями, включение изоляции пользователей для общих кластеров и шифрование дисков с использованием ключей, управляемых клиентом. Дополнительные сведения см. в статье "Защита среды обучения машинного обучения Azure".

Реализация защиты от угроз, относящихся к искусственному интеллекту

Рабочие нагрузки искусственного интеллекта сталкиваются с уникальными угрозами, включая внедрение запросов, атаки на обход ограничений и манипуляции с моделью. Реализуйте обнаружение угроз и непрерывное тестирование, специально разработанные для искусственного интеллекта.

Интегрируйте red teaming в конвейеры CI/CD для проверки безопасности перед развертыванием. Проверьте известные шаблоны атак из MITRE ATLAS и OWASP Top 10 для LLM.

  • Реализуйте человеческое вмешательство для критически важных действий.. Для операций ИИ с высоким уровнем риска, таких как передача внешних данных или изменения конфигурации системы, создайте рабочие процессы с помощью Azure Logic Apps или Power Automate, которые останавливают процесс для проверки и утверждения человеком перед выполнением.

  • Контроль за паттернами рискованного использования ИИ. Используйте Microsoft Purview Insider Risk Management с шаблоном политики рискованного использования ИИ для обнаружения и изучения рискованных действий, связанных с ИИ. Дополнительные сведения см. в шаблонах политик управления внутренними рисками.

Защита конфиденциальных данных в взаимодействии СИ

Приложения ИИ часто взаимодействуют с конфиденциальными данными. Реализуйте элементы управления защитой данных, чтобы предотвратить потерю данных и обеспечить соответствие требованиям.

  • Используйте Microsoft Purview для управления безопасностью данных (DSPM) для ИИ.: DSPM для ИИ предоставляет аналитические сведения о действиях ИИ, готовые к использованию политики для защиты данных в запросах, а также оценки рисков данных для избыточного предоставления. Дополнительные сведения см. в разделе "Управление безопасностью данных" для искусственного интеллекта.

  • Примените метки конфиденциальности и политики защиты от потери данных. Распространите метки конфиденциальности Microsoft Purview на данные, к которым обращаются приложения ИИ, и настройте политики защиты от потери данных для обнаружения и блокировки конфиденциальных данных в запросах ИИ. Дополнительные сведения см. в статье о начале работы с метками конфиденциальности.

Управление ИИ для соответствия требованиям

Приложения ИИ должны соответствовать нормативным требованиям и политикам организации.

  • Реализуйте ответственные элементы управления ИИ. Следуйте принципам ответственного искусственного интеллекта Майкрософт для справедливости, прозрачности, конфиденциальности и подотчетности. Дополнительные сведения см. в статье Microsoft Responsible AI Standard.

  • Сохранение следов аудита: Включите аудит для служб ИИ: Microsoft Purview Audit фиксирует взаимодействие с Copilot, Azure Monitor отслеживает использование службы ИИ Azure, а Defender для облачных приложений контролирует активность SaaS AI. Дополнительные сведения см. в разделе "Действия журнала аудита".

Дальнейшие шаги