Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Эта статья поможет вам создать процесс безопасности для рабочих нагрузок ИИ в Azure. Безопасная среда ИИ поддерживает бизнес-цели и создает доверие заинтересованных лиц к решениям ИИ.
Управление ИИ, управление ИИ и безопасный ИИ являются непрерывными процессами, которые необходимо выполнять регулярно. При необходимости вернитесь к каждой стратегии ИИ, плану ИИ и готовности к ИИ.
Обнаружение рисков безопасности искусственного интеллекта
Рабочие нагрузки искусственного интеллекта создают новые области атак, которые традиционные меры безопасности не могут решать. Для создания эффективной защиты необходимо систематически оценивать уязвимости, относящиеся к ИИ. Это делается следующим образом:
Определите риски системы искусственного интеллекта в вашей среде. Внедрение искусственного интеллекта вводит классы рисков, которые традиционное моделирование угроз может явно не решать. Хотя существующая корпоративная платформа уже может быть способна моделировать эти риски, управление ИИ требует преднамеренной проверки того, что она действительно делает это. Начните с установленной платформы моделирования угроз, например STRIDE. Затем обратитесь к базам знаний и инвентаризации, специфичным для рисков ИИ, таким как MITRE ATLAS и OWASP Generative AI risk, чтобы убедиться, что методы атак, неправильные сценарии использования и системные риски, связанные с ИИ, адекватно рассматриваются. Используйте эти источники для дополнения, а не замены существующей платформы и информирования о согласованной идентификации рисков ИИ в организации.
Оцените риски данных искусственного интеллекта во всех рабочих процессах. Конфиденциальные данные в рабочих процессах ИИ повышают риск внутренних угроз и утечки данных, которые могут компрометировать бизнес-операции. Оценка рисков данных помогает определить приоритеты инвестиций в безопасность на основе фактических уровней воздействия. Управление внутренними рисками Microsoft Purview может интегрироваться с другими наборами безопасности и решениями для оценки рисков данных на уровне предприятия и приоритета их на основе уровней конфиденциальности данных. Он также может помочь в эксфильтрации данных, основанной на подсказках, и идентификации рискованных поведенческих паттернов ИИ.
Тестирование моделей ИИ для уязвимостей безопасности. Модели ИИ содержат уникальные уязвимости, такие как утечка данных, внедрение запросов и инверсия моделей, которые злоумышленники могут использовать. Тестирование в реальном мире обнаруживает риски, которые статические проверки не могут обнаружить. Тестируйте модели уязвимостей с помощью методов защиты от потери данных и состязательных имитаций, а также красных команд как генерирующих ИИ , так и негенеративных моделей ИИ для имитации реальных атак.
Проводите периодические оценки рисков. Новые угрозы возникают как модели ИИ, шаблоны использования и субъекты угроз развиваются со временем. Регулярные оценки обеспечивают адаптацию вашей системы безопасности к изменению ландшафтов риска. Выполните повторяющиеся оценки, чтобы определить уязвимости в моделях, конвейерах данных и средах развертывания, а также использовать результаты оценки для управления приоритетами по устранению рисков во всех средах.
Защита ресурсов и данных ИИ
Системы ИИ содержат ценные ресурсы и данные, требующие надежной защиты от несанкционированного доступа и атак. Для защиты этих критически важных ресурсов необходимо реализовать определенные средства управления безопасностью.
Безопасные ресурсы искусственного интеллекта
Комплексные меры безопасности защищают инвестиции ИИ и поддерживают доверие заинтересованных лиц в ваших решениях ИИ. Примените целевые элементы управления для защиты всех компонентов инфраструктуры искусственного интеллекта. Это делается следующим образом:
Создание полного инвентаризации активов ИИ. Неизвестные ресурсы ИИ или ресурсы ИИ, которые не отслеживаются для соответствия политике ИИ организации, создают риски безопасности, которые плохие субъекты могут использовать для получения несанкционированного доступа. Комплексная инвентаризация позволяет эффективно отслеживать и быстро реагировать на инциденты для всех компонентов ИИ. Используйте Azure Resource Graph для обнаружения ресурсов ИИ в подписках. Используйте Microsoft Defender для облака для идентификации рабочих нагрузок генеративного ИИ. Результаты становятся инвентаризацией ИИ и должны поддерживаться с помощью автоматической проверки и регулярной проверки.
Защитите все каналы коммуникации ИИ. Незащищенные пути обмена данными между компонентами ИИ позволяют перехват данных и компрометацию системы. Правильно защищенные каналы предотвращают несанкционированный доступ и защищают конфиденциальную информацию при передаче. Реализуйте управляемые удостоверения для безопасной проверки подлинности устройств и рабочих нагрузок (нечеловеческих) без сохраненных учетных данных. Используйте виртуальные сети для изоляции обмена данными СИ. Разверните Azure API Management, чтобы обеспечить безопасность конечных точек сервера Model Context Protocol (MCP).
Применение элементов управления безопасностью для конкретной платформы. Различные модели развертывания искусственного интеллекта сталкиваются с различными угрозами безопасности на основе их архитектуры и точек воздействия. Элементы управления с учетом платформы устраняют определенные уязвимости, присутствующих в каждом типе развертывания. Следуйте выделенным рекомендациям по безопасности на основе модели развертывания:
Защита данных ИИ
Рабочие нагрузки искусственного интеллекта используют данные и артефакты, требующие надежной защиты для предотвращения несанкционированного доступа, утечки данных и нарушений соответствия требованиям. Реализуйте комплексные меры безопасности данных для защиты данных ИИ и артефактов. Это делается следующим образом:
Определение и обслуживание границ данных. Очистка границ данных гарантирует, что рабочие нагрузки ИИ получают доступ только к данным, соответствующим их целевой аудитории и варианту использования. Используйте Microsoft Purview для классификации конфиденциальности данных, использования типов конфиденциальной информации, обучаемых классификаторов и классификации данных для определения политик доступа. Реализуйте Azure управление доступом на основе ролей (RBAC) для ограничения доступа к данным по рабочей нагрузке и группе пользователей. Используйте Приватный канал Azure для включения доступа к службам PaaS Azure через частную конечную точку в виртуальной сети.
Реализуйте комплексную защиту от потери данных. Несанкционированное раскрытие данных в ответах ИИ может скомпрометировать конфиденциальную информацию и нарушить регуляторные требования. Средства защиты от потери данных не позволяют моделям искусственного интеллекта непреднамеренно обнаруживать защищенные данные в выходных данных. Используйте Защита от потери данных Microsoft Purview для сканирования и блокировки конфиденциальных данных в рабочих процессах ИИ. Настройте фильтрацию содержимого , чтобы предотвратить утечку конфиденциальной информации, а также реализовать пользовательские фильтры для обнаружения и редактирования шаблонов конфиденциальных данных, относящихся к организации. Для Microsoft Copilot Studio Настройка политик защиты от потери данных для агентов.
Защита артефактов ИИ от компрометации. Незащищенные модели ИИ и наборы данных становятся целевыми объектами для кражи, отравлений или обратных инженерных атак. Защищенные артефакты поддерживают значение интеллектуальной собственности и предотвращают вредоносные манипуляции с системами искусственного интеллекта. Хранение моделей и наборов данных в Хранилище BLOB-объектов Azure с частными конечными точками, применение шифрования при хранении и передаче и реализация строгих политик доступа с мониторингом для обнаружения несанкционированных попыток доступа.
Обнаружение угроз безопасности искусственного интеллекта
Системы искусственного интеллекта сталкиваются с изменяющимися угрозами, которые требуют непрерывного мониторинга, чтобы предотвратить нарушения безопасности и нарушения работы служб. Быстрое обнаружение угроз защищает инвестиции ИИ и поддерживает непрерывность бизнес-процессов. Реализуйте возможности автоматического мониторинга и реагирования для эффективного решения инцидентов безопасности, относящихся к искусственному интеллекту. Это делается следующим образом:
Разверните автоматическое обнаружение рисков искусственного интеллекта в вашей среде. Рабочие нагрузки искусственного интеллекта представляют динамические угрозы, которые мониторинг вручную не может обнаружить достаточно быстро, чтобы предотвратить ущерб. Автоматизированные системы обеспечивают видимость новых рисков в режиме реального времени и позволяют быстро реагировать на инциденты безопасности. Используйте управление безопасностью AI в Microsoft Defender для облака для автоматизации обнаружения и устранения рисков создания ИИ в среде Azure.
Создайте процедуры реагирования на инциденты, ориентированные на ИИ. Незамеченные инциденты безопасности могут привести к потере данных, компрометации модели или нарушению работы служб, которые повреждают бизнес-операции. Специализированные процедуры реагирования на инциденты рассматривают уникальные характеристики событий безопасности ИИ. Создавайте и тестируйте планы реагирования на инциденты, которые отвечают на угрозы, относящиеся к ИИ, и постоянно отслеживают индикаторы компрометации в системах ИИ. Создайте четкие процедуры эскалации для различных типов инцидентов безопасности искусственного интеллекта.
Реализуйте стратегии мониторинга для конкретной платформы. Рабочие нагрузки искусственного интеллекта, развернутые на разных платформах, сталкиваются с различными проблемами безопасности, которые требуют специализированных подходов к мониторингу. Мониторинг, зависящий от платформы, обеспечивает комплексное охват всех потенциальных векторов атак. Примените рекомендации по мониторингу на основе архитектуры развертывания следующим образом:
- мониторинг AI на платформах Azure (PaaS)
- Мониторинг ИИ на инфраструктуре Azure (IaaS)
ресурсы Azure
| Категория | инструмент | Описание |
|---|---|---|
| Обнаружение активов | Azure Resource Graph Explorer | Поиск и инвентаризация ресурсов ИИ в подписках Azure |
| Мониторинг безопасности | Microsoft Defender для облака | Определяет создаваемые рабочие нагрузки ИИ и риски безопасности |
| Управление идентичностью | Microsoft Entra управляемые удостоверения | Защита проверки подлинности службы ИИ без хранения учетных данных |
| Сетевая безопасность | Виртуальные сети | Изолирует коммуникации ИИ и ограничивает доступ к сети |
| Безопасность API | Azure API Management | Обеспечивает безопасность серверных конечных точек протокола контекста модели |
| Защита данных | Хранилище BLOB-объектов Azure | Предоставляет зашифрованное хранилище артефактов искусственного интеллекта с помощью элементов управления доступом |
| Управление данными | Microsoft Purview | Каталогизирует и классифицирует данные ИИ с метками уровня конфиденциальности |
Дальнейшие действия
Как упоминалось ранее, процессы управления ИИ, менеджмента ИИ и обеспечения безопасности ИИ являются непрерывными, и их необходимо регулярно повторять. При необходимости вернитесь к каждой стратегии ИИ, плану ИИ и готовности к ИИ. Используйте контрольные списки внедрения ИИ, чтобы определить, какой должен быть следующий шаг.