Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Microsoft 365 Copilot — это сложный механизм обработки и оркестрации, который обеспечивает возможности повышения производительности на базе ИИ за счет координации следующих компонентов:
- Большие языковые модели (LLM)
- Содержимое в Microsoft Graph, например электронные письма, чаты и документы, на доступ к которым у вас есть разрешение.
- Приложения Microsoft 365 для повышения производительности, которые вы используете каждый день, например Word и PowerPoint.
Чтобы получить общее представление о том, как эти три компонента работают вместе, ознакомьтесь со статьей Обзор Microsoft 365 Copilot. Ссылки на другие материалы, связанные с Microsoft 365 Copilot, вы найдете в документации по Microsoft 365 Copilot.
Важно!
- Microsoft 365 Copilot, включая поиск Microsoft 365 Copilot, соответствует нашим существующим обязательствам по конфиденциальности, безопасности и соответствию требованиям для коммерческих клиентов Microsoft 365, включая Общий регламент по защите данных (GDPR) и границу данных Европейского союза (ЕС).
- Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе используемых Microsoft 365 Copilot.
- Microsoft 365 Copilot работает с несколькими возможностями защиты, которые включают, помимо прочего, блокирование вредоносного содержимого, обнаружение защищенного материала и блокирование внедрения запросов (атаки на джейлбрейк).
- Anthropic модели в интерфейсе Microsoft 365 Copilot предоставляются в рамках условий использования продуктов Майкрософт и дополнения по защите данных. Узнайте больше о гарантиях Anthropic.
- Anthropic модели выходят за пределы область для границы данных ЕС и, если они доступны, обязательств по обработке LLM в стране. Дополнительные сведения см. в разделе Anthropic в качестве субобработчика для Microsoft Online Services.
Сведения в этой статье предназначены для предоставления ответов на следующие вопросы:
- Как Microsoft 365 Copilot использует собственные данные организации?
- Как Microsoft 365 Copilot защищает сведения и данные организации?
- Какие данные о взаимодействии пользователей с Microsoft 365 Copilot хранятся?
- Какие обязательства по размещению данных берет на себя Microsoft 365 Copilot?
- Какие возможности расширения доступны для Microsoft 365 Copilot
- Как Microsoft 365 Copilot выполняет требования по соответствию?
- Применяются ли элементы управления конфиденциальностью для сетевых возможностей в приложениях Microsoft 365 к Microsoft 365 Copilot?
- Можно ли доверять содержимому, созданному Microsoft 365 Copilot? Кто владеет этим содержимым?
- Каковы обязательства Microsoft в отношении ответственного использования ИИ?
Примечание.
Microsoft 365 Copilot будет продолжать развиваться с течением времени, добавляя новые возможности. Чтобы быть в курсе новостей Microsoft 365 Copilot или задать вопросы, посетите сообщество Microsoft 365 Copilot в Microsoft Tech Community.
Как Microsoft 365 Copilot использует собственные данные организации?
Microsoft 365 Copilot предоставляет ценность, подключая LLM к данным организации. Microsoft 365 Copilot получает доступ к содержимому и контексту через Microsoft Graph. Он может создавать ответы с привязкой к данным организации, таким как документы пользователей, сообщения электронной почты, календарь, чаты, собрания и контакты. Microsoft 365 Copilot объединяет это содержимое с рабочим контекстом пользователя, например с собранием, в котором находится пользователь, обмен электронной почтой по теме или беседами в чате, которые пользователь провел на прошлой неделе. Microsoft 365 Copilot использует это сочетание содержимого и контекста для предоставления точных, релевантных и контекстуальных ответов.
Важно!
Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе используемых Microsoft 365 Copilot.
Microsoft 365 Copilot отображает только те данные организации, к которым у отдельных пользователей есть хотя бы разрешения на просмотр. Важно, чтобы вы использовали модели разрешений, доступные в службах Microsoft 365, таких как SharePoint, чтобы гарантировать, что нужные пользователи или группы имеют правильный доступ к нужному контенту в вашей организации. К ним относятся разрешения, которые вы предоставляете пользователям за пределами организации с помощью решений для совместной работы между клиентами, например общих каналов в Microsoft Teams.
При вводе запросов с помощью Microsoft 365 Copilot информация, содержащаяся в ваших запросах, извлекаемые ими данные и сформированные ответы остаются в пределах границ службы Microsoft 365 в соответствии с нашими текущими обязательствами по обеспечению конфиденциальности, безопасности и соответствия нормативным требованиям. Microsoft 365 Copilot использует для обработки Azure службы OpenAI, а не общедоступные службы OpenAI. Azure OpenAI не кэширует содержимое клиентов и измененные запросы Copilot для Microsoft 365 Copilot. Дополнительные сведения см. в разделе Данные о взаимодействии пользователей с Microsoft 365 Copilot далее в этой статье.
Примечание.
- Когда вы используете агентов, чтобы помочь Microsoft 365 Copilot предоставить более важную информацию, проверка заявление о конфиденциальности и условия использования агента, чтобы определить, как он будет обрабатывать данные вашей организации. Дополнительные сведения см. в разделе Расширяемость Microsoft 365 Copilot.
- При использовании поиска в Интернете Microsoft 365 Copilot анализирует запрос пользователя и определяет термины, в которых веб-поиск улучшит качество ответа. На основе этих условий Copilot генерирует поисковый запрос и отправляет его в службу Поиска Microsoft Bing. Дополнительные сведения: Данные, конфиденциальность и безопасность веб-запросов в Microsoft 365 Copilot и Microsoft 365 Copilot Chat.
- С 7 января 2026 г. Anthropic является субобработчиком для Microsoft 365 Copilot. Дополнительные сведения см. в разделе Anthropic в качестве субобработчика для Microsoft Online Services.
Хотя мониторинг злоупотреблений, включающий проверку контента человеком, доступен в Azure OpenAI, службы Microsoft 365 Copilot отказались от него. Сведения о фильтрации контента см. в разделе Как Copilot блокирует вредоносный контент? далее в этой статье.
Примечание.
Мы можем использовать отзывы клиентов (что не является обязательным) для улучшения Microsoft 365 Copilot, так же как мы используем отзывы клиентов для улучшения других служб Microsoft 365 и приложений Microsoft 365 для повышения производительности. Мы не используем эти отзывы для обучения основам LLM, используемым Microsoft 365 Copilot. Клиенты могут управлять отзывами с помощью элементов управления администратора. Дополнительные сведения см. в разделах Управление отзывами Майкрософт для организации и Предоставление отзывов о Microsoft Copilot с приложениями Microsoft 365.
Хранимые данные о взаимодействии пользователей с Microsoft 365 Copilot
Когда пользователь взаимодействует с Microsoft 365 Copilot (используя такие приложения, как Word, PowerPoint, Excel, OneNote, Loop или Whiteboard), мы сохраняем данные об этих взаимодействиях. Сохраненные данные включают запросы пользователя и ответ Copilot, включая ссылки на все сведения, использованные для обоснования ответа Copilot. Мы ссылаемся на запрос пользователя и ответ Copilot на этот запрос как "содержимое взаимодействий", а запись этих взаимодействий — это журнал действий Пользователя Copilot. Например, эти хранимые данные предоставляют пользователям журнал действий Copilot в Microsoft 365 Copilot Chat (ранее — Бизнес-чат) и собрания в Microsoft Teams. Эти данные обрабатываются и хранятся в соответствии с договорными обязательствами с другим содержимым вашей организации в Microsoft 365. Данные хранятся в зашифрованном виде и не используются для обучения базовых LLM, в том числе тех, которые используются в Microsoft 365 Copilot.
Для просмотра этих сохраненных данных и управления ими администраторы могут использовать поиск контента или Microsoft Purview. Администраторы также могут использовать Microsoft Purview для установки политик хранения данных, связанных с взаимодействием в чате с Copilot. Дополнительные сведения см. в следующих статьях:
- Общие сведения о поиске контента
- Меры защиты данных и соответствия требованиям Microsoft Purview для приложений генеративного ИИ
- Подробнее о периоде удержания для Copilot
Для чатов Microsoft Teams с Copilot администраторы также могут использовать API-интерфейсы экспорта Microsoft Teams для просмотра хранимых данных.
Удаление журнала взаимодействия пользователей с Microsoft 365 Copilot
Пользователи могут удалить журнал действий Copilot, который включает в себя их запросы и ответы, возвращаемые Copilot, перейдя на портал "Моя учетная запись". Дополнительные сведения см. в разделе Удаление журнала действий Microsoft 365 Copilot.
Microsoft 365 Copilot и граница данных ЕС
Звонки Microsoft 365 Copilot в LLM направляются в ближайшие центры обработки данных в регионе, но также могут идти в другие регионы, где ресурсы доступны в периоды высокой загрузки.
Для пользователей Европейского Союза (ЕС) у нас есть дополнительные гарантии соблюдения границ данных ЕС. Трафик из ЕС остается в пределах границ данных ЕС, в то время как мировой трафик может быть отправлен в ЕС и другие регионы для обработки LLM.
Microsoft 365 Copilot и место расположения данных
Microsoft 365 Copilot соблюдает обязательства по месту расположения данных, как указано в Условиях использования продуктов Майкрософт и Дополнении к Соглашению о защите данных. Microsoft 365 Copilot добавлен в качестве охватываемой рабочей нагрузки в обязательства по размещению данных в Условиях использования продуктов Майкрософт 1 марта 2024 года.
Предложения Майкрософт Advanced Data Residency (ADR) и Multi-Geo Capabilities включают обязательства по размещению данных для клиентов Microsoft 365 Copilot с 1 марта 2024 года. Для клиентов из ЕС Microsoft 365 Copilot — это служба пограничного обмена данными в ЕС. Запросы клиентов за пределами ЕС могут обрабатываться в США, ЕС или других регионах.
Расширяемость Microsoft 365 Copilot
Хотя Microsoft 365 Copilot уже может использовать приложения и данные в экосистеме Microsoft 365, многие организации по-прежнему зависят от различных внешних инструментов и служб для управления работой и совместной работы. Microsoft 365 Copilot интерфейсы могут ссылаться на сторонние средства и службы при ответе на запрос пользователя с помощью соединителей Или агентов Microsoft Graph. Данные из соединителей Graph могут быть возвращены в ответах Microsoft 365 Copilot, если у пользователя есть разрешение на доступ к этой информации.
Если агенты включены, Microsoft 365 Copilot определяет, нужно ли использовать определенный агент для предоставления пользователю соответствующего ответа. Если агент необходим, Microsoft 365 Copilot создает поисковый запрос для отправки агенту от имени пользователя. Запрос основан на запросе пользователя, журнале действий Copilot и данных, к которые пользователь имеет доступ в Microsoft 365.
В разделе Интегрированные приложенияЦентр администрирования Microsoft 365 администраторы могут просматривать разрешения и доступ к данным, необходимые агенту, а также условия использования агента и заявление о конфиденциальности. Администраторы имеют полный контроль над тем, чтобы выбрать, какие агенты разрешены в их организации. Пользователь может получить доступ только к агентам, разрешенным администратором и установленным или назначенным пользователем. Microsoft 365 Copilot использует только агенты, включенные пользователем.
Дополнительные сведения см. в следующих статьях:
- Управление агентами для Microsoft 365 Copilot в Центр администрирования Microsoft 365
- Общие сведения о расширяемости Microsoft 365 Copilot
- Как Microsoft 365 Copilot может работать с внешними данными
Как Microsoft 365 Copilot защищает данные организации?
Модель разрешений в вашем клиенте Microsoft 365 может помочь предотвратить непреднамеренную утечку данных между пользователями, группами и клиентами. Microsoft 365 Copilot представляет только те данные, к которым каждый пользователь может получить доступ, используя те же базовые элементы управления для доступа к данным, которые используются в других службах Microsoft 365. Семантический индекс учитывает границу доступа на основе удостоверения пользователя, поэтому процесс заземления получает доступ только к тому контенту, доступ к которому разрешен текущему пользователю. Дополнительные сведения см. в документации по политике конфиденциальности и службе Майкрософт.
Если у вас есть данные, зашифрованные с помощью Защиты информации Microsoft Purview, Microsoft 365 Copilot соблюдает предоставленные пользователю права использования. Это шифрование можно применять с помощью меток конфиденциальности или ограничения разрешений в приложениях в Microsoft 365 с помощью управления правами на доступ к данным (IRM). Дополнительные сведения об использовании Microsoft Purview с Microsoft 365 Copilot см. в статье Безопасность данных Microsoft Purview и защита соответствия требованиям для приложений генеративного ИИ.
Мы уже реализуем несколько форм защиты, чтобы помочь клиентам предотвратить компрометацию служб и приложений Microsoft 365 или получение несанкционированного доступа к другим клиентам или самой системе Microsoft 365. Вот несколько примеров таких форм защиты:
Логическая изоляция контента клиента внутри каждого клиента служб Microsoft 365 достигается за счет авторизации Microsoft Entra и управления доступом на основе ролей. Дополнительные сведения см. в разделе Элементы управления изоляцией Microsoft 365 .
Корпорация Майкрософт использует строгие меры физической безопасности, фоновую проверку и многоуровневую стратегию шифрования для защиты конфиденциальности и целостности пользовательского контента.
Microsoft 365 использует технологии на стороне службы, которые шифруют содержимое клиента при хранении и передаче, включая BitLocker, шифрование для каждого файла, безопасность транспортного уровня (TLS) и безопасность протокола Интернета (IPsec). Дополнительные сведения о шифровании в Microsoft 365 см. в статье Шифрование в Microsoft Cloud .
Ваш контроль над данными усиливается обязательством корпорации Майкрософт соблюдать широко применимые законы о конфиденциальности, такие как GDPR, и стандарты конфиденциальности, такие как ISO/IEC 27018, первый в мире международный кодекс практики в отношении конфиденциальности облака.
Для содержимого, доступ к чему осуществляется через агенты в Microsoft 365, шифрование может исключить программный доступ, тем самым ограничивая агенту доступ к содержимому. Дополнительные сведения см. в разделе Настройка прав использования для Azure Information Protection .
Соответствие нормативным требованиям
Корпорация Майкрософт продолжает адаптироваться и реагировать на выполнение нормативных требований ИИ по мере их развития, поэтому мы зарабатываем и сохраняем доверие клиентов, партнеров и регуляторов.
Microsoft 365 Copilot предоставляет широкие предложения и сертификаты соответствия требованиям, включая GDPR, ISO 27001, HIPAA и стандарт ISO 42001 для систем управления ИИ. Они помогают нашим клиентам обеспечить соответствие требованиям, дополненные такими функциями, как готовность к контрактам, встроенное управление рисками в области информационно-коммуникационных технологий и средства обеспечения операционной устойчивости.
Корпорация Майкрософт обязуется соблюдать все законы и нормативные акты, применимые к корпорации Майкрософт, включая Закон ОБ ИИ ЕС, чтобы наши решения на основе ИИ соответствовали развивающимся стандартам надежного и ответственного использования ИИ. Microsoft 365 Copilot основана на существующих обязательствах Корпорации Майкрософт в отношении безопасности и конфиденциальности данных. В этих обязательствах нет никаких изменений. Компания Copilot интегрирована в Microsoft 365 и соблюдает существующие обязательства по конфиденциальности, безопасности и соответствию требованиям для клиентов Microsoft 365.
Кроме того, мы уделяем приоритетное внимание открытому диалогу с нашими партнерами и нормативными органами. Мы предоставляем клиентам прямой доступ к специалистам по соответствию требованиям Майкрософт, упреждающее руководство и курируемые решения для обеспечения соответствия нормативным требованиям, например краткое руководство по оценке рисков Microsoft 365 Copilot & Copilot Chat. Наш подход в ландшафте на основе ИИ направлен на то, чтобы дать организациям возможность уверенно внедрять инновации с помощью решений, созданных с учетом прозрачности, конфиденциальности и безопасности.
Дополнительные сведения
Microsoft 365 Copilot и средства управления конфиденциальностью для подключенных приложений
Некоторые элементы управления конфиденциальностью для сетевых возможностей в приложениях Microsoft 365 могут влиять на доступность функций Microsoft 365 Copilot. Сюда входят элементы управления конфиденциальностью для подключенных взаимодействий, которые анализируют контент, а также элементы управления конфиденциальностью для дополнительных подключенных взаимодействий. Дополнительные сведения об этих элементах управления конфиденциальностью см. в статье Обзор элементов управления конфиденциальностью для приложений Microsoft 365 профессиональный плюс.
Управление конфиденциальностью для подключенных взаимодействий, анализирующих контент
Если отключить подключенные функции, которые анализируют содержимое на устройствах в организации, Microsoft 365 Copilot функции будут недоступны пользователям в следующих приложениях:
- Excel
- OneNote
- Outlook
- PowerPoint
- Word
Это относится к, если вы используете самую последнюю версию этих приложений на устройствах Windows, Mac, iOS или Android.
Кроме того, есть элемент управления конфиденциальностью, который отключает все подключенные взаимодействия, включая анализирующие контент. Если вы используете этот контроль конфиденциальности, Microsoft 365 Copilot функции будут недоступны в приложениях и на описанных выше устройствах.
Управление конфиденциальностью для необязательных подключенных функций
Если вы отключите дополнительные возможности подключения в организации, Microsoft 365 Copilot функции, которые являются необязательными подключенными функциями, будут недоступны для пользователей. Например, отключение дополнительных подключенных интерфейсов может повлиять на доступность поиска в Интернете.
Также есть элемент управления конфиденциальностью, который отключает все подключенные функции, включая необязательные. Если вы используете этот контроль конфиденциальности, Microsoft 365 Copilot функции, которые являются необязательными подключенными интерфейсами, будут недоступны.
О содержимом, создаваемом Microsoft 365 Copilot
Ответы, которые дает генеративный ИИ, не обязательно на 100% соответствуют действительности. Хотя мы продолжаем улучшать ответы, пользователям по-прежнему следует опираться на свое мнение при просмотре результатов, прежде чем отправлять их другим. Наши функции Microsoft 365 Copilot предоставляют полезные черновики и сводки, которые помогут вам сделать больше, давая вам возможность просматривать содержимое созданное ИИ, а не полностью автоматизировать эти задачи.
Мы продолжаем совершенствовать алгоритмы для заблаговременного решения таких проблем, как недостоверная и дезинформация, блокировка контента, безопасность данных и предотвращение продвижения вредоносного или дискриминационного контента в соответствии с нашими ответственными принципами искусственного интеллекта .
Корпорация Майкрософт не является владельцем выходных данных службы. При этом мы не определяем, защищены ли выходные данные клиента авторскими правами или могут ли они применяться в отношении других пользователей. Это связано с тем, что генеративные системы искусственного интеллекта могут выдавать одинаковые ответы на аналогичные запросы или запросы от нескольких клиентов. Следовательно, у нескольких клиентов могут быть претензии или права на одинаковое или схожее по существу содержимое.
Если третья сторона подала в суд на коммерческого клиента за нарушение авторских прав за использование copilots корпорации Майкрософт или создаваемые ими выходные данные, мы защитим клиента и выплатим сумму любых неблагоприятных решений или расчетов, полученных в результате судебного иска, при условии, что клиент использовал защитные часы и фильтры содержимого, которые мы встроили в наши продукты. Дополнительные сведения см. в статье Microsoft объявляет о новом обязательстве по защите авторских прав Copilot для клиентов.
Как Copilot блокирует вредоносное содержимое?
Чтобы помочь блокировать вредоносное содержимое, Microsoft 365 Copilot использует меры безопасности, которые работают вместе с моделями ИИ, используемыми для создания ответов. В зависимости от сценария эти меры безопасности могут включать в себя средства защиты от сторонних разработчиков майкрософт или, в некоторых случаях, меры по устранению рисков, встроенные в базовую модель. Эти меры безопасности используют углубленный подход и могут включать в себя сочетание средств защиты от сторонних разработчиков Майкрософт, которые помогают обнаруживать и уменьшать количество попыток взлома и шаблонов внедрения запросов (включая атаки с внедрением с помощью перекрестных запросов), фильтры вреда содержимого для выявления вредоносного содержимого в запросах или созданных ответах (таких как ненависть & справедливость, сексуальное насилие и самоповреждение), а также, в некоторых случаях, меры по устранению рисков безопасности, встроенные в базовую модель.
В категории "Ненависть и справедливость" вред может наносить любое содержимое, в котором используются уничижительные или дискриминационные выражения на основании расы, этнической принадлежности, национальности, половой идентичности и самовыражения, сексуальной ориентации, религии, иммиграционного статуса, физического состояния, внешности и размера тела. Справедливость побуждает обеспечить одинаковое отношение систем ИИ ко всем группам людей, чтобы не усугублять существующее социальное неравенство. Содержимое сексуального характера включает обсуждение репродуктивных органов человека, романтических отношений, действий, изображаемых в эротических или страстных выражениях, беременности, физических половых актов, в том числе представленных как нападение или насильственный половой акт, проституции, порнографии и жестокого обращения. В категории "Насилие" используются выражения, связанные с физическими действиями, направленными на причинение вреда или убийство, включая действия, оружие и связанные структуры. Выражения, описывающие самоповреждение, относятся к преднамеренным действиям, направленным на причинение себе вреда или самоубийство.
Помимо фильтрации содержимого, предоставляемой службой OpenAI Azure, некоторые сценарии Microsoft 365 Copilot предоставляют другие способы устранения рисков, например фильтры, помогающие предотвратить причинение вреда на рабочем месте. Вред на рабочем месте относится к категории вреда, который может возникнуть в результате создания искусственного интеллекта или моделей, которые делают выводы, суждения или оценки о работнике на основе его общения на рабочем месте. В настоящее время это означает выводы, суждения или оценки производительности, отношения, внутреннего или эмоционального состояния или личных характеристик сотрудника. Мы ограничим использование генеративного искусственного интеллекта или моделей для этих целей.
Обеспечивает ли Copilot обнаружение защищенных материалов?
Да, Microsoft 365 Copilot обеспечивает обнаружение защищенных материалов, включая текст, защищенный авторским правом, и код, подпадающий под лицензионные ограничения. Это обнаружение может быть доступно не во всех сценариях Microsoft 365 Copilot, и не все эти способы устранения рисков относятся ко всем сценариям Microsoft 365 Copilot.
Блокирует ли Copilot внедрение запросов (атаки для взлома)?
Атаки на джейлбрейк — это запросы, предназначенные для обхода гарантий Copilot или стимулирования несоответствующего поведения. Microsoft 365 Copilot помогает предотвратить эти атаки с помощью собственных методов, таких как классификаторы атаки с применением джейлбрейка и атаки с применением межшагового запроса (XPIA). Эти классификаторы анализируют входные данные для службы Copilot и помогают блокировать запросы с высоким риском перед выполнением модели. Эти классификаторы могут быть недоступны во всех сценариях Microsoft 365 Copilot.
Что происходит при изменении базовой модели?
Модели ИИ, которые используют Microsoft 365 Copilot, регулярно обновляются и совершенствуются. Обновления модели приводят к повышению производительности, более сложным рассуждениям и расширенным возможностям, но они не изменяют параметры безопасности, конфиденциальности или соответствия требованиям. Дополнительные сведения см. в блоге Microsoft 365: Основные сведения об изменениях базовой модели в Microsoft 365 Copilot.
Приверженность ответственному ИИ
Поскольку ИИ готов изменить нашу жизнь, мы должны коллективно определить новые правила, нормы и методы использования и воздействия этой технологии. Microsoft находится на пути ответственного ИИ с 2017 года, когда мы определили наши принципы и подход к обеспечению использования этой технологии таким образом, чтобы руководствоваться этическими принципами, ставящими людей на первое место.
Мы в Microsoft руководствуемся принципами искусственного интеллекта , нашим Стандартом ответственного искусственного интеллекта и десятилетиями исследований в области искусственного интеллекта, заземления и машинного обучения с сохранением конфиденциальности. Мультидисциплинарная команда исследователей, инженеров и экспертов по вопросам политики проводит обзор наших систем ИИ на наличие потенциального вреда и устранения рисков, таких как уточнение обучающих данных, фильтрация для ограничения вредоносного содержимого, конфиденциальные темы, блокирующие запросы и результаты, а также применение технологий Майкрософт, таких как InterpretML и Fairlearn , для выявления и исправления предвзятости данных. Мы разъясняем, как система принимает решения, отмечая ограничения, ссылаясь на источники и предлагая пользователям просматривать, проверять факты и корректировать контент на основе предметной экспертизы. Дополнительную информацию см. в разделе Управление ИИ: план будущего .
Мы стремимся помочь нашим клиентам ответственно использовать наши продукты искусственного интеллекта, делиться своими знаниями и строить доверительные партнерские отношения. Что касается этих новых услуг, мы хотим предоставить нашим клиентам информацию о предполагаемом использовании, возможностях и ограничениях нашей платформы ИИ, чтобы у них были знания, необходимые для ответственного выбора развертывания. Мы также делимся ресурсами и шаблонами с разработчиками внутри организаций и с независимыми поставщиками программного обеспечения (ISV), чтобы помочь им создавать эффективные, безопасные и прозрачные решения ИИ.