Condividi tramite


Proteggere l'uso di app e dati di intelligenza artificiale dell'organizzazione

Questo articolo descrive come usare funzionalità specifiche per proteggere le app di intelligenza artificiale e i dati con cui interagiscono.

  • Proteggere i dati sensibili nelle richieste degli utenti e nei dati generati dall'intelligenza artificiale
  • Difendersi dalle minacce emergenti, come le iniezioni di prompt

Questo è il terzo articolo di una serie. Se non sono ancora state eseguite le attività in Preparare la sicurezza dell'intelligenza artificiale e individuare app e dati di intelligenza artificiale, iniziare con questi articoli per preparare l'ambiente con le funzionalità previste in questo articolo.

Diagramma che mostra l'aspetto Proteggi della sicurezza per la serie di intelligenza artificiale.

Usare questo articolo insieme a questa risorsa:

Microsoft offre un ampio set di funzionalità per la protezione di app e dati di intelligenza artificiale. Questo articolo illustra questi aspetti in due categorie: protezione dei dati e protezione dalle minacce.

Diagramma che mostra le funzionalità per la protezione di app e dati di intelligenza artificiale.

Le due tabelle seguenti descrivono l'illustrazione e illustrano anche i passaggi dell'implementazione di queste funzionalità.

Tabella 1 - Funzionalità di protezione dei dati

Passo Attività Ambito
1 Applicare i controlli di condivisione eccessiva di SharePoint per esentare rapidamente i siti e i dati sensibili dalla portata delle applicazioni di intelligenza artificiale. Siti e file nell'ambiente Microsoft 365.
2 Usare Data Security Posture Management (DSPM) per l'intelligenza artificiale per scoprire dove si sta verificando l'oversharing e individuare lacune nella copertura dei criteri per le etichette di riservatezza e i criteri di prevenzione della perdita dei dati. Microsoft Copilots
Siti di intelligenza artificiale supportati
3 Continuare a fare progressi sulle etichette di riservatezza e sui criteri di prevenzione della perdita dei dati (DLP). Siti, file e dispositivi nell'ambiente Microsoft 365. Le app SaaS quando sono integrate con Defender for Cloud Apps
4 All'interno di Insider Risk Management (IRM), applicare il modello di intelligenza artificiale rischiosa per identificare il comportamento rischioso nelle app di intelligenza artificiale. Siti Web generativi di intelligenza artificiale
Microsoft 365 Copilot, Microsoft Copilot, Copilot Studio
5 Configurare la protezione adattiva per la gestione dei rischi Insider per aumentare la protezione dei dati in base al rischio degli utenti Siti, file e dispositivi nell'ambiente Microsoft 365.

Tabella 2 - Funzionalità di protezione dalle minacce

Passo Attività Ambito
1 Usare Defender for Cloud Apps per avvisare quando vengono usate nuove app di intelligenza artificiale, per calcolare i punteggi di rischio per le app di intelligenza artificiale e per consentire o bloccare queste app nell'ambiente. Defender for Cloud Apps offre protezioni aggiuntive per Microsoft 365 Copilot. Applicazioni SaaS di intelligenza artificiale
2 Defender per Cloud di Microsoft

Individuare i carichi di lavoro di intelligenza artificiale distribuiti nell'ambiente e ottenere informazioni dettagliate sulla sicurezza con Microsoft Defender for Cloud
Applicazioni di intelligenza artificiale basate su intelligenza artificiale di Azure personalizzate

Proteggere i dati di intelligenza artificiale

Queste funzionalità consentono di apprendere e ridurre in modo efficiente i principali rischi associati all'oversharing dei dati, all'uso dei dati sensibili e ai comportamenti rischiosi degli utenti. Queste funzionalità hanno come ambito le protezioni per le app e i dati di intelligenza artificiale nell'ambiente in uso.

Passaggio 1: Applicare i controlli di condivisione eccessiva di SharePoint

I controlli di condivisione eccessiva di SharePoint includono controlli integrati in SharePoint, come autorizzazioni con ambito definito, e funzionalità aggiuntive in Gestione avanzata SharePoint per rafforzare la gestione del contenuto nel percorso di distribuzione di Microsoft Copilot. I controlli per evitare la condivisione eccessiva di SharePoint ti aiutano a:

  • Limitare temporaneamente la ricerca copilot a un elenco di siti specificati (Ricerca di SharePoint con restrizioni).
  • Identificare rapidamente i siti che potenzialmente contengono dati sovracondivisi o contenuti sensibili (report di governance dell'accesso ai dati).
  • Contrassegna i siti in modo che gli utenti non possano trovarli tramite Copilot o la ricerca a livello di organizzazione (individuazione contenuto con restrizioni in Gestione avanzata SharePoint).
  • creare criteri del sito inattivi per gestire e ridurre automaticamente i siti inattivi (Gestione avanzata SharePoint).
  • Limitare l'accesso ai siti di SharePoint e OneDrive agli utenti di un gruppo specifico (criteri di controllo di accesso limitato in Gestione avanzata SharePoint).

Per iniziare a usare i controlli oversharing, usare le risorse seguenti.

Attività Risorse consigliate
Esaminare l'illustrazione e la descrizione dei controlli per la condivisione eccessiva che è possibile usare con Microsoft 365 Copilot. L'architettura di protezione e controllo dei dati di Microsoft 365 Copilot
Progetto scaricabile per impedire l'oversharing Progetto Copilot di Microsoft 365 per la condivisione eccessiva
Informazioni sulla gestione avanzata di SharePoint Microsoft SharePoint Premium - Panoramica Gestione avanzata di SharePoint

Passaggio 2: Proteggere i dati tramite DSPM per l'intelligenza artificiale

Utilizzare DSPM nell'intelligenza artificiale per scoprire dove si sta verificando l'oversharing e individuare le lacune nella copertura delle etichette di riservatezza e delle politiche di prevenzione della perdita dei dati.

Un ottimo punto di partenza è il rapporto di valutazione settimanale.

Screenshot delle valutazioni dei dati di una settimana di novembre.

È possibile esaminare i singoli report per saperne di più su dove sono presenti lacune nei controlli, nelle etichette e nei criteri di prevenzione della perdita dei dati, in modo da poter risolvere rapidamente questi problemi.

Screenshot che mostra i primi 5 siti di SharePoint con file senza etichetta nei prompt di Copilot.

Per ogni report, DSPM per intelligenza artificiale fornisce raccomandazioni per migliorare la sicurezza dei dati. Usare il collegamento Visualizza tutte le raccomandazioni o Raccomandazioni nel riquadro di spostamento per visualizzare tutte le raccomandazioni disponibili per il tenant e il relativo stato.

Screenshot che mostra le raccomandazioni per l'inquilino e il relativo stato.

Usare le risorse seguenti per proteggere le app e i dati di intelligenza artificiale con DSPM per intelligenza artificiale.

Attività Risorse consigliate
Accedere a DSPM per intelligenza artificiale ed esaminare i report e le raccomandazioni Come usare DSPM per l'intelligenza artificiale

Passaggio 3: Continuare a identificare le lacune nelle etichette di riservatezza e nei criteri di prevenzione della perdita dei dati

In Preparare la sicurezza dell'intelligenza artificiale sono stati usati gli strumenti di gestione del comportamento di sicurezza dei dati di Microsoft Purview, DSPM e DSPM per l'intelligenza artificiale, per classificare in ordine di priorità la protezione per i dati sensibili. Continuare a rivedere questi strumenti per identificare le lacune nella copertura dei criteri e scoprire dove è necessario continuare a investire nell'applicazione di etichette di riservatezza e criteri di prevenzione della perdita dei dati. Estendere anche le etichette di riservatezza e i criteri di prevenzione della perdita dei dati alle app SaaS usando Defender per le app cloud.

Usare le risorse seguenti per procedere con Microsoft Purview.

Attività Risorse consigliate
Informazioni sulle strategie di distribuzione consigliate per la protezione delle informazioni Distribuire una soluzione di protezione delle informazioni con Microsoft Purview
Estendere le etichette di riservatezza e i criteri di prevenzione della perdita dei dati alle app SaaS usando Defender per app cloud Distribuire la protezione delle informazioni per le app SaaS
Definire le etichette di riservatezza e i criteri che proteggeranno i dati dell'organizzazione Inizia con le etichette di riservatezza
Creare e configurare le etichette di riservatezza e i relativi criteri
Limitare l'accesso al contenuto utilizzando le etichette di riservatezza per applicare la crittografia
Etichettare e proteggere i dati per app e servizi di Microsoft 365 Gestire le etichette di riservatezza nelle app di Office
Abilitare le etichette di riservatezza per i file in SharePoint e OneDrive
Regola le politiche di prevenzione della perdita dei dati Creare e distribuire criteri di prevenzione della perdita dei dati

Passaggio 4: applicare il modello di intelligenza artificiale rischiosa in IRM (Insider Risk Management)

Microsoft Purview Insider Risk Management (IRM) include modelli di criteri predefiniti che è possibile applicare all'ambiente, incluso l'utilizzo dell'intelligenza artificiale rischiosa. I modelli IRM sono condizioni di criteri predefinite che definiscono i tipi di indicatori di rischio e il modello di punteggio dei rischi usato dai criteri.

La politica di utilizzo dell'IA rischiosa può aiutare a rilevare e abilitare la valutazione del rischio per richieste e risposte tra gli strumenti di intelligenza artificiale nella tua organizzazione. IRM consente di analizzare e intervenire sulle attività di rischio correlate all'IA.

Usare le risorse seguenti per iniziare a usare La gestione dei rischi Insider e per applicare il modello di criteri di utilizzo dell'intelligenza artificiale rischiosa.

Attività Risorse consigliate
Introduzione alla gestione dei rischi Insider e informazioni sui principali scenari che traggono vantaggio dall'organizzazione Informazioni sulla gestione dei rischi interni
Applicare il modello di intelligenza artificiale rischiosa Informazioni sui modelli di criteri di gestione dei rischi Insider | Microsoft Learn
Informazioni sugli scenari principali per l'intelligenza artificiale e visualizzare i report di esempio La gestione dei rischi Insider potenzia la visibilità sull'uso rischioso dell'IA e le indagini sulla sicurezza

Passaggio 5: Configurare la protezione adattiva per la gestione dei rischi Insider

La protezione adattiva in Microsoft Purview Insider Risk Management assegna dinamicamente un livello di rischio agli utenti e quindi applica i criteri creati agli utenti con rischi moderati o elevati. I criteri possono implementare un aumento delle azioni di prevenzione della perdita dei dati, mantenere il contenuto eliminato o applicare requisiti di accesso condizionale più elevati.

Usare le risorse seguenti per iniziare a usare la protezione adattiva.

Attività Risorse consigliate
Introduzione alla gestione dei rischi Insider e informazioni sui principali scenari che traggono vantaggio dall'organizzazione Informazioni sulla gestione dei rischi interni
Informazioni sugli scenari principali per l'intelligenza artificiale e visualizzare i report di esempio La gestione dei rischi Insider potenzia la visibilità sull'uso rischioso dell'IA e le indagini sulla sicurezza
Applicare il modello di intelligenza artificiale rischiosa Informazioni sui modelli di criteri di gestione dei rischi interni
Indagare e intervenire sulle attività di rischio interno Indagare sulle attività di gestione dei rischi interni
Intervenire sui casi di gestione dei rischi interni

Sfruttare al meglio la protezione dalle minacce per l'IA

Defender for Cloud Apps e Defender for Cloud includono funzionalità che consentono di mantenere informati l'uso delle nuove app di intelligenza artificiale e di applicare i controlli appropriati.

Passaggio 1: usare Defender per le app cloud per valutare e proteggere l'uso delle app di intelligenza artificiale

L'articolo precedente di questa serie, Discover AI Apps e Data, è incentrato sull'uso di Defender for Cloud Apps per individuare le app di intelligenza artificiale nell'ambiente in uso. Questo articolo incoraggia le organizzazioni a usare Defender for Cloud Apps per rimanere aggiornati sull'uso delle nuove app di intelligenza artificiale, valutando il rischio che queste rappresentano per l'ambiente, sanzionando o bloccando queste app e applicando i controlli delle sessioni alle app.

Creare prima di tutto un criterio per attivare automaticamente un avviso quando viene usata una nuova app generativa per intelligenza artificiale nell'organizzazione.

Screenshot che mostra la pagina di creazione dei criteri per l'individuazione delle app in Microsoft Defender.

Valutare quindi il punteggio di rischio per le app appena individuate. È anche possibile personalizzare il punteggio di rischio. Ad esempio, le organizzazioni altamente regolamentate potrebbero voler modificare il peso di attributi specifici del punteggio di rischio. È anche possibile eseguire l'override di un punteggio di rischio.

Screenshot che mostra il catalogo di app cloud.

Decidere se approvare o bloccare ogni app. Le organizzazioni possono scegliere di bloccare l'utilizzo delle app per vari motivi. Alcuni sono preoccupati che i dati sensibili saranno inconsapevolmente condivisi con le applicazioni e esposti in un secondo momento a un pubblico esterno all'organizzazione. In questo modo l'organizzazione potrebbe bloccare l'utilizzo di tutte le app di intelligenza artificiale non gestite. Anche se altre organizzazioni devono garantire che tutte le app in uso siano conformi a standard diversi, ad esempio SOC2 o HIPAA.

Infine, per le app approvate, decidere se applicare criteri di sessione per un maggiore controllo e visibilità. I criteri di sessione consentono di applicare parametri al modo in cui le app cloud vengono usate dall'organizzazione. Ad esempio, è possibile configurare criteri di sessione che consentono solo ai dispositivi gestiti di accedere a un'app di intelligenza artificiale. Un esempio più semplice potrebbe essere la configurazione di un criterio per monitorare il traffico dai dispositivi non gestiti in modo da poter analizzare il rischio di questo traffico prima di applicare criteri più severi.

Diagramma che mostra come si accede alle app cloud tramite i criteri di controllo della sessione con Defender for Cloud Apps.

In questa illustrazione:

  • L'accesso alle app cloud approvate da utenti e dispositivi dell'organizzazione viene instradato tramite Defender for Cloud Apps in cui i criteri di sessione possono essere applicati a app specifiche.
  • Le app cloud che non hai approvato né disapprovato esplicitamente non sono interessate.

Defender for Cloud Apps offre inoltre rilevamenti dedicati per Microsoft 365 Copilot. I team di sicurezza possono rilevare le interazioni sospette di un utente con Copilot e rispondere e attenuare la minaccia. Ad esempio, quando un utente accede ai dati sensibili tramite Copilot da un indirizzo IP rischioso, Defender for Cloud Apps attiva un avviso per contrassegnare questa attività sospetta con dettagli importanti, tra cui la tecnica di attacco MITRE, l'indirizzo IP e altri campi che i team di sicurezza possono usare per analizzare ulteriormente questo avviso.

Usare le risorse seguenti come passaggi successivi.

Attività Risorse consigliate
Esaminare i passaggi da 5 a 8 in questo flusso di distribuzione di Defender for Cloud Apps Individuare e gestire le app cloud
Vedere questa esercitazione video sulla gestione delle app Scoprire quali app di intelligenza artificiale generative vengono usate nell'ambiente usando Defender per le app cloud - YouTube
Creare un criterio di individuazione delle app Creare criteri di individuazione cloud
Valutare il punteggio di rischio per le app appena individuate Catalogo di app cloud e punteggi di rischio
Sanzionare o bloccare nuove app Governare le app scoperte
Applicare i criteri di sessione alle app di intelligenza artificiale per un maggiore controllo e visibilità Creare criteri di sessione
Informazioni su come usare la protezione dalle minacce per Microsoft 365 Copilot Nuovi rilevamenti delle minacce per Microsoft Copilot per Microsoft 365

Passaggio 2: Applicare le protezioni di intelligenza artificiale in Defender for Cloud

L'articolo precedente di questa serie, Discover AI Apps and data, si è concentrato sulla scoperta di carichi di lavoro e modelli di intelligenza artificiale generativa che operano nel tuo ambiente. Questo articolo è incentrato sulla protezione delle applicazioni GenAI durante tutto il ciclo di vita dell'applicazione, durante la compilazione e l'uso delle app di intelligenza artificiale personalizzate.

Le organizzazioni scelgono di sviluppare nuove applicazioni GenAI e incorporare l'intelligenza artificiale in applicazioni esistenti per aumentare l'efficienza aziendale e la produttività. Gli utenti malintenzionati cercano sempre più di sfruttare le applicazioni per modificare lo scopo progettato del modello di intelligenza artificiale con nuovi attacchi come attacchi di prompt, attacchi al portafoglio, furti di modelli e avvelenamento dei dati, aumentando al tempo stesso la suscettività ai rischi noti, ad esempio violazioni dei dati e denial of service. I team di sicurezza devono essere preparati e assicurarsi di avere i controlli di sicurezza appropriati per le applicazioni di intelligenza artificiale e i rilevamenti che risodono il nuovo panorama delle minacce.

Microsoft Defender for Cloud consente alle organizzazioni di proteggere gli ambienti ibridi e multicloud da codice a cloud. Defender per il cloud include funzionalità di sicurezza e protezione dalle minacce per consentire alle organizzazioni di proteggere le applicazioni GenAI create dall'azienda durante l'intero ciclo di vita dell'applicazione:

  • Individuare continuamente i componenti dell'applicazione GenAI e gli artefatti di intelligenza artificiale dal codice al cloud.
  • Esplorare e correggere i rischi per le applicazioni GenAI con raccomandazioni predefinite per rafforzare il comportamento di sicurezza.
  • Identificare e correggere le combinazioni tossiche nelle applicazioni GenAI usando l'analisi del percorso di attacco.
  • Individuare le applicazioni GenAI alimentate da scudi per i prompt di Sicurezza dei contenuti di Azure AI, segnali di intelligence sulle minacce di Microsoft e monitoraggio delle attività contestuali.
  • Cercare e analizzare gli attacchi nelle app GenAI con l'integrazione predefinita con Microsoft Defender.

Iniziare con le funzionalità di gestione del comportamento di sicurezza dell'intelligenza artificiale in Defender Cloud Security Posture Management (CSPM). Defender CSPM individua automaticamente e continuamente i carichi di lavoro di intelligenza artificiale distribuiti con visibilità senza necessità di agenti e dettagliata nelle configurazioni e nella presenza dei modelli di intelligenza artificiale, SDK e tecnologie usati nei servizi di intelligenza artificiale, ad esempio il servizio Azure OpenAI, Azure Machine Learning e Amazon Bedrock.

CSPM presenta continuamente problemi di sicurezza contestualizzati e suggerisce raccomandazioni sulla sicurezza basate sui rischi personalizzate per classificare in ordine di priorità i gap critici nei carichi di lavoro di intelligenza artificiale. Le raccomandazioni di sicurezza pertinenti vengono visualizzate anche all'interno della risorsa OpenAI di Azure stessa nel portale di Azure, fornendo agli sviluppatori o ai proprietari dei carichi di lavoro l'accesso diretto alle raccomandazioni e contribuendo a correggere più rapidamente.

La funzionalità di analisi del percorso di attacco può identificare rischi sofisticati per i carichi di lavoro di intelligenza artificiale, inclusi gli scenari di sicurezza dei dati in cui i dati di base o di ottimizzazione vengono esposti a Internet tramite lo spostamento laterale ed è soggetto all'avvelenamento dei dati.

Mantenere quindi la sicurezza in fase di esecuzione con la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale. Defender for Cloud include la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale. La protezione dalle minacce per l'intelligenza artificiale usa l'integrazione nativa del servizio Azure OpenAI, gli schermati di richiesta di sicurezza dei contenuti per intelligenza artificiale di Azure e l'intelligence sulle minacce Microsoft per fornire avvisi di sicurezza contestuali e interattivi. La protezione dalle minacce per i carichi di lavoro di intelligenza artificiale consente ai team di sicurezza di monitorare le applicazioni basate su Azure OpenAI durante l'esecuzione per attività dannose associate ad attacchi di inserimento diretto e indiretto tramite prompt, fughe di dati sensibili e avvelenamento dei dati, nonché abuso del portafoglio o attacchi denial of service.

Usare le risorse seguenti per i passaggi successivi.

Attività Risorse consigliate
Esaminare gli scenari principali descritti in questo blog Proteggere le applicazioni di intelligenza artificiale generative con Microsoft Defender for Cloud
Usare CSPM per ottenere visibilità dei rischi di intelligenza artificiale nell'ambiente Proteggere le risorse con Defender CSPM
Esaminare il dashboard di sicurezza dei dati e dell'intelligenza artificiale (anteprima)
Abilitare la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale (anteprima) Abilitare la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale (anteprima)
Avvisi per i carichi di lavoro di intelligenza artificiale (anteprima)

Passaggio successivo per la protezione dell'IA

Dopo aver protetto le app e i dati di intelligenza artificiale nell'organizzazione, il passaggio successivo consiste nel gestire le app di intelligenza artificiale per soddisfare i requisiti di conformità alle normative:

  • Valutare e rafforzare il comportamento di conformità rispetto alle normative.
  • Implementare controlli per gestire l'utilizzo di app e dati di intelligenza artificiale.

Vedere l'articolo successivo di questa serie: Come si regola l'intelligenza artificiale per la conformità?