Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo descrive come usare funzionalità specifiche per proteggere le app di intelligenza artificiale e i dati con cui interagiscono.
- Proteggere i dati sensibili nelle richieste degli utenti e nei dati generati dall'intelligenza artificiale
- Difendersi dalle minacce emergenti, come le iniezioni di prompt
Questo è il terzo articolo di una serie. Se non sono ancora state eseguite le attività in Preparare la sicurezza dell'intelligenza artificiale e individuare app e dati di intelligenza artificiale, iniziare con questi articoli per preparare l'ambiente con le funzionalità previste in questo articolo.
Usare questo articolo insieme a questa risorsa:
- Cloud Adoption Framework (CAF) per l'intelligenza artificiale - Processo per proteggere l'intelligenza artificiale
Microsoft offre un ampio set di funzionalità per la protezione di app e dati di intelligenza artificiale. Questo articolo illustra questi aspetti in due categorie: protezione dei dati e protezione dalle minacce.
Le due tabelle seguenti descrivono l'illustrazione e illustrano anche i passaggi dell'implementazione di queste funzionalità.
Tabella 1 - Funzionalità di protezione dei dati
Passo | Attività | Ambito |
---|---|---|
1 | Applicare i controlli di condivisione eccessiva di SharePoint per esentare rapidamente i siti e i dati sensibili dalla portata delle applicazioni di intelligenza artificiale. | Siti e file nell'ambiente Microsoft 365. |
2 | Usare Data Security Posture Management (DSPM) per l'intelligenza artificiale per scoprire dove si sta verificando l'oversharing e individuare lacune nella copertura dei criteri per le etichette di riservatezza e i criteri di prevenzione della perdita dei dati. | Microsoft Copilots Siti di intelligenza artificiale supportati |
3 | Continuare a fare progressi sulle etichette di riservatezza e sui criteri di prevenzione della perdita dei dati (DLP). | Siti, file e dispositivi nell'ambiente Microsoft 365. Le app SaaS quando sono integrate con Defender for Cloud Apps |
4 | All'interno di Insider Risk Management (IRM), applicare il modello di intelligenza artificiale rischiosa per identificare il comportamento rischioso nelle app di intelligenza artificiale. | Siti Web generativi di intelligenza artificiale Microsoft 365 Copilot, Microsoft Copilot, Copilot Studio |
5 | Configurare la protezione adattiva per la gestione dei rischi Insider per aumentare la protezione dei dati in base al rischio degli utenti | Siti, file e dispositivi nell'ambiente Microsoft 365. |
Tabella 2 - Funzionalità di protezione dalle minacce
Passo | Attività | Ambito |
---|---|---|
1 | Usare Defender for Cloud Apps per avvisare quando vengono usate nuove app di intelligenza artificiale, per calcolare i punteggi di rischio per le app di intelligenza artificiale e per consentire o bloccare queste app nell'ambiente. Defender for Cloud Apps offre protezioni aggiuntive per Microsoft 365 Copilot. | Applicazioni SaaS di intelligenza artificiale |
2 | Defender per Cloud di Microsoft Individuare i carichi di lavoro di intelligenza artificiale distribuiti nell'ambiente e ottenere informazioni dettagliate sulla sicurezza con Microsoft Defender for Cloud |
Applicazioni di intelligenza artificiale basate su intelligenza artificiale di Azure personalizzate |
Proteggere i dati di intelligenza artificiale
Queste funzionalità consentono di apprendere e ridurre in modo efficiente i principali rischi associati all'oversharing dei dati, all'uso dei dati sensibili e ai comportamenti rischiosi degli utenti. Queste funzionalità hanno come ambito le protezioni per le app e i dati di intelligenza artificiale nell'ambiente in uso.
Passaggio 1: Applicare i controlli di condivisione eccessiva di SharePoint
I controlli di condivisione eccessiva di SharePoint includono controlli integrati in SharePoint, come autorizzazioni con ambito definito, e funzionalità aggiuntive in Gestione avanzata SharePoint per rafforzare la gestione del contenuto nel percorso di distribuzione di Microsoft Copilot. I controlli per evitare la condivisione eccessiva di SharePoint ti aiutano a:
- Limitare temporaneamente la ricerca copilot a un elenco di siti specificati (Ricerca di SharePoint con restrizioni).
- Identificare rapidamente i siti che potenzialmente contengono dati sovracondivisi o contenuti sensibili (report di governance dell'accesso ai dati).
- Contrassegna i siti in modo che gli utenti non possano trovarli tramite Copilot o la ricerca a livello di organizzazione (individuazione contenuto con restrizioni in Gestione avanzata SharePoint).
- creare criteri del sito inattivi per gestire e ridurre automaticamente i siti inattivi (Gestione avanzata SharePoint).
- Limitare l'accesso ai siti di SharePoint e OneDrive agli utenti di un gruppo specifico (criteri di controllo di accesso limitato in Gestione avanzata SharePoint).
Per iniziare a usare i controlli oversharing, usare le risorse seguenti.
Attività | Risorse consigliate |
---|---|
Esaminare l'illustrazione e la descrizione dei controlli per la condivisione eccessiva che è possibile usare con Microsoft 365 Copilot. | L'architettura di protezione e controllo dei dati di Microsoft 365 Copilot |
Progetto scaricabile per impedire l'oversharing | Progetto Copilot di Microsoft 365 per la condivisione eccessiva |
Informazioni sulla gestione avanzata di SharePoint | Microsoft SharePoint Premium - Panoramica Gestione avanzata di SharePoint |
Passaggio 2: Proteggere i dati tramite DSPM per l'intelligenza artificiale
Utilizzare DSPM nell'intelligenza artificiale per scoprire dove si sta verificando l'oversharing e individuare le lacune nella copertura delle etichette di riservatezza e delle politiche di prevenzione della perdita dei dati.
Un ottimo punto di partenza è il rapporto di valutazione settimanale.
È possibile esaminare i singoli report per saperne di più su dove sono presenti lacune nei controlli, nelle etichette e nei criteri di prevenzione della perdita dei dati, in modo da poter risolvere rapidamente questi problemi.
Per ogni report, DSPM per intelligenza artificiale fornisce raccomandazioni per migliorare la sicurezza dei dati. Usare il collegamento Visualizza tutte le raccomandazioni o Raccomandazioni nel riquadro di spostamento per visualizzare tutte le raccomandazioni disponibili per il tenant e il relativo stato.
Usare le risorse seguenti per proteggere le app e i dati di intelligenza artificiale con DSPM per intelligenza artificiale.
Attività | Risorse consigliate |
---|---|
Accedere a DSPM per intelligenza artificiale ed esaminare i report e le raccomandazioni | Come usare DSPM per l'intelligenza artificiale |
Passaggio 3: Continuare a identificare le lacune nelle etichette di riservatezza e nei criteri di prevenzione della perdita dei dati
In Preparare la sicurezza dell'intelligenza artificiale sono stati usati gli strumenti di gestione del comportamento di sicurezza dei dati di Microsoft Purview, DSPM e DSPM per l'intelligenza artificiale, per classificare in ordine di priorità la protezione per i dati sensibili. Continuare a rivedere questi strumenti per identificare le lacune nella copertura dei criteri e scoprire dove è necessario continuare a investire nell'applicazione di etichette di riservatezza e criteri di prevenzione della perdita dei dati. Estendere anche le etichette di riservatezza e i criteri di prevenzione della perdita dei dati alle app SaaS usando Defender per le app cloud.
Usare le risorse seguenti per procedere con Microsoft Purview.
Passaggio 4: applicare il modello di intelligenza artificiale rischiosa in IRM (Insider Risk Management)
Microsoft Purview Insider Risk Management (IRM) include modelli di criteri predefiniti che è possibile applicare all'ambiente, incluso l'utilizzo dell'intelligenza artificiale rischiosa. I modelli IRM sono condizioni di criteri predefinite che definiscono i tipi di indicatori di rischio e il modello di punteggio dei rischi usato dai criteri.
La politica di utilizzo dell'IA rischiosa può aiutare a rilevare e abilitare la valutazione del rischio per richieste e risposte tra gli strumenti di intelligenza artificiale nella tua organizzazione. IRM consente di analizzare e intervenire sulle attività di rischio correlate all'IA.
Usare le risorse seguenti per iniziare a usare La gestione dei rischi Insider e per applicare il modello di criteri di utilizzo dell'intelligenza artificiale rischiosa.
Attività | Risorse consigliate |
---|---|
Introduzione alla gestione dei rischi Insider e informazioni sui principali scenari che traggono vantaggio dall'organizzazione | Informazioni sulla gestione dei rischi interni |
Applicare il modello di intelligenza artificiale rischiosa | Informazioni sui modelli di criteri di gestione dei rischi Insider | Microsoft Learn |
Informazioni sugli scenari principali per l'intelligenza artificiale e visualizzare i report di esempio | La gestione dei rischi Insider potenzia la visibilità sull'uso rischioso dell'IA e le indagini sulla sicurezza |
Passaggio 5: Configurare la protezione adattiva per la gestione dei rischi Insider
La protezione adattiva in Microsoft Purview Insider Risk Management assegna dinamicamente un livello di rischio agli utenti e quindi applica i criteri creati agli utenti con rischi moderati o elevati. I criteri possono implementare un aumento delle azioni di prevenzione della perdita dei dati, mantenere il contenuto eliminato o applicare requisiti di accesso condizionale più elevati.
Usare le risorse seguenti per iniziare a usare la protezione adattiva.
Attività | Risorse consigliate |
---|---|
Introduzione alla gestione dei rischi Insider e informazioni sui principali scenari che traggono vantaggio dall'organizzazione | Informazioni sulla gestione dei rischi interni |
Informazioni sugli scenari principali per l'intelligenza artificiale e visualizzare i report di esempio | La gestione dei rischi Insider potenzia la visibilità sull'uso rischioso dell'IA e le indagini sulla sicurezza |
Applicare il modello di intelligenza artificiale rischiosa | Informazioni sui modelli di criteri di gestione dei rischi interni |
Indagare e intervenire sulle attività di rischio interno |
Indagare sulle attività di gestione dei rischi interni Intervenire sui casi di gestione dei rischi interni |
Sfruttare al meglio la protezione dalle minacce per l'IA
Defender for Cloud Apps e Defender for Cloud includono funzionalità che consentono di mantenere informati l'uso delle nuove app di intelligenza artificiale e di applicare i controlli appropriati.
Passaggio 1: usare Defender per le app cloud per valutare e proteggere l'uso delle app di intelligenza artificiale
L'articolo precedente di questa serie, Discover AI Apps e Data, è incentrato sull'uso di Defender for Cloud Apps per individuare le app di intelligenza artificiale nell'ambiente in uso. Questo articolo incoraggia le organizzazioni a usare Defender for Cloud Apps per rimanere aggiornati sull'uso delle nuove app di intelligenza artificiale, valutando il rischio che queste rappresentano per l'ambiente, sanzionando o bloccando queste app e applicando i controlli delle sessioni alle app.
Creare prima di tutto un criterio per attivare automaticamente un avviso quando viene usata una nuova app generativa per intelligenza artificiale nell'organizzazione.
Valutare quindi il punteggio di rischio per le app appena individuate. È anche possibile personalizzare il punteggio di rischio. Ad esempio, le organizzazioni altamente regolamentate potrebbero voler modificare il peso di attributi specifici del punteggio di rischio. È anche possibile eseguire l'override di un punteggio di rischio.
Decidere se approvare o bloccare ogni app. Le organizzazioni possono scegliere di bloccare l'utilizzo delle app per vari motivi. Alcuni sono preoccupati che i dati sensibili saranno inconsapevolmente condivisi con le applicazioni e esposti in un secondo momento a un pubblico esterno all'organizzazione. In questo modo l'organizzazione potrebbe bloccare l'utilizzo di tutte le app di intelligenza artificiale non gestite. Anche se altre organizzazioni devono garantire che tutte le app in uso siano conformi a standard diversi, ad esempio SOC2 o HIPAA.
Infine, per le app approvate, decidere se applicare criteri di sessione per un maggiore controllo e visibilità. I criteri di sessione consentono di applicare parametri al modo in cui le app cloud vengono usate dall'organizzazione. Ad esempio, è possibile configurare criteri di sessione che consentono solo ai dispositivi gestiti di accedere a un'app di intelligenza artificiale. Un esempio più semplice potrebbe essere la configurazione di un criterio per monitorare il traffico dai dispositivi non gestiti in modo da poter analizzare il rischio di questo traffico prima di applicare criteri più severi.
In questa illustrazione:
- L'accesso alle app cloud approvate da utenti e dispositivi dell'organizzazione viene instradato tramite Defender for Cloud Apps in cui i criteri di sessione possono essere applicati a app specifiche.
- Le app cloud che non hai approvato né disapprovato esplicitamente non sono interessate.
Defender for Cloud Apps offre inoltre rilevamenti dedicati per Microsoft 365 Copilot. I team di sicurezza possono rilevare le interazioni sospette di un utente con Copilot e rispondere e attenuare la minaccia. Ad esempio, quando un utente accede ai dati sensibili tramite Copilot da un indirizzo IP rischioso, Defender for Cloud Apps attiva un avviso per contrassegnare questa attività sospetta con dettagli importanti, tra cui la tecnica di attacco MITRE, l'indirizzo IP e altri campi che i team di sicurezza possono usare per analizzare ulteriormente questo avviso.
Usare le risorse seguenti come passaggi successivi.
Attività | Risorse consigliate |
---|---|
Esaminare i passaggi da 5 a 8 in questo flusso di distribuzione di Defender for Cloud Apps | Individuare e gestire le app cloud |
Vedere questa esercitazione video sulla gestione delle app | Scoprire quali app di intelligenza artificiale generative vengono usate nell'ambiente usando Defender per le app cloud - YouTube |
Creare un criterio di individuazione delle app | Creare criteri di individuazione cloud |
Valutare il punteggio di rischio per le app appena individuate | Catalogo di app cloud e punteggi di rischio |
Sanzionare o bloccare nuove app | Governare le app scoperte |
Applicare i criteri di sessione alle app di intelligenza artificiale per un maggiore controllo e visibilità | Creare criteri di sessione |
Informazioni su come usare la protezione dalle minacce per Microsoft 365 Copilot | Nuovi rilevamenti delle minacce per Microsoft Copilot per Microsoft 365 |
Passaggio 2: Applicare le protezioni di intelligenza artificiale in Defender for Cloud
L'articolo precedente di questa serie, Discover AI Apps and data, si è concentrato sulla scoperta di carichi di lavoro e modelli di intelligenza artificiale generativa che operano nel tuo ambiente. Questo articolo è incentrato sulla protezione delle applicazioni GenAI durante tutto il ciclo di vita dell'applicazione, durante la compilazione e l'uso delle app di intelligenza artificiale personalizzate.
Le organizzazioni scelgono di sviluppare nuove applicazioni GenAI e incorporare l'intelligenza artificiale in applicazioni esistenti per aumentare l'efficienza aziendale e la produttività. Gli utenti malintenzionati cercano sempre più di sfruttare le applicazioni per modificare lo scopo progettato del modello di intelligenza artificiale con nuovi attacchi come attacchi di prompt, attacchi al portafoglio, furti di modelli e avvelenamento dei dati, aumentando al tempo stesso la suscettività ai rischi noti, ad esempio violazioni dei dati e denial of service. I team di sicurezza devono essere preparati e assicurarsi di avere i controlli di sicurezza appropriati per le applicazioni di intelligenza artificiale e i rilevamenti che risodono il nuovo panorama delle minacce.
Microsoft Defender for Cloud consente alle organizzazioni di proteggere gli ambienti ibridi e multicloud da codice a cloud. Defender per il cloud include funzionalità di sicurezza e protezione dalle minacce per consentire alle organizzazioni di proteggere le applicazioni GenAI create dall'azienda durante l'intero ciclo di vita dell'applicazione:
- Individuare continuamente i componenti dell'applicazione GenAI e gli artefatti di intelligenza artificiale dal codice al cloud.
- Esplorare e correggere i rischi per le applicazioni GenAI con raccomandazioni predefinite per rafforzare il comportamento di sicurezza.
- Identificare e correggere le combinazioni tossiche nelle applicazioni GenAI usando l'analisi del percorso di attacco.
- Individuare le applicazioni GenAI alimentate da scudi per i prompt di Sicurezza dei contenuti di Azure AI, segnali di intelligence sulle minacce di Microsoft e monitoraggio delle attività contestuali.
- Cercare e analizzare gli attacchi nelle app GenAI con l'integrazione predefinita con Microsoft Defender.
Iniziare con le funzionalità di gestione del comportamento di sicurezza dell'intelligenza artificiale in Defender Cloud Security Posture Management (CSPM). Defender CSPM individua automaticamente e continuamente i carichi di lavoro di intelligenza artificiale distribuiti con visibilità senza necessità di agenti e dettagliata nelle configurazioni e nella presenza dei modelli di intelligenza artificiale, SDK e tecnologie usati nei servizi di intelligenza artificiale, ad esempio il servizio Azure OpenAI, Azure Machine Learning e Amazon Bedrock.
CSPM presenta continuamente problemi di sicurezza contestualizzati e suggerisce raccomandazioni sulla sicurezza basate sui rischi personalizzate per classificare in ordine di priorità i gap critici nei carichi di lavoro di intelligenza artificiale. Le raccomandazioni di sicurezza pertinenti vengono visualizzate anche all'interno della risorsa OpenAI di Azure stessa nel portale di Azure, fornendo agli sviluppatori o ai proprietari dei carichi di lavoro l'accesso diretto alle raccomandazioni e contribuendo a correggere più rapidamente.
La funzionalità di analisi del percorso di attacco può identificare rischi sofisticati per i carichi di lavoro di intelligenza artificiale, inclusi gli scenari di sicurezza dei dati in cui i dati di base o di ottimizzazione vengono esposti a Internet tramite lo spostamento laterale ed è soggetto all'avvelenamento dei dati.
Mantenere quindi la sicurezza in fase di esecuzione con la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale. Defender for Cloud include la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale. La protezione dalle minacce per l'intelligenza artificiale usa l'integrazione nativa del servizio Azure OpenAI, gli schermati di richiesta di sicurezza dei contenuti per intelligenza artificiale di Azure e l'intelligence sulle minacce Microsoft per fornire avvisi di sicurezza contestuali e interattivi. La protezione dalle minacce per i carichi di lavoro di intelligenza artificiale consente ai team di sicurezza di monitorare le applicazioni basate su Azure OpenAI durante l'esecuzione per attività dannose associate ad attacchi di inserimento diretto e indiretto tramite prompt, fughe di dati sensibili e avvelenamento dei dati, nonché abuso del portafoglio o attacchi denial of service.
Usare le risorse seguenti per i passaggi successivi.
Attività | Risorse consigliate |
---|---|
Esaminare gli scenari principali descritti in questo blog | Proteggere le applicazioni di intelligenza artificiale generative con Microsoft Defender for Cloud |
Usare CSPM per ottenere visibilità dei rischi di intelligenza artificiale nell'ambiente |
Proteggere le risorse con Defender CSPM Esaminare il dashboard di sicurezza dei dati e dell'intelligenza artificiale (anteprima) |
Abilitare la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale (anteprima) | Abilitare la protezione dalle minacce per i carichi di lavoro di intelligenza artificiale (anteprima) Avvisi per i carichi di lavoro di intelligenza artificiale (anteprima) |
Passaggio successivo per la protezione dell'IA
Dopo aver protetto le app e i dati di intelligenza artificiale nell'organizzazione, il passaggio successivo consiste nel gestire le app di intelligenza artificiale per soddisfare i requisiti di conformità alle normative:
- Valutare e rafforzare il comportamento di conformità rispetto alle normative.
- Implementare controlli per gestire l'utilizzo di app e dati di intelligenza artificiale.
Vedere l'articolo successivo di questa serie: Come si regola l'intelligenza artificiale per la conformità?