Condividi tramite


Individuare app e dati di intelligenza artificiale

L'intelligenza artificiale generativa (GenAI) viene adottata a un ritmo senza precedenti, poiché le organizzazioni interagiscono attivamente con o sperimentano genAI in varie capacità. I team di sicurezza possono mitigare e gestire i rischi in modo più efficace ottenendo in modo proattivo visibilità sull'utilizzo dell'IA all'interno dell'organizzazione e implementando i controlli corrispondenti. Questo articolo descrive come individuare l'uso delle app di intelligenza artificiale all'interno dell'organizzazione, inclusa la valutazione del rischio per i dati sensibili.

Questo è il secondo articolo di una serie. Prima di usare questo articolo, assicurarsi di eseguire le attività in Preparare la sicurezza dell'intelligenza artificiale per preparare l'ambiente con le funzionalità previste in questo articolo.

Diagramma che mostra il secondo articolo della serie di sicurezza per l'intelligenza artificiale, ovvero Discover.

Microsoft offre strumenti che consentono di ottenere visibilità sui dati, l'accesso, l'utente e i rischi delle applicazioni per l'intelligenza artificiale creata e usata. Queste funzionalità consentono di risolvere in modo proattivo le vulnerabilità mentre si crea un comportamento di sicurezza sicuro per l'intelligenza artificiale.

Diagramma che mostra le funzionalità di individuazione dell'intelligenza artificiale.

La tabella seguente descrive l'illustrazione e illustra anche i passaggi dell'implementazione di queste funzionalità.

Passo Attività Ambito
1 Ottenere visibilità sull'utilizzo dell'intelligenza artificiale Microsoft Purview Data Security Posture Management (DSPM) per l'intelligenza artificiale. Applicare criteri per proteggere i dati sensibili. Microsoft Copilots
Siti di intelligenza artificiale supportati
2 Individuare, approvare e bloccare le app di intelligenza artificiale con Microsoft Defender for Cloud Apps Applicazioni SaaS di intelligenza artificiale
3 Individuare i carichi di lavoro di intelligenza artificiale distribuiti nell'ambiente e ottenere informazioni dettagliate sulla sicurezza con Microsoft Defender for Cloud Security Posture Management (CSPM) Applicazioni di intelligenza artificiale basate su intelligenza artificiale di Azure personalizzate

Passaggio 1: ottenere visibilità sull'utilizzo dell'intelligenza artificiale con Gestione del comportamento di sicurezza dei dati (DSPM) per l'intelligenza artificiale

Microsoft Purview Data Security Posture Management (DSPM) per intelligenza artificiale è incentrato sul modo in cui l'intelligenza artificiale viene usata nell'organizzazione, in particolare sul modo in cui i dati interagiscono con gli strumenti di intelligenza artificiale. Funziona con i siti di intelligenza artificiale generativi. DSPM per intelligenza artificiale offre informazioni più approfondite per Microsoft Copilots e applicazioni SaaS di terze parti come ChatGPT Enterprise e Google Gemini.

Il diagramma seguente mostra una delle visualizzazioni aggregate sull'impatto dell'uso dell'intelligenza artificiale sui dati: interazioni sensibili per ogni app di intelligenza artificiale generativa.

Screenshot delle interazioni sensibili per le app di intelligenza artificiale generativa.

DSPM per intelligenza artificiale offre un set di funzionalità che consentono di adottare in modo sicuro l'IA senza dover scegliere tra produttività e protezione:

  • Informazioni dettagliate e analisi sulle attività di intelligenza artificiale nell'organizzazione
  • Criteri pronti per l'uso per proteggere i dati e prevenire la perdita di dati nelle richieste di intelligenza artificiale
  • Valutazioni dei rischi associati ai dati per identificare, correggere e monitorare la potenziale condivisione eccessiva dei dati
  • Azioni consigliate basate sui dati del tuo tenant
  • Controlli di conformità per applicare criteri ottimali per la gestione e l'archiviazione dei dati

Per monitorare le interazioni con siti di intelligenza artificiale di terze parti, è necessario eseguire l'onboarding dei dispositivi in Microsoft Purview. Se sono state seguite le indicazioni in Preparare la sicurezza dell'intelligenza artificiale, i dispositivi sono stati registrati nella gestione con Microsoft Intune, quindi sono stati caricati questi dispositivi in Defender per endpoint. L'onboarding dei dispositivi è condiviso tra Microsoft 365 (incluso Microsoft Purview) e Microsoft Defender per Endpoint (MDE).

Usare le risorse seguenti per individuare app e dati di intelligenza artificiale con DSPM per intelligenza artificiale.

Attività Risorse consigliate
Verificare che i dispositivi vengano onboarding in Microsoft Purview. Se i dispositivi non sono ancora stati integrati in Defender per Endpoint, esistono diversi metodi per integrarli. Vedi Collega dispositivi Windows a Microsoft 365.
Comprendere i prerequisiti e il funzionamento di DSPM per intelligenza artificiale Considerazioni sulla distribuzione di Microsoft Purview Data Security Posture Management per intelligenza artificiale
Iniziare a usare DSPM per intelligenza artificiale Come usare la gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale
Esaminare i siti di intelligenza artificiale supportati Siti di intelligenza artificiale supportati da Microsoft Purview per la protezione dei dati e la conformità

Passaggio 2: Individuare, approvare e bloccare le app di intelligenza artificiale con Microsoft Defender for Cloud Apps

Microsoft Defender per app cloud consente ai team di sicurezza di individuare app e utilizzo SaaS GenAI.

Il catalogo di app Defender for Cloud Apps include una categoria di intelligenza artificiale generativa per app LLM (Large Language Model), ad esempio Microsoft Bing Chat, Google Bard, ChatGPT e altro ancora. Defender for Cloud Apps ha aggiunto al catalogo più di mille app correlate all'intelligenza artificiale generative, offrendo visibilità sul modo in cui le app di intelligenza artificiale generative vengono usate nell'organizzazione e aiutano a gestirle in modo sicuro.

Screenshot della ricerca delle app nel catalogo delle app cloud.

Con Defender for Cloud Apps è possibile:

  • Filtrare in base alle app di intelligenza artificiale generative
  • Individuare le app di intelligenza artificiale usate nell'organizzazione
  • Visualizzare le valutazioni dei rischi predefinite per ogni app, inclusi oltre 90 fattori di rischio per quanto riguarda la sicurezza e la conformità alle normative.
  • Autorizzare o bloccare l'utilizzo di app specifiche
  • Creare criteri che continuano a individuare le app di intelligenza artificiale in base ai criteri impostati, tra cui il punteggio di rischio, il numero di utenti al giorno e altri. È anche possibile annullare automaticamente le app che soddisfano i criteri.

Screenshot della pagina Cloud Discovery in Microsoft Defender.

Usare le risorse seguenti per i passaggi successivi.

Attività Risorse consigliate
Implementazione pilota e implementazione di Defender per le app cloud Come si pilota e si distribuisce Microsoft Defender for Cloud Apps?
Vedere questa esercitazione video Individuare le app di intelligenza artificiale generative usate nell'ambiente usando Defender per le app cloud
Visualizzare le app individuate Visualizzare le app individuate con il dashboard di Cloud Discovery
Trovare l'app cloud e calcolare il punteggio di rischio Catalogo di app cloud e punteggi di rischio - Microsoft Defender for Cloud Apps
Gestire le app scoperte Governare le app scoperte - Microsoft Defender per le app cloud

Passaggio 3: individuare i carichi di lavoro di intelligenza artificiale distribuiti nell'ambiente e ottenere informazioni dettagliate sulla sicurezza con Microsoft Defender for Cloud

Il piano CsPM (Defender Cloud Security Posture Management) in Microsoft Defender for Cloud offre funzionalità di gestione del comportamento di sicurezza dell'intelligenza artificiale, a partire dall'individuazione delle app di intelligenza artificiale integrate negli ambienti:

  • Individuando la distinta base per IA generativa, che include componenti, dati e artefatti di intelligenza artificiale dell'applicazione dal codice al cloud.
  • Rafforzamento della postura di sicurezza delle applicazioni di IA generativa con raccomandazioni predefinite e tramite l'esplorazione e la correzione dei rischi per la sicurezza.
  • Uso dell'analisi del percorso di attacco per identificare e correggere i rischi.

Usare Cloud Security Explorer per identificare i carichi di lavoro e i modelli di intelligenza artificiale generati in esecuzione nell'ambiente. Le Cloud Security Explorer include delle interrogazioni preconfigurate.

  • Carichi di lavoro e modelli di intelligenza artificiale in uso
  • Repository di codice di intelligenza artificiale generativa vulnerabili che forniscono Azure OpenAI.
  • Contenitori che eseguono immagini di container con vulnerabilità note di intelligenza artificiale generativa.

Screenshot dei carichi di lavoro e dei modelli di intelligenza artificiale in uso

È anche possibile configurare query personalizzate.

Screenshot della pagina di configurazione per configurare query personalizzate.

Usare le risorse seguenti per i passaggi successivi.

Attività Risorse consigliate
Informazioni sulla gestione del comportamento di sicurezza dell'intelligenza artificiale Gestione del comportamento di sicurezza dell'intelligenza artificiale con Defender for Cloud
Individuare i carichi di lavoro di intelligenza artificiale Carichi di lavoro e modelli di intelligenza artificiale in uso
Esplorare i rischi per la pre-distribuzione degli artefatti di intelligenza artificiale generativi Rischi per la pre-distribuzione degli artefatti di intelligenza artificiale generativi

Passaggio successivo per la protezione dell'IA

Dopo aver individuato l'utilizzo dell'intelligenza artificiale nell'organizzazione, il passaggio successivo consiste nell'applicare le protezioni:

  • Proteggere i dati sensibili usati con le app di intelligenza artificiale
  • Implementare la protezione dalle minacce specificamente per l'uso dell'intelligenza artificiale

Vedere l'articolo successivo di questa serie: Come proteggere l'organizzazione durante l'uso delle app di intelligenza artificiale?