Condividi tramite


Intelligenza artificiale sicura : processo per proteggere l'intelligenza artificiale

Questo articolo descrive il processo aziendale per proteggere i carichi di lavoro di intelligenza artificiale. Si concentra sulla riservatezza, l'integrità e la disponibilità (CIA) dell'IA. Le procedure di sicurezza efficaci riducono il rischio di compromissione salvaguardando la riservatezza, l'integrità e la disponibilità di modelli e dati di intelligenza artificiale. Un ambiente di intelligenza artificiale sicuro è allineato anche agli obiettivi di sicurezza aziendali e migliora la fiducia nei processi basati sull'intelligenza artificiale.

Diagramma che illustra il processo di adozione dell'intelligenza artificiale: strategia di intelligenza artificiale, piano di intelligenza artificiale, pronto per intelligenza artificiale, governance dell'intelligenza artificiale, gestione dell'intelligenza artificiale e intelligenza artificiale sicura.

Individuare i rischi per la sicurezza dell'intelligenza artificiale

I carichi di lavoro di intelligenza artificiale introducono vulnerabilità univoche che gli utenti malintenzionati possono sfruttare per accedere ai dati, interrompere i sistemi o modificare gli output. Identificare e valutare questi rischi regolarmente per proteggere le operazioni aziendali, sostenere la fiducia e difendere i sistemi di intelligenza artificiale dall'uso improprio.

  • Identificare i rischi per la sicurezza dell'intelligenza artificiale. I sistemi di intelligenza artificiale affrontano minacce in continua evoluzione che richiedono una valutazione specializzata. Usare framework come MITRE ATLAS e OWASP Generative AI risk per identificare i rischi in tutti i carichi di lavoro di intelligenza artificiale.

  • Identificare i rischi per i dati di intelligenza artificiale. I dati sensibili nei flussi di lavoro di intelligenza artificiale aumentano il rischio di minacce interne o perdite di dati. Usare strumenti come Microsoft Purview Insider Risk Management per valutare i rischi dei dati a livello aziendale e classificarli in ordine di priorità in base alla riservatezza dei dati.

  • Identificare i rischi del modello di intelligenza artificiale. Gli utenti malintenzionati possono estrarre o modificare gli output del modello per accedere a informazioni private o sfruttare i punti deboli. Testare modelli per vulnerabilità come la perdita di dati, l'inserimento di richieste e l'inversione del modello usando tecniche di prevenzione della perdita dei dati e simulazioni antagoniste.

  • Eseguire dei test red team. I test reali rivelano rischi sconosciuti che le revisioni statiche non individuano. Il red team simula attacchi utilizzando sia modelli di intelligenza artificiale generativa sia modelli di intelligenza artificiale non generativa. Seguire queste raccomandazioni:

    • Valutare le funzionalità di sistema e il contesto. Indirizzare le attività di test comprendendo lo scopo del sistema e i rischi introdotti. Partire dagli effetti potenziali per progettare strategie di attacco significative.

    • Usare prima tecniche di attacco semplici. Molte violazioni del mondo reale si basano su tecniche a risorse basse. Iniziare con richieste di base e scenari di uso improprio prima di passare a metodi complessi.

    • Distinguere il red teaming dal benchmarking. Il red teaming di intelligenza artificiale rivela rischi sconosciuti. Il benchmarking valuta le vulnerabilità note. Classificare in ordine di priorità l'individuazione di problemi sconosciuti anziché misurare quelli noti.

    • Automatizzare l'espansione della copertura dei rischi. Utilizzare l'automazione per ampliare la copertura degli attacchi, ma esaminare gli output per individuare i rischi sfumati. Usare strumenti come PyRIT per testare i sistemi di intelligenza artificiale su larga scala.

    • Dare priorità al giudizio umano nel contesto del red teaming per l'intelligenza artificiale. L'automazione supporta i test, ma usa informazioni umane per rilevare i rischi correlati a pregiudizi, etica e comportamento imprevisto.

    • Sviluppare metodi affidabili per misurare gli errori di IA responsabili. Gli errori di IA responsabili si verificano quando i sistemi di intelligenza artificiale violano i principi dell'IA responsabile. A differenza delle vulnerabilità di sicurezza, questi errori sono più difficili da definire e misurare a causa delle loro implicazioni soggettive, sociali ed etiche. Usare scenari strutturati per valutare il comportamento dell'IA che viola i principi etici anche quando i controlli di sicurezza vengono superati.

    • Proteggere le minacce tradizionali e specifiche dell'intelligenza artificiale. Proteggere i sistemi da minacce convenzionali e attacchi mirati all'intelligenza artificiale, ad esempio inserimenti di richieste o esfiltrazione di dati.

      Per ulteriori informazioni, vedere Lezioni dal Red Teaming di 100 Prodotti di Intelligenza Artificiale Generativa.

  • Eseguire valutazioni periodiche dei rischi. Le nuove minacce possono emergere man mano che i modelli di intelligenza artificiale, l'utilizzo e gli attori delle minacce si evolvono. Eseguire valutazioni ricorrenti per identificare le vulnerabilità nei modelli, nelle pipeline di dati e negli ambienti di distribuzione e usare i risultati per guidare la mitigazione dei rischi.

Proteggere le risorse e i dati di intelligenza artificiale

I sistemi di intelligenza artificiale aumentano l'esposizione dei rischi dell'organizzazione attraverso nuove superfici di dati, infrastruttura e attacco. Applicare controlli di sicurezza coerenti per gestire il rischio e proteggere gli asset sensibili.

Proteggere le risorse di intelligenza artificiale

Le risorse di intelligenza artificiale supportano funzioni aziendali critiche e possono diventare obiettivi per uso improprio o compromissione. Inventariare, configurare e gestire tutti i modelli, i servizi e l'infrastruttura con controlli di sicurezza standardizzati.

  • Stabilire un inventario centralizzato degli asset di intelligenza artificiale. Gli asset non registrati creano vulnerabilità che gli utenti malintenzionati possono sfruttare. Usare strumenti come Azure Resource Graph Explorer e Microsoft Defender for Cloud per creare e gestire un inventario completo di modelli, dati e infrastruttura. Microsoft Defender per il cloud può individuare carichi di lavoro di intelligenza artificiale generativa e gli elementi di intelligenza artificiale generativa nella fase pre-distribuzione.

  • Proteggere le piattaforme di intelligenza artificiale di Azure. Le configurazioni incoerenti creano vulnerabilità nei sistemi di intelligenza artificiale. Applicare le baseline di sicurezza di Azure e seguire le guide ai servizi di Azure per indicazioni sulla sicurezza.

  • Applicare controlli di sicurezza specifici del carico di lavoro. I carichi di lavoro di intelligenza artificiale in PaaS e IaaS presentano rischi e controlli diversi. Usare indicazioni personalizzate per l'intelligenza artificiale nei servizi della piattaforma Azure (PaaS) e intelligenza artificiale nell'infrastruttura di Azure (IaaS):

Proteggere i dati di intelligenza artificiale

I dati di intelligenza artificiale includono informazioni riservate che gli utenti malintenzionati possono esfiltrare, manipolare o usare in modo improprio. Proteggere i dati di intelligenza artificiale applicando controlli di accesso, monitorando l'utilizzo e isolando gli asset ad alto rischio.

  • Definire e gestire i limiti dei dati. L'esposizione dei dati non allineati crea rischi per la conformità e la privacy. Confrontare ogni carico di lavoro di intelligenza artificiale con i set di dati appropriati per il gruppo di destinatari e limitare l'accesso condiviso. Le applicazioni di intelligenza artificiale accessibili a tutti i dipendenti devono elaborare solo i dati adatti a tutti i dipendenti. Le applicazioni di intelligenza artificiale con connessione Internet devono usare i dati appropriati per l'utilizzo pubblico. Usare set di dati o ambienti separati per applicazioni di intelligenza artificiale diverse per impedire l'accesso accidentale ai dati. Prendere in considerazione l'uso della suite di strumenti di sicurezza dei dati di Microsoft Purview per proteggere i dati.

  • Controllare l'accesso ai dati. I controlli di accesso deboli consentono l'accesso non autorizzato ai dati. Richiedere la verifica a livello di utente e limitare le autorizzazioni in base ai privilegi minimi.

  • Gestire un catalogo dati. Le origini dati non rilevate aumentano il rischio e riducono l'efficacia della governance. Cataloga i dati correlati all'intelligenza artificiale, inclusi i percorsi di archiviazione e i dettagli di accesso. Analizzare e classificare la riservatezza e il livello di accesso dei dati. Prendere in considerazione l'uso di Microsoft Purview Data Catalog.

  • Tenere traccia delle modifiche nella sensibilità dei dati. La classificazione dei dati può cambiare man mano che cambiano l'utilizzo o il contenuto. Monitorare i livelli di riservatezza e rimuovere i dati ad alto rischio dai carichi di lavoro di intelligenza artificiale per utilizzo generico. Usare il catalogo dati per monitorare le informazioni usate nei carichi di lavoro di intelligenza artificiale.

  • Proteggere gli artefatti di intelligenza artificiale. Gli utenti malintenzionati possono rubare, avvelenare o invertire i modelli di intelligenza artificiale e i set di dati. Archiviare gli artefatti in ambienti privati e crittografati con controlli di accesso rigorosi. Archivia modelli e set di dati di intelligenza artificiale dietro endpoint privati e in ambienti sicuri come l'archiviazione blob di Azure e le aree di lavoro dedicate. Applicare criteri di accesso e crittografia rigorosi per proteggere gli artefatti di intelligenza artificiale da accessi non autorizzati o furti per evitare l'avvelenamento dei dati.

  • Proteggere i dati sensibili. I dati sensibili elaborati in ambienti non sicuri possono perdere o essere esposti. Usare subset sanificati e isolare gli ambienti di elaborazione con restrizioni di crittografia, monitoraggio e rete.

  • Formare i dipendenti su rischi specifici dell'IA. L'uso improprio e la configurazione errata spesso derivano dall'errore umano. Offrire formazione basata sui ruoli sulla sicurezza dell'intelligenza artificiale, sulla gestione dei dati e sulla consapevolezza delle minacce per tutti i team del progetto di intelligenza artificiale.

Rilevare le minacce per la sicurezza dell'intelligenza artificiale

I sistemi di intelligenza artificiale affrontano minacce in costante evoluzione che possono emergere o intensificarsi senza preavviso. Le organizzazioni devono rilevare queste minacce rapidamente e rispondere con un ritardo minimo.

  • Rilevare i rischi di intelligenza artificiale. I carichi di lavoro di intelligenza artificiale introducono minacce dinamiche e nascoste che le valutazioni statiche non riescono a intercettare. Automatizzare il rilevamento e la risposta delle minacce per i rischi generati dell'IA. Usare la gestione del comportamento di sicurezza dell'intelligenza artificiale in Microsoft Defender for Cloud per automatizzare il rilevamento e la correzione dei rischi generativi dell'intelligenza artificiale.

  • Rilevare gli eventi imprevisti di sicurezza dell'intelligenza artificiale. Gli eventi imprevisti non rilevati possono causare perdite di dati, compromissione del modello o interruzione del servizio. Creare e testare un piano di risposta agli eventi imprevisti incentrato sull'IA e monitorare continuamente gli indicatori di compromissione per attivare una mitigazione rapida.

  • Applicare il monitoraggio specifico del carico di lavoro. I carichi di lavoro di intelligenza artificiale in PaaS e IaaS hanno esigenze di monitoraggio diverse. Utilizzare le indicazioni per l'intelligenza artificiale su Azure PaaS e su Azure IaaS.

Passaggi successivi

Governare l'intelligenza artificiale, gestire l'intelligenza artificiale e mettere in sicurezza l'intelligenza artificiale sono processi continui che è necessario iterare regolarmente. Rivedere ogni strategia di intelligenza artificiale, piano di intelligenza artificiale e preparazione per l'intelligenza artificiale secondo le necessità. Usare gli elenchi di controllo per l'adozione dell'intelligenza artificiale per determinare il passaggio successivo.