Condividi tramite


Pronto per l'intelligenza artificiale

Questo articolo descrive il processo aziendale per la creazione di carichi di lavoro di intelligenza artificiale in Azure. L'articolo fornisce raccomandazioni per prendere decisioni chiave per la progettazione e il processo per l'adozione di carichi di lavoro di intelligenza artificiale su larga scala. È incentrato sulle linee guida specifiche dell'intelligenza artificiale per l'organizzazione delle risorse e la connettività.

Definire i limiti di governance per i carichi di lavoro di intelligenza artificiale

Per garantire operazioni sicure, conformi e convenienti, la governance dell'IA richiede una corretta gestione delle risorse e dei criteri. È necessario creare limiti di governance chiari per proteggere in modo efficace i dati sensibili e controllare l'accesso alle risorse di intelligenza artificiale. Ecco come fare:

  1. Creare gruppi di gestione separati per carichi di lavoro di intelligenza artificiale interni e con connessione Internet. La separazione dei gruppi di gestione stabilisce i limiti di governance dei dati critici tra applicazioni di intelligenza artificiale esterne ("online") e solo interne ("aziendali"). Questa separazione impedisce agli utenti esterni di accedere ai dati aziendali interni sensibili mantenendo i controlli di accesso appropriati. L'approccio è allineato ai principi di architettura del gruppo di gestione della zona di destinazione di Azure e supporta l'ereditarietà dei criteri tra i tipi di carico di lavoro.

  2. Applicare criteri specifici dell'intelligenza artificiale a ogni gruppo di gestione. Iniziare con i criteri di base dalle zone di destinazione di Azure e aggiungere definizioni di Criteri di Azure per Azure AI Foundry, servizi di intelligenza artificiale di Azure, Ricerca di intelligenza artificiale di Azure e Macchine virtuali di Azure. L'applicazione dei criteri garantisce la governance uniforme dell'IA nella piattaforma e riduce la supervisione manuale della conformità.

  3. Implementare le risorse di intelligenza artificiale nelle sottoscrizioni specifiche per i carichi di lavoro. Le risorse di intelligenza artificiale devono ereditare i criteri di governance dal proprio gruppo di gestione dei carichi di lavoro anziché dalle sottoscrizioni della piattaforma. Questa separazione impedisce i colli di bottiglia dello sviluppo creati dai controlli esercitati dal team della piattaforma e permette ai team di gestione del carico di lavoro di operare con adeguata autonomia. Distribuire carichi di lavoro di intelligenza artificiale nelle sottoscrizioni dell'area di destinazione dell'applicazione negli ambienti della zona di destinazione di Azure.

Stabilire una connettività sicura per i carichi di lavoro di intelligenza artificiale

La rete di intelligenza artificiale comprende la progettazione dell'infrastruttura di rete, le misure di sicurezza e i modelli di trasferimento dei dati efficienti per i carichi di lavoro di intelligenza artificiale. È necessario implementare i controlli di sicurezza e le opzioni di connettività appropriati per evitare interruzioni basate sulla rete e mantenere prestazioni coerenti. Ecco come fare:

  1. Attivare la protezione DDoS di Azure per carichi di lavoro di intelligenza artificiale con connessione Internet.Protezione DDoS di Azure protegge i servizi di intelligenza artificiale da potenziali interruzioni e tempi di inattività causati dagli attacchi Denial of Service distribuiti. La protezione DDoS a livello di rete virtuale protegge dalle inondazioni del traffico destinate alle applicazioni con connessione Internet e mantiene la disponibilità del servizio durante gli attacchi.

  2. Proteggere l'accesso operativo ai carichi di lavoro di intelligenza artificiale con Azure Bastion. Usare un jumpbox e Azure Bastion per proteggere l'accesso operativo ai carichi di lavoro di intelligenza artificiale e impedire l'esposizione diretta a Internet delle interfacce di gestione. Questo approccio crea un gateway sicuro per le attività amministrative mantenendo l'isolamento della rete per le risorse di intelligenza artificiale.

  3. Scegliere la connettività appropriata per le origini dati locali. Le organizzazioni che trasferisce grandi quantità di dati dalle origini locali agli ambienti cloud necessitano di connessioni a larghezza di banda elevata per supportare i requisiti di prestazioni del carico di lavoro di intelligenza artificiale.

    • Usare Azure ExpressRoute per il trasferimento di dati con volumi elevati.Azure ExpressRoute offre connettività dedicata per volumi di dati elevati, elaborazione in tempo reale o carichi di lavoro che richiedono prestazioni coerenti. ExpressRoute include una funzionalità FastPath che migliora le prestazioni del percorso dati ignorando il gateway ExpressRoute per flussi di traffico specifici.

    • Usare il gateway VPN di Azure per il trasferimento di dati moderato.Il gateway VPN di Azure funziona bene per volumi di dati moderati, trasferimento di dati poco frequenti o quando è necessario l'accesso a Internet pubblico. Il gateway VPN offre una configurazione più semplice e un'operazione conveniente per set di dati più piccoli rispetto a ExpressRoute. Usare la topologia e la progettazione appropriate per i carichi di lavoro di intelligenza artificiale, inclusa la VPN da sito a sito per la connettività cross-premise e la VPN da punto a sito per l'accesso sicuro ai dispositivi.

Stabilire l'affidabilità dell'intelligenza artificiale tra aree

Per garantire prestazioni coerenti e disponibilità elevata, l'affidabilità dell'intelligenza artificiale richiede la pianificazione strategica del posizionamento e della ridondanza dell'area. Le organizzazioni devono gestire l'hosting del modello, la località dei dati e il ripristino di emergenza per gestire servizi di intelligenza artificiale affidabili. È necessario pianificare la strategia di distribuzione a livello di area per evitare interruzioni del servizio e ottimizzare le prestazioni. Ecco come fare:

  1. Distribuire gli endpoint di intelligenza artificiale in più aree per i carichi di lavoro di produzione. I carichi di lavoro di intelligenza artificiale di produzione richiedono l'hosting in almeno due aree per garantire la ridondanza e garantire la disponibilità elevata. Le distribuzioni in più aree consentono un failover e un ripristino più rapidi durante gli errori a livello di area. Per Azure OpenAI in Azure AI Foundry, usare distribuzioni globali che instradano automaticamente le richieste alle aree con capacità disponibile. Per le distribuzioni a livello di area, implementare Gestione API di Azure per bilanciare il carico delle richieste API tra endpoint di intelligenza artificiale.

  2. Verificare la disponibilità del servizio di intelligenza artificiale nelle aree di destinazione prima della distribuzione. Diverse aree offrono diversi livelli di disponibilità e supporto delle funzionalità del servizio di intelligenza artificiale. Controllare la disponibilità dei servizi di Azure in base all'area per verificare che siano disponibili i servizi di intelligenza artificiale necessari. I modelli di distribuzione di Azure OpenAI includono opzioni standard globali, opzioni con provisioning globale, opzioni standard regionali e opzioni con provisioning regionale, con diversi modelli di disponibilità a livello regionale.

  3. Valutare i limiti di quota a livello di area e i requisiti di capacità. I servizi di intelligenza artificiale di Azure hanno limiti di sottoscrizione a livello di area che influiscono sulle distribuzioni di modelli su larga scala e sui carichi di lavoro di inferenza. Contattare il supporto tecnico di Azure in modo proattivo quando si prevede che le esigenze di capacità superino le quote standard per evitare interruzioni del servizio durante il ridimensionamento.

  4. Ottimizzare il posizionamento dei dati per le applicazioni di generazione arricchita dal recupero. La posizione di archiviazione dei dati influisce significativamente sulle prestazioni dell'applicazione negli scenari rag. La condivisione dei dati con i modelli di intelligenza artificiale nella stessa area riduce la latenza e migliora l'efficienza del recupero dei dati, anche se le configurazioni tra aree rimangono validi per requisiti aziendali specifici.

  5. Replicare gli asset di intelligenza artificiale critici nelle aree secondarie per la continuità aziendale. La continuità aziendale richiede la replica di modelli ottimizzati, set di dati RAG, modelli sottoposti a training e dati di training nelle aree secondarie. La replica degli asset consente un ripristino più rapido durante le interruzioni e mantiene la disponibilità del servizio in diversi scenari di errore.

Stabilire una base di intelligenza artificiale

Una base di intelligenza artificiale fornisce l'infrastruttura di base e la gerarchia delle risorse che supportano i carichi di lavoro di intelligenza artificiale in Azure. Include la configurazione di ambienti scalabili e sicuri in linea con le esigenze operative e di governance. Una solida base di intelligenza artificiale consente una distribuzione e una gestione efficienti dei carichi di lavoro di intelligenza artificiale. Garantisce anche sicurezza e flessibilità per la crescita futura.

Usare una zona di destinazione di Azure

Una zona di destinazione di Azure è il punto di partenza consigliato per preparare l'ambiente Azure. Fornisce una configurazione predefinita per le risorse della piattaforma e dell'applicazione. Dopo aver creato la piattaforma, è possibile distribuire carichi di lavoro di intelligenza artificiale in zone di destinazione dell'applicazione dedicate.

Se l'organizzazione usa zone di destinazione di Azure per i carichi di lavoro, continuare a usarle per i carichi di lavoro che usano l'intelligenza artificiale. I carichi di lavoro di intelligenza artificiale vengono distribuiti in zone di destinazione dell'applicazione dedicate. La figura 2 seguente illustra come i carichi di lavoro di intelligenza artificiale si integrano all'interno di una zona di destinazione di Azure.

Diagramma che mostra i carichi di lavoro di intelligenza artificiale all'interno di una zona di destinazione di Azure. Figura 2. Carico di lavoro di intelligenza artificiale in una zona di destinazione di Azure.

Creare un ambiente di intelligenza artificiale

Se non si usa una zona di destinazione di Azure, seguire le raccomandazioni riportate in questo articolo per creare l'ambiente di intelligenza artificiale. Il diagramma seguente mostra una gerarchia di risorse di base. Segmenta i carichi di lavoro di intelligenza artificiale interni e i carichi di lavoro di intelligenza artificiale con connessione Internet. I carichi di lavoro interni applicano criteri per negare l'accesso online ai clienti. Questa separazione protegge i dati interni dall'esposizione agli utenti esterni. Lo sviluppo di intelligenza artificiale deve usare un jumpbox per gestire risorse e dati di intelligenza artificiale.

Diagramma che mostra l'organizzazione delle risorse per carichi di lavoro di intelligenza artificiale interni e con connessione Internet. Figura 3. Gerarchia di risorse di base per i carichi di lavoro di intelligenza artificiale.

Passaggi successivi

Il passaggio successivo consiste nel creare e distribuire carichi di lavoro di intelligenza artificiale nell'ambiente di intelligenza artificiale. Usare i collegamenti seguenti per trovare le linee guida per l'architettura che soddisfano le proprie esigenze. Iniziare con le architetture PaaS (Platform-as-a-Service). PaaS è l'approccio consigliato da Microsoft per l'adozione dell'IA.