Condividi tramite


Domande frequenti su Copilot in Fabric nel carico di lavoro del database SQL (anteprima)

Si applica a:Database SQL in Microsoft Fabric

Questo articolo risponde alle domande frequenti su Microsoft Copilot in Fabric nel database SQL.

Copilot è ora integrato con l'editor di query, migliorando la gestione e il funzionamento delle applicazioni dipendenti da SQL. Migliora la produttività offrendo linguaggio naturale per la conversione SQL e l'assistenza self-help per l'amministrazione del database.

Dove si trova il database SQL in Fabric?

Nell'editor di query SQL è possibile trovare Copilot in varie posizioni:

Ricerca per categorie abilitare Copilot per il database SQL in Fabric?

Esaminare i passaggi descritti in Abilitare Copilot in Infrastruttura.

I risultati di Copilot sono affidabili?

Copilot è progettato per generare le migliori risposte possibili con il contesto del database a cui ha accesso. Tuttavia, come qualsiasi sistema di IA, le risposte non sono perfette. Tutte le risposte di Copilot devono essere testate, esaminate ed esaminate attentamente prima di apportare modifiche all'ambiente di database SQL dell'infrastruttura.

Copilot scrive query perfette o ottimali?

Copilot mira a fornire risposte accurate e informative in base ai dati disponibili. Le risposte generate sono basate su modelli e probabilità nei dati linguistici, il che significa che potrebbero non essere sempre accurate. Gli esseri umani devono esaminare, testare e convalidare attentamente tutto il contenuto generato da Copilot.

In che modo Copilot usa i dati dell'ambiente di database SQL di Fabric?

Copilot genera risposte a terra nell'ambiente di database SQL di Infrastruttura. Copilot ha accesso solo alle risorse a cui ha accesso l’utente e può eseguire solo azioni che l’utente è autorizzato a eseguire. Copilot rispetta tutte le protezioni e la gestione degli accessi esistenti.

Quali dati vengono raccolti da Copilot?

Le richieste effettuate dall'utente e le risposte fornite da Copilot non vengono usate per eseguire un ulteriore training, ripetere il training o migliorare i modelli di base del servizio OpenAI di Azure che generano le risposte. Le richieste fornite dall'utente e le risposte di Copilot vengono raccolte e usate per migliorare i prodotti e i servizi Microsoft solo quando gli utenti forniscono il consenso esplicito per includere queste informazioni all'interno del feedback. Raccogliamo i dati di engagement degli utenti, ad esempio il numero di sessioni di chat e la durata della sessione, la competenza usata in una determinata sessione, i pollici su, i pollici giù, il feedback e così via. Queste informazioni vengono conservate e usate come descritto nell'Informativa sulla privacy di Microsoft.

Cosa fare se vengono visualizzati contenuti imprevisti oppure offensivi?

Il team di database SQL ha creato Copilot guidato dai principi di intelligenza artificiale e dallo standard di intelligenza artificiale responsabile. Abbiamo classificato in ordine di priorità la mitigazione dell'esposizione dei clienti a contenuti offensivi. È possibile, tuttavia, che vengano visualizzati risultati imprevisti. Stiamo lavorando costantemente per migliorare la nostra tecnologia di prevenzione di contenuti dannosi. Per altre informazioni, vedere Privacy, sicurezza e uso responsabile di Copilot in Fabric.

Se si rilevano contenuti dannosi o inappropriati nel sistema, è possibile fornire feedback o segnalare un problema selezionando il pulsante per il voto negativo nella risposta. Stiamo costantemente lavorando per migliorare la nostra tecnologia per risolvere in modo proattivo i problemi in linea con i nostri principi di intelligenza artificiale responsabile.

Quanto costa Copilot?

Per altre informazioni su come viene fatturato e segnalato l'utilizzo di Copilot di Fabric, vedere Copilot in Utilizzo dell'infrastruttura.

Come vengono protette le richieste trasmesse e i dati di query?

Copilot adotta diverse misure per proteggere i dati, tra cui:

  • I dati trasmessi vengono crittografati sia in transito che inattivi; i dati correlati a Copilot vengono crittografati in transito tramite TLS e inattivi usando la crittografia dei dati di Microsoft Azure (standard FIPS Publication 140-2).

  • L'accesso ai dati di log e feedback è strettamente controllato. I dati vengono archiviati in una sottoscrizione separata. I dati sono accessibili solo da 1) Approvazione JIT just-in-time dal personale operativo di Azure usando workstation amministrative sicure.

Dove è possibile ottenere altre informazioni sulla privacy e sulla protezione dei dati?

Per altre informazioni sul modo in cui Copilot elabora e usa i dati personali, vedere Privacy, sicurezza e uso responsabile di Copilot in Fabric.