Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Il processo di copia in Data Factory semplifica lo spostamento dei dati dall'origine alla destinazione, senza necessità di pipeline. Con un'esperienza guidata semplice, è possibile configurare i trasferimenti di dati usando modelli predefiniti per la copia batch e incrementale. Che tu sia nuovo nell'integrazione dei dati o stia semplicemente cercando un modo più rapido per portare i tuoi dati dove è necessario, la funzione di copia offre una soluzione flessibile e intuitiva.
Alcuni vantaggi del processo di copia rispetto ad altri metodi di spostamento dei dati includono:
- Facile da usare: configurare e monitorare la copia dei dati con un'esperienza guidata semplice, senza bisogno di competenze tecniche.
- Efficiente: copiare solo dati nuovi o modificati per risparmiare tempo e risorse, con passaggi manuali minimi.
- Flessibile: scegliere quali dati spostare, mappare le colonne, impostare la modalità di scrittura dei dati e pianificare l'esecuzione dei processi una sola volta o regolarmente.
- Prestazioni elevate: spostare grandi quantità di dati in modo rapido e affidabile grazie a un sistema serverless e scalabile.
Connettori supportati
Con il processo copia è possibile spostare i dati tra archivi dati cloud o origini locali che si trovano dietro un firewall o all'interno di una rete virtuale usando un gateway. Il processo di copia supporta gli archivi dati seguenti come origini o destinazioni:
Connettore | Fonte | Destinazione | Lettura - Caricamento completo | Lettura - Caricamento incrementale (basato su marcatore) | Read - CDC (anteprima) | Scrivi - Aggiungi | Scrivi - Sovrascrivi | Scrivi - Unisci |
---|---|---|---|---|---|---|---|---|
DB di Azure SQL | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Oracolo | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
SQL Server in loco | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Magazzino tessuti | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Tavolo Fabric Lakehouse | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
File di Fabric Lakehouse | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Amazon S3 | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Azure Data Lake Storage Gen2 | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Blob Storage di Azure | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Istanza SQL gestita di Azure | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Fiocco di neve | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Azure Synapse Analytics | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Esplora dati di Azure | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Azure PostgreSQL | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Google Cloud Storage | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
MySQL | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Azure MySQL | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
PostgreSQL | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Database SQL in Fabric (anteprima) | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Compatibile con Amazon S3 | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
SAP HANA | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
ODBC | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Servizio Amazon RDS per SQL Server | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Google BigQuery | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Salesforce | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Cloud del servizio Salesforce | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Tabelle di Azure | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
File di Azure | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
SFTP | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
FTP | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Database Db2 di IBM | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Vertica | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
ServiceNow | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Archiviazione in Oracle Cloud | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
MariaDB | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Dataverse | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Dynamics 365 | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Dynamics CRM | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Azure Cosmos DB per il NoSQL | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Protocollo HTTP | ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Nota
Attualmente, quando si utilizza Copy Job per la replica CDC da un archivio di origine supportato, gli archivi di destinazione supportati includono il database SQL di Azure, SQL Server locale, Istanza SQL gestita di Azure e il database SQL in Fabric (anteprima).
Copia comportamento
È possibile scegliere come recapitare i dati:
- Modalità di copia completa: ogni volta che il processo viene eseguito, copia tutti i dati dall'origine alla destinazione.
- Modalità di copia incrementale: la prima esecuzione copia tutti gli elementi e le esecuzioni future spostano solo i dati nuovi o modificati. Per i database, ciò significa che vengono copiate solo le righe nuove o aggiornate. Se il database usa CDC (Change Data Capture), vengono incluse righe inserite, aggiornate ed eliminate. Per le origini di archiviazione, i file con un tempo di ultima modifica più recente vengono copiati.
È anche possibile decidere come vengono scritti i dati nella destinazione:
Per impostazione predefinita, il processo di copia aggiunge nuovi dati, in modo da mantenere una cronologia completa. Se si preferisce, è possibile scegliere di unire (aggiornare le righe esistenti usando una colonna chiave) o sovrascrivere (sostituire i dati esistenti). Se si seleziona unisci, il processo di copia usa la chiave primaria per impostazione predefinita, se presente.
- Durante la copia in un database: le nuove righe vengono aggiunte alle tabelle. Per i database supportati, è anche possibile scegliere di unire o sovrascrivere i dati esistenti.
- Durante la copia nella risorsa di archiviazione: i nuovi dati vengono salvati come nuovi file. Se esiste già un file con lo stesso nome, viene sostituito.
Colonna incrementale
Quando si usa la modalità di copia incrementale, si seleziona una colonna incrementale per ogni tabella. Questa colonna agisce come un marcatore, così il processo di copia sa quali righe sono nuove o aggiornate dall'ultima esecuzione. In genere, la colonna incrementale è un valore di data/ora o un numero che sale con ogni nuova riga. Se il database di origine utilizza il Change Data Capture (CDC), non è necessario scegliere una colonna: il lavoro di copia trova le modifiche per te.
Aree di disponibilità
Il processo di copia ha la stessa disponibilità regionale di Fabric.
Politiche di Prezzo
È possibile ottenere i dettagli nel processo copia prezzi.