Questa pagina mostra come creare e avviare i job di trasferimento.
Per verificare se l'origine e la destinazione (chiamata anche sink) sono supportate da Storage Transfer Service, consulta Origini e sink supportati.
Agenti e pool di agenti
A seconda dell'origine e della destinazione, potrebbe essere necessario creare e configurare un pool di agenti e installare gli agenti su una macchina con accesso all'origine o alla destinazione.
I trasferimenti da Amazon S3, Microsoft Azure, elenchi di URL o Cloud Storage a Cloud Storage non richiedono agent e pool di agent.
I trasferimenti la cui origine e/o destinazione è un file system o uno spazio di archiviazione compatibile con S3 richiedono agenti e pool di agenti. Per istruzioni, vedi Gestire i pool di agenti.
Prima di iniziare
Prima di configurare i trasferimenti, assicurati di aver configurato l'accesso:
- Per utenti e service account:
- Ai dati di origine e alla destinazione.
Se utilizzi i comandi gcloud
,
installa gcloud CLI.
Crea un trasferimento
Non includere informazioni sensibili come quelle che consentono l'identificazione personale (PII) o dati di sicurezza nel nome del job di trasferimento. I nomi delle risorse potrebbero essere propagato ai nomi di altre risorse Google Cloud e potrebbero essere esposti a sistemi interni di Google al di fuori del tuo progetto.
Google Cloud console
Vai alla pagina Storage Transfer Service nella Google Cloud console.
Fai clic su Crea job di trasferimento. Viene visualizzata la pagina Crea un job di trasferimento.
Scegli un'origine:
Cloud Storage
Il tuo account utente deve disporre dell'autorizzazione storage.buckets.get per selezionare i bucket di origine e di destinazione. In alternativa, puoi digitare direttamente il nome del bucket. Per ulteriori informazioni, consulta la sezione Risoluzione dei problemi di accesso.
In Tipo di origine, seleziona Cloud Storage.
Seleziona il Tipo di destinazione.
Se la destinazione è Cloud Storage, seleziona la modalità di pianificazione. I trasferimenti batch vengono eseguiti una tantum o in base a una pianificazione. I trasferimenti basati sugli eventi monitorano continuamente l'origine e trasferiscono i dati quando vengono aggiunti o modificati.
Per configurare un trasferimento basato su eventi, segui le istruzioni riportate in Trasferimenti basati su eventi.
Fai clic su Passaggio successivo.
Seleziona un bucket e (facoltativamente) una cartella al suo interno in uno dei seguenti modi:
Inserisci un nome e un percorso di bucket Cloud Storage esistenti nel campo Bucket o cartella senza il prefisso
gs://
. Ad esempio:my-test-bucket/path/to/files
. Per specificare un bucket Cloud Storage di un altro progetto, digita il nome esattamente nel campo Nome bucket.Seleziona un elenco di bucket esistenti nei tuoi progetti facendo clic su Sfoglia, quindi selezionando un bucket.
Quando fai clic su Sfoglia, puoi selezionare i bucket in altri progetti facendo clic su ID progetto, quindi selezionando il nuovo ID progetto e il bucket.
Per creare un nuovo bucket, fai clic su
Crea nuovo bucket.
Se si tratta di un trasferimento basato su eventi, inserisci il nome della sottoscrizione Pub/Sub, che ha il seguente formato:
projects/PROJECT_NAME/subscriptions/SUBSCRIPTION_ID
- Se vuoi, scegli di
filtrare gli oggetti per prefisso
o per data dell'ultima modifica. Se hai specificato una cartella come posizione di origine, i filtri dei prefissi
sono relativi a quella cartella. Ad esempio, se l'origine è
my-test-bucket/path/
, un filtro di inclusione difile
include tutti i file che iniziano conmy-test-bucket/path/file
. Fai clic su Passaggio successivo.
Amazon S3
Spazio di archiviazione compatibile con S3
Vedi Trasferimento dallo spazio di archiviazione compatibile con S3 a Cloud Storage.
Microsoft Azure Blob Storage
In Tipo di origine, seleziona Archiviazione BLOB di Azure o Data Lake Storage Gen2.
Fai clic su Passaggio successivo.
Specifica quanto segue:
Nome account di archiviazione: il nome dell'account di archiviazione Microsoft Azure di origine.
Il nome dell'account di archiviazione viene visualizzato nel portale Microsoft Azure Storage in Tutti i servizi > Archiviazione > Account di archiviazione.
Nome container: il nome del container di archiviazione Microsoft Azure.
Il nome del container viene visualizzato nel portale Microsoft Azure Storage in Storage Explorer > Container BLOB.
Firma di accesso condiviso (SAS): il token SAS di Microsoft Azure Storage creato da un criterio di accesso archiviato. Per saperne di più, vedi Concedere l'accesso limitato alle risorse di Archiviazione Azure utilizzando le firme di accesso condiviso (SAS).
Il tempo di scadenza predefinito per i token SAS è di 8 ore. Quando crei il token SAS, assicurati di impostare un tempo di scadenza ragionevole che ti consenta di completare correttamente il trasferimento.
- Se vuoi, scegli di
filtrare gli oggetti per prefisso
o per data dell'ultima modifica. Se hai specificato una cartella come posizione di origine, i filtri dei prefissi
sono relativi a quella cartella. Ad esempio, se l'origine è
my-test-bucket/path/
, un filtro di inclusione difile
include tutti i file che iniziano conmy-test-bucket/path/file
. Fai clic su Passaggio successivo.
File system
In Tipo di origine, seleziona File system POSIX.
Seleziona il tipo di destinazione e fai clic su Passaggio successivo.
Seleziona un pool di agenti esistente o seleziona Crea pool di agenti e segui le istruzioni per creare un nuovo pool.
Specifica il percorso completo della directory del file system.
Fai clic su Passaggio successivo.
HDFS
Elenco URL
In Tipo di origine, seleziona Elenco URL e fai clic su Passaggio successivo.
Nella sezione URL del file TSV, fornisci l'URL di un file con valori separati da tabulazioni (TSV). Per maggiori dettagli su come creare il file TSV, consulta la pagina Creare un elenco di URL.
- Se vuoi, scegli di
filtrare gli oggetti per prefisso
o per data dell'ultima modifica. Se hai specificato una cartella come posizione di origine, i filtri dei prefissi
sono relativi a quella cartella. Ad esempio, se l'origine è
my-test-bucket/path/
, un filtro di inclusione difile
include tutti i file che iniziano conmy-test-bucket/path/file
. Fai clic su Passaggio successivo.
Scegli una destinazione:
Cloud Storage
Nel campo Bucket o cartella, inserisci il nome del bucket di destinazione e (facoltativamente) della cartella oppure fai clic su Sfoglia per selezionare un bucket da un elenco di bucket esistenti nel progetto corrente. Per creare un nuovo bucket, fai clic su
Crea nuovo bucket.
Fai clic su Passaggio successivo.
Scegli le opzioni di pianificazione:
Dall'elenco a discesa Esegui una volta, seleziona una delle seguenti opzioni:
Esegui una volta: esegue un singolo trasferimento, a partire dal momento che selezioni.
Esegui ogni giorno: esegue un trasferimento ogni giorno, a partire dall'ora che selezioni.
Puoi inserire una Data di fine facoltativa o lasciare vuoto il campo Data di fine per eseguire il trasferimento in modo continuo.
Esegui ogni settimana: esegue un trasferimento settimanale a partire dall'ora che selezioni.
Esegui con frequenza personalizzata: esegue un trasferimento con una frequenza che selezioni. Puoi scegliere di ripetere il trasferimento a un intervallo regolare di ore, giorni o settimane.
Puoi inserire una Data di fine facoltativa o lasciare vuoto il campo Data di fine per eseguire il trasferimento in modo continuo.
Dall'elenco a discesa Starting now (A partire da ora), seleziona una delle seguenti opzioni:
A partire da ora: avvia il trasferimento dopo che fai clic su Crea.
A partire dal giorno: avvia il trasferimento nella data e nell'ora che selezioni. Fai clic su Calendario per visualizzare un calendario per selezionare la data di inizio.
Fai clic su Passaggio successivo.
Scegli le impostazioni per il job di trasferimento. Alcune opzioni sono disponibili solo per determinate combinazioni di sorgente/destinazione.
Nel campo Descrizione, inserisci una descrizione del trasferimento. Come best practice, inserisci una descrizione significativa e univoca in modo da poter distinguere i job.
In Opzioni metadati, scegli di utilizzare le opzioni predefinite o fai clic su Visualizza e seleziona opzioni per specificare i valori per tutti i metadati supportati. Per i dettagli, vedi Conservazione dei metadati.
In Quando sovrascrivere, seleziona una delle seguenti opzioni:
Se diverso: sovrascrive i file di destinazione se il file di origine con lo stesso nome ha ETag o valori di checksum diversi.
Sempre: sovrascrive sempre i file di destinazione quando il file di origine ha lo stesso nome, anche se sono identici.
In Quando eliminare, seleziona una delle seguenti opzioni:
Mai: non eliminare mai i file dall'origine o dalla destinazione.
Elimina i file dall'origine dopo il trasferimento: elimina i file dall'origine dopo il trasferimento alla destinazione. Se un file di origine non viene trasferito, ad esempio perché esiste già nella destinazione, non viene eliminato.
Elimina i file dalla destinazione se non sono presenti anche nell'origine: se i file nel bucket Cloud Storage di destinazione non sono presenti anche nell'origine, elimina i file dal bucket Cloud Storage.
Questa opzione garantisce che il bucket Cloud Storage di destinazione corrisponda esattamente all'origine.
Per i trasferimenti tra bucket Cloud Storage, scegli se trasferire le cartelle gestite.
Attiva o disattiva la registrazione per Storage Transfer Service.
Nella sezione Opzioni di notifica, seleziona facoltativamente l'argomento Pub/Sub e gli eventi per cui ricevere notifiche. Per maggiori dettagli, consulta la sezione Notifiche Pub/Sub.
Se stai delegando le autorizzazioni dell'agente di servizio a un account di servizio gestito dall'utente, seleziona questa opzione e inserisci l'indirizzo email del account di servizio nel formato
SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
.Fai clic su Crea.
File system
Seleziona un pool di agenti esistente o seleziona Crea pool di agenti e segui le istruzioni per creare un nuovo pool.
Specifica il percorso della directory di destinazione completo.
Fai clic su Passaggio successivo.
Scegli le opzioni di pianificazione:
Dall'elenco a discesa Esegui una volta, seleziona una delle seguenti opzioni:
Esegui una volta: esegue un singolo trasferimento, a partire dal momento che selezioni.
Esegui ogni giorno: esegue un trasferimento ogni giorno, a partire dall'ora che selezioni.
Puoi inserire una Data di fine facoltativa o lasciare vuoto il campo Data di fine per eseguire il trasferimento in modo continuo.
Esegui ogni settimana: esegue un trasferimento settimanale a partire dall'ora che selezioni.
Esegui con frequenza personalizzata: esegue un trasferimento con una frequenza che selezioni. Puoi scegliere di ripetere il trasferimento a un intervallo regolare di ore, giorni o settimane.
Puoi inserire una Data di fine facoltativa o lasciare vuoto il campo Data di fine per eseguire il trasferimento in modo continuo.
Dall'elenco a discesa Starting now (A partire da ora), seleziona una delle seguenti opzioni:
A partire da ora: avvia il trasferimento dopo che fai clic su Crea.
A partire dal giorno: avvia il trasferimento nella data e nell'ora che selezioni. Fai clic su Calendario per visualizzare un calendario per selezionare la data di inizio.
Fai clic su Passaggio successivo.
Specifica se utilizzare un file manifest.
Seleziona se conservare i metadati, quando sovrascrivere e quando eliminare i file nell'origine o nella destinazione.
Seleziona le opzioni di logging.
Nella sezione Opzioni di notifica, seleziona facoltativamente l'argomento Pub/Sub e gli eventi per cui ricevere notifiche. Per maggiori dettagli, consulta la sezione Notifiche Pub/Sub.
Se stai delegando le autorizzazioni dell'agente di servizio a un account di servizio gestito dall'utente, seleziona questa opzione e inserisci l'indirizzo email del account di servizio nel formato
SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
.Per creare il job di trasferimento, fai clic su Crea.
Interfaccia a riga di comando gcloud
Per creare un nuovo job di trasferimento, utilizza il comando gcloud transfer jobs create
. La creazione di un nuovo job avvia il trasferimento specificato, a meno che non sia specificata una pianificazione o un --do-not-run
.
gcloud transfer jobs create \
SOURCE DESTINATION
Dove:
SOURCE è l'origine dati per questo trasferimento. Il formato per ogni fonte è:
- Cloud Storage:
gs://BUCKET_NAME
. Per eseguire il trasferimento da una cartella specifica, specificags://BUCKET_NAME/FOLDER_PATH/
, inclusa la barra finale. - Amazon S3:
s3://BUCKET_NAME/FOLDER_PATH
- Spazio di archiviazione compatibile con S3:
s3://BUCKET_NAME
. Il nome del bucket è relativo all'endpoint. Ad esempio, se i tuoi dati si trovano inhttps://us-east-1.example.com/folder1/bucket_a
, inseriscis3://folder1/bucket_a
. - Archiviazione Microsoft Azure:
https://myaccount.blob.core.windows.net/CONTAINER_NAME
- Elenco URL:
https://PATH_TO_URL_LIST
ohttp://PATH_TO_URL_LIST
- File system POSIX:
posix:///PATH
. Deve essere un percorso assoluto dalla radice della macchina host dell'agente. - HDFS:
hdfs:///PATH
- Cloud Storage:
DESTINATION è uno dei seguenti:
- Cloud Storage:
gs://BUCKET_NAME
. Per trasferire in una directory specifica, specificags://BUCKET_NAME/FOLDER_PATH/
, inclusa la barra finale. - File system POSIX:
posix:///PATH
. Deve essere un percorso assoluto dalla radice della macchina host dell'agente.
- Cloud Storage:
Se il trasferimento richiede agenti di trasferimento, sono disponibili le seguenti opzioni:
--source-agent-pool
specifica il pool di agenti di origine da utilizzare per questo trasferimento. Obbligatorio per i trasferimenti provenienti da un file system.--destination-agent-pool
specifica il pool di agenti di destinazione da utilizzare per questo trasferimento. Obbligatorio per i trasferimenti a un file system.--intermediate-storage-path
è il percorso di un bucket Cloud Storage, nel formatogs://my-intermediary-bucket
. Obbligatorio per i trasferimenti tra due file system. Per informazioni dettagliate sulla creazione del bucket intermedio, consulta Creare un bucket Cloud Storage come intermediario.
Altre opzioni sono:
--source-creds-file
specifica il percorso relativo a un file locale sulla tua macchina che include le credenziali AWS o Azure per l'origine del trasferimento. Per informazioni sulla formattazione dei file delle credenziali, consulta il riferimento TransferSpec.--do-not-run
impedisce a Storage Transfer Service di eseguire il job al momento dell'invio del comando. Per eseguire il job, aggiornalo per aggiungere una pianificazione oppure utilizzajobs run
per avviarlo manualmente.--manifest-file
specifica il percorso di un file CSV in Cloud Storage contenente un elenco di file da trasferire dall'origine. Per la formattazione del file manifest, vedi Trasferimento di file o oggetti specifici utilizzando un manifest.Informazioni sul lavoro: puoi specificare
--name
,--description
e--source-creds-file
.Programmazione: specifica
--schedule-starts
,--schedule-repeats-every
e--schedule-repeats-until
o--do-not-run
.Condizioni degli oggetti: utilizza le condizioni per determinare quali oggetti vengono trasferiti. Questi includono
--include-prefixes
e--exclude-prefixes
, nonché le condizioni basate sul tempo in--include-modified-[before | after]-[absolute | relative]
. Se hai specificato una cartella con l'origine, i filtri dei prefissi sono relativi a quella cartella. Per saperne di più, consulta Filtrare gli oggetti di origine per prefisso.Le condizioni degli oggetti non sono supportate per i trasferimenti che coinvolgono i file system.
Opzioni di trasferimento: specifica se sovrascrivere i file di destinazione (
--overwrite-when=different
oalways
) e se eliminare determinati file durante o dopo il trasferimento (--delete-from=destination-if-unique
osource-after-transfer
); specifica quali valori dei metadati conservare (--preserve-metadata
) e, facoltativamente, imposta una classe di archiviazione sugli oggetti trasferiti (--custom-storage-class
).Notifiche: configura le notifiche Pub/Sub per i trasferimenti con
--notification-pubsub-topic
,--notification-event-types
e--notification-payload-format
.Cloud Logging: abilita Cloud Logging per i trasferimenti senza agenti o dai sorgenti compatibili con S3, con
--log-actions
e--log-action-states
. Per i dettagli, consulta Cloud Logging per Storage Transfer Service.
I trasferimenti dalle origini compatibili con S3 utilizzano anche le seguenti opzioni:
--source-endpoint
(obbligatorio) specifica l'endpoint del sistema di archiviazione. Ad esempio,s3.example.com
. Rivolgiti al tuo fornitore per la formattazione corretta. Non specificare il protocollo (http://
ohttps://
).--source-signing-region
specifica una regione per la firma delle richieste. Ometti questo flag se il provider di spazio di archiviazione non richiede una regione di firma.--source-auth-method
specifica il metodo di autenticazione da utilizzare. I valori validi sonoAWS_SIGNATURE_V2
oAWS_SIGNATURE_V4
. Per saperne di più, consulta la documentazione di Amazon su SigV4 e SigV2.--source-request-model
specifica lo stile di indirizzamento da utilizzare. I valori validi sonoPATH_STYLE
oVIRTUAL_HOSTED_STYLE
. Lo stile del percorso utilizza il formatohttps://s3.example.com/BUCKET_NAME/KEY_NAME
. Lo stile con hosting virtuale utilizza il formato `https://BUCKET_NAME.s3.example.com/KEY_NAME.--source-network-protocol
specifica il protocollo di rete che gli agenti devono utilizzare per questo job. I valori validi sonoHTTP
oHTTPS
.--source-list-api
specifica la versione dell'API Listing S3 per restituire gli oggetti dal bucket. I valori validi sonoLIST_OBJECTS
oLIST_OBJECTS_V2
. Per saperne di più, consulta la documentazione di Amazon su ListObjectsV2 e ListObjects.
Per visualizzare tutte le opzioni, esegui gcloud transfer jobs create --help
o consulta la
documentazione di riferimento di gcloud
.
Esempi
Da Amazon S3 a Cloud Storage
Consulta Trasferimento da Amazon S3 a Cloud Storage.
Da spazio di archiviazione compatibile con S3 a Cloud Storage
Consulta Trasferimento dallo spazio di archiviazione compatibile con S3 a Cloud Storage.
Da file system a Cloud Storage
Consulta Trasferimento da un file system a Cloud Storage.
Da Cloud Storage al file system
Per il trasferimento da un bucket Cloud Storage a un file system, specifica quanto segue.
gcloud transfer jobs create \
gs://my-storage-bucket posix:///tmp/destination \
--destination-agent-pool=my-destination-agent-pool
Da file system a file system
Per il trasferimento tra due file system, devi specificare un pool di agenti di origine, un pool di agenti di destinazione e un bucket Cloud Storage intermedio attraverso il quale passano i dati.
Per informazioni dettagliate sul bucket intermedio, consulta Creare un bucket Cloud Storage come intermediario.
Poi, specifica queste tre risorse quando chiami transfer jobs create
:
gcloud transfer jobs create \
posix:///tmp/source/on/systemA posix:///tmp/destination/on/systemB \
--source-agent-pool=source_agent_pool \
--destination-agent-pool=destination_agent_pool \
--intermediate-storage-path=gs://my-intermediary-bucket
REST
Gli esempi riportati di seguito mostrano come utilizzare Storage Transfer Service tramite l'API REST.
Quando configuri o modifichi i job di trasferimento utilizzando l'API Storage Transfer Service, l'ora deve essere in formato UTC. Per saperne di più su come specificare la pianificazione di un job di trasferimento, consulta la sezione Pianificazione.
Trasferimento tra bucket Cloud Storage
In questo esempio, imparerai a spostare i file da un bucket Cloud Storage a un altro. Ad esempio, puoi spostare i dati in un bucket in un'altra posizione.
Richiesta tramite transferJobs create:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME" }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
200 OK { "transferJob": [ { "creationTime": "2015-01-01T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2015-01-01T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", }, "gcsDataSink": { "bucketName": "GCS_NEARLINE_SINK_NAME" }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000.000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } } ] }
Trasferimento da Amazon S3 a Cloud Storage
Consulta Trasferimento da Amazon S3 a Cloud Storage.
Trasferimento tra Microsoft Azure Blob Storage e Cloud Storage
In questo esempio, imparerai a spostare i file da Microsoft Azure Storage a un bucket Cloud Storage utilizzando un token di firma di accesso condiviso (SAS) di Microsoft Azure Storage.
Per ulteriori informazioni sulla firma di accesso condiviso di Microsoft Azure Storage, consulta Concedere l'accesso limitato alle risorse di Azure Storage utilizzando le firme di accesso condiviso (SAS).
Prima di iniziare, consulta Configurare l'accesso a Microsoft Azure Storage e Prezzi per comprendere le implicazioni del trasferimento dei dati da Microsoft Azure Storage a Cloud Storage.
Richiesta utilizzando transferJobs create:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14, "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14 "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
200 OK { "transferJob": [ { "creationTime": "2020-02-14T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2020-02-14T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14 "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14, "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "objectConditions": {}, "transferOptions": {} } } ] }
Trasferire da un file system
Consulta Trasferimento da un file system a Cloud Storage.
Specificare i percorsi di origine e destinazione
I percorsi di origine e destinazione consentono di specificare le directory di origine e destinazione durante il trasferimento dei dati al bucket Cloud Storage. Ad esempio, supponiamo di avere i file file1.txt
e file2.txt
e un bucket Cloud Storage denominato B
. Se imposti un percorso di destinazione denominato
my-stuff
, al termine del trasferimento i file si trovano in
gs://B/my-stuff/file1.txt
e gs://B/my-stuff/file2.txt
.
Specificare un percorso di origine
Per specificare un percorso di origine durante la creazione di un job di trasferimento, aggiungi un campo path
al campo gcsDataSource
nella specifica TransferSpec
:
{ gcsDataSource: { bucketName: "SOURCE_BUCKET", path: "SOURCE_PATH/", }, }
In questo esempio:
- SOURCE_BUCKET: il bucket Cloud Storage di origine.
- SOURCE_PATH: il percorso Cloud Storage di origine.
Specificare un percorso di destinazione
Per specificare una cartella di destinazione quando crei un job di trasferimento, aggiungi un campo path
al campo gcsDataSink
nella specifica TransferSpec
:
{ gcsDataSink: { bucketName: "DESTINATION_BUCKET", path: "DESTINATION_PATH/", }, }
In questo esempio:
- DESTINATION_BUCKET: il bucket Cloud Storage di destinazione.
- DESTINATION_PATH: il percorso Cloud Storage di destinazione.
Richiesta di esempio completa
Di seguito è riportato un esempio di richiesta completa:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", "path": "GCS_SOURCE_PATH", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME", "path": "GCS_SINK_PATH", }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
Librerie client
Gli esempi seguenti mostrano come utilizzare Storage Transfer Service a livello di programmazione con Go, Java, Node.js e Python.
Quando configuri o modifichi i job di trasferimento in modo programmatico, l'ora deve essere in formato UTC. Per saperne di più su come specificare la pianificazione di un job di trasferimento, consulta la sezione Pianificazione.
Per ulteriori informazioni sulle librerie client di Storage Transfer Service, consulta Guida introduttiva alle librerie client di Storage Transfer Service.
Trasferimento tra bucket Cloud Storage
In questo esempio, imparerai a spostare i file da un bucket Cloud Storage a un altro. Ad esempio, puoi spostare i dati in un bucket in un'altra posizione.
Vai
Java
Cerchi campioni precedenti? Consulta la guida alla migrazione di Storage Transfer Service.
Node.js
Python
Cerchi campioni precedenti? Consulta la guida alla migrazione di Storage Transfer Service.
Trasferimento da Amazon S3 a Cloud Storage
Consulta Trasferimento da Amazon S3 a Cloud Storage.
Trasferimento tra Microsoft Azure Blob Storage e Cloud Storage
In questo esempio, imparerai a spostare i file da Microsoft Azure Storage a un bucket Cloud Storage utilizzando un token di firma di accesso condiviso (SAS) di Microsoft Azure Storage.
Per ulteriori informazioni sulla firma di accesso condiviso di Microsoft Azure Storage, consulta Concedere l'accesso limitato alle risorse di Azure Storage utilizzando le firme di accesso condiviso (SAS).
Prima di iniziare, consulta Configurare l'accesso a Microsoft Azure Storage e Prezzi per comprendere le implicazioni del trasferimento dei dati da Microsoft Azure Storage a Cloud Storage.
Go
Per scoprire come installare e utilizzare la libreria client per Storage Transfer Service, consulta Librerie client di Storage Transfer Service. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Go di Storage Transfer Service.
Per eseguire l'autenticazione in Storage Transfer Service, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Per scoprire come installare e utilizzare la libreria client per Storage Transfer Service, consulta Librerie client di Storage Transfer Service. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Storage Transfer Service.
Per eseguire l'autenticazione in Storage Transfer Service, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per scoprire come installare e utilizzare la libreria client per Storage Transfer Service, consulta Librerie client di Storage Transfer Service. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Storage Transfer Service.
Per eseguire l'autenticazione in Storage Transfer Service, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare e utilizzare la libreria client per Storage Transfer Service, consulta Librerie client di Storage Transfer Service. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Storage Transfer Service.
Per eseguire l'autenticazione in Storage Transfer Service, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.