このページでは、転送ジョブを作成して開始する方法について説明します。
ソースと宛先(シンクとも呼ばれます)が Storage Transfer Service でサポートされているかどうかを確認するには、サポートされているソースとシンクをご覧ください。
エージェントとエージェント プール
転送元と転送先によっては、エージェント プールの作成と構成を行い、転送元または転送先にアクセスできるマシンにエージェントをインストールする必要がある場合があります。
Amazon S3、Microsoft Azure、URL リスト、Cloud Storage から Cloud Storage への転送には、エージェントとエージェント プールは必要ありません。
ソースと宛先がファイル システムである転送、または S3 互換ストレージからの転送には、エージェントとエージェント プールが必要です。手順については、エージェント プールの管理をご覧ください。
準備
転送を構成する前に、次のアクセス権が構成されていることを確認してください。
- ユーザーとサービス アカウント。
- ソースデータと宛先。
gcloud
コマンドを使用している場合は、gcloud CLI をインストールしてください。
転送を作成
転送ジョブ名に、個人を特定できる情報(PII)やセキュリティ データなどの機密情報を含めないでください。リソース名は、他の Google Cloud リソースの名前に反映され、プロジェクト外部の Google 内部システムに公開される場合があります。
Google Cloud コンソール
Google Cloud コンソールの [Storage Transfer Service] ページに移動します。
[転送ジョブを作成] をクリックします。[転送ジョブの作成] ページが表示されます。
ソースを選択します。
Cloud Storage
ソースバケットと宛先バケットを選択するには、ユーザー アカウントに storage.buckets.get 権限が必要です。バケットの名前を直接入力することもできます。詳細については、アクセスのトラブルシューティングをご覧ください。
[参照元の種類] で、[Google Cloud Storage] を選択します。
[宛先の種類] を選択します。
宛先が Cloud Storage の場合は、スケジュール モードを選択します。バッチ転送は、1 回限りまたはスケジュールに基づいて実行されます。イベント ドリブン転送は、ソースを継続的にモニタリングし、追加や変更が行われるとデータを転送します。
イベント ドリブン転送を構成するには、イベント ドリブン転送の手順を実施します。
[次のステップ] をクリックします。
次のいずれかの方法で、バケットとそのバケット内のフォルダ(必要に応じて)を選択します。
[バケットまたはフォルダ] フィールドに、接頭辞
gs://
を付けずに既存の Cloud Storage バケット名とパスを入力します。例:my-test-bucket/path/to/files
。別のプロジェクトの Cloud Storage バケットを指定するには、[バケット名] フィールドに名前を正確に入力します。[参照] をクリックしてバケットを選択し、プロジェクト内の既存のバケットのリストを選択します。
[参照] をクリックし、[プロジェクト ID] をクリックして新しいプロジェクト ID とバケットを選択すると、他のプロジェクトのバケットを選択できます。
新しいバケットを作成するには、[新しいバケットを作成] をクリックします。
イベント ドリブン転送の場合は、Pub/Sub サブスクリプション名を入力します。これは、次の形式になります。
projects/PROJECT_NAME/subscriptions/SUBSCRIPTION_ID
- 必要に応じて、オブジェクトを接頭辞でフィルタするか、最終更新日でフィルタします。ソースの場所としてフォルダを指定した場合、接頭辞フィルタはそのフォルダを基準とします。たとえば、ソースが
my-test-bucket/path/
の場合、file
の一致フィルタにはmy-test-bucket/path/file
で始まるすべてのファイルが含まれます。 [次のステップ] をクリックします。
Amazon S3
Amazon S3 から Cloud Storage へ転送するをご覧ください。
S3 互換ストレージ
S3 互換ストレージから Cloud Storage へ転送するをご覧ください。
Microsoft Azure Blob Storage
[参照元の種類] で、[Azure Blob Storage または Data Lake Storage Gen2] を選択します。
[次のステップ] をクリックします。
以下を指定します。
ストレージ アカウント名 - ソースの Microsoft Azure Storage アカウント名。
ストレージ アカウント名は、Microsoft Azure Storage ポータルの [すべてのサービス] > [ストレージ] > [ストレージ アカウント] に表示されます。
コンテナ名 - Microsoft Azure Storage のコンテナ名。
コンテナ名は、Microsoft Azure Storage ポータルの [ストレージ エクスプローラー] > [BLOB コンテナー] に表示されます。
Shared Access Signature(SAS) - 格納されているアクセス ポリシーから作成された Microsoft Azure Storage SAS のトークン。 詳細については、Shared Access Signature(SAS)を使用した Azure Storage リソースへのアクセスの制限を付与するをご覧ください。
SAS トークンのデフォルトの有効期限は 8 時間です。SAS トークンを作成する際は、転送を正常に完了できるように、十分な有効期限を設定してください。
- 必要に応じて、オブジェクトを接頭辞でフィルタするか、最終更新日でフィルタします。ソースの場所としてフォルダを指定した場合、接頭辞フィルタはそのフォルダを基準とします。たとえば、ソースが
my-test-bucket/path/
の場合、file
の一致フィルタにはmy-test-bucket/path/file
で始まるすべてのファイルが含まれます。 [次のステップ] をクリックします。
ファイル システム
[転送元の種類] で、[POSIX ファイル システム] を選択します。
転送先の種類を選択し、[次のステップ] をクリックします。
既存のエージェント プールを選択するか、[エージェント プールの作成] を選択し、手順に沿って新しいプールを作成します。
ファイル システム ディレクトリの完全修飾パスを指定します。
[次のステップ] をクリックします。
HDFS
HDFS から Cloud Storage への転送をご覧ください。
URL リスト
[転送元の種類] で、[URL リスト] を選択し、[次のステップ] をクリックします。
[TSV ファイルの URL] で、タブ区切りの値(TSV)ファイルの URL を指定します。TSV ファイルを作成する方法について詳しくは、URL リストの作成をご覧ください。
- 必要に応じて、オブジェクトを接頭辞でフィルタするか、最終更新日でフィルタします。ソースの場所としてフォルダを指定した場合、接頭辞フィルタはそのフォルダを基準とします。たとえば、ソースが
my-test-bucket/path/
の場合、file
の一致フィルタにはmy-test-bucket/path/file
で始まるすべてのファイルが含まれます。 [次のステップ] をクリックします。
転送先の選択:
Cloud Storage
[バケットまたはフォルダ] フィールドに、転送先バケットと(必要に応じて)フォルダ名を入力するか、[参照] をクリックして、現在のプロジェクトにある既存のバケット リストからバケットを選択します。新しいバケットを作成するには、[新しいバケットを作成] をクリックします。
[次のステップ] をクリックします。
転送ジョブの設定を選択します。一部のオプションは、特定のソースとシンクの組み合わせでのみ使用できます。
[説明] フィールドに、転送の説明を入力します。ジョブを区別できるように、意味のある一意の説明を入力することをおすすめします。
[メタデータのオプション] で、デフォルトのオプションを使用するか、[オプションを表示して選択する] をクリックして、サポートされているすべてのメタデータの値を指定します。詳細については、メタデータの保持をご覧ください。
[上書きの条件] で、次のいずれかを選択します。
異なる場合: ソースファイルの名前が同じで ETag またはチェックサムの値が異なる場合、宛先ファイルを上書きします。
常に: ソースファイルが同じ名前の場合、同一であっても常に宛先ファイルを上書きします。
[削除のタイミング] で、次のいずれかを選択します。
なし: ソースと宛先のどちらからもファイルを削除しません。
転送後にソースからファイルを削除する: 転送先に移行した後、ソースからファイルを削除します。
転送元にもないファイルを転送先から削除する: 転送先の Cloud Storage バケット内のファイルが転送元にもない場合は、Cloud Storage バケットからファイルを削除します。
このオプションにより、宛先の Cloud Storage バケットが移行元と完全に一致することが保証されます。
[通知オプション] で、Pub/Sub トピックと通知するイベントを選択します。詳細については、Pub/Sub 通知をご覧ください。
[次のステップ] をクリックします。
ファイル システム
既存のエージェント プールを選択するか、[エージェント プールの作成] を選択し、手順に沿って新しいプールを作成します。
宛先ディレクトリの完全修飾パスを指定します。
[次のステップ] をクリックします。
スケジュール オプションを選択します。
[1 回だけ実行] プルダウン リストから、次のいずれかを選択します。
1 回だけ実行: 選択した時間に、1 回だけ転送を行います。
毎日実行: 転送は毎日、選択した時刻に開始されます。
オプションの [終了日] を入力することも、[終了日] を空白のままにして転送を継続的に実行することもできます。
毎週実行: 選択した時間に毎週転送を実行します。
カスタム頻度で実行: 選択した頻度で転送を実行します。転送は、時間、日、週の間隔で定期的に繰り返すように設定できます。
オプションの [終了日] を入力することも、[終了日] を空白のままにして転送を継続的に実行することもできます。
[今すぐ開始] プルダウン リストから、次のいずれかを選択します。
今すぐ開始: [作成] をクリックすると転送が開始されます。
開始日: 選択した日時に転送を開始します。[カレンダー] をクリックして、カレンダーから開始日を選択します。
転送ジョブを作成するには、[作成] をクリックします。
gcloud CLI
新しい転送ジョブを作成するには、gcloud transfer jobs create
コマンドを使用します。スケジュールまたは --do-not-run
が指定されていない限り、新しいジョブを作成すると、指定された転送が開始します。
gcloud transfer jobs create \
SOURCE DESTINATION
ここで
SOURCE は、この転送のデータソースです。各ソースの形式は次のとおりです。
- Cloud Storage:
gs://BUCKET_NAME
。特定のフォルダから転送するには、末尾のスラッシュを含めてgs://BUCKET_NAME/FOLDER_PATH/
を指定します。 - Amazon S3:
s3://BUCKET_NAME/FOLDER_PATH
- S3 互換ストレージ:
s3://BUCKET_NAME
バケット名はエンドポイントからの相対名です。たとえば、データがhttps://us-east-1.example.com/folder1/bucket_a
に存在する場合、s3://folder1/bucket_a
と入力します。 - Microsoft Azure Storage:
https://myaccount.blob.core.windows.net/CONTAINER_NAME
- URL リスト:
https://PATH_TO_URL_LIST
またはhttp://PATH_TO_URL_LIST
- POSIX ファイル システム:
posix:///PATH
。これは、エージェント ホストマシンのルートからの絶対パスである必要があります。 - HDFS:
hdfs:///PATH
- Cloud Storage:
DESTINATION は次のいずれかです。
- Cloud Storage:
gs://BUCKET_NAME
。特定のディレクトリに転送するには、末尾のスラッシュを含めてgs://BUCKET_NAME/FOLDER_PATH/
を指定します。 - POSIX ファイル システム:
posix:///PATH
. これは、エージェント ホストマシンのルートからの絶対パスである必要があります。
- Cloud Storage:
転送で転送エージェントが必要な場合、次のオプションを使用できます。
--source-agent-pool
には、この転送に使用するソース エージェント プールを指定します。ファイル システムからの転送の場合は必須。--destination-agent-pool
には、この転送に使用する転送先エージェント プールを指定します。ファイル システムへの転送の場合は必須。--intermediate-storage-path
は、Cloud Storage バケットへのパスです(形式はgs://my-intermediary-bucket
)。2 つのファイル システム間の転送の場合は必須。中間バケットの作成の詳細については、中間ストレージとして Cloud Storage バケットを作成するをご覧ください。
上記以外に次のようなオプションがあります。
--source-creds-file
には、転送元の AWS または Azure 認証情報を含むマシン上のローカル ファイルへの相対パスを指定します。認証情報ファイルの形式については、TransferSpec のリファレンスをご覧ください。--do-not-run
は、コマンドの送信時に Storage Transfer Service がジョブを実行しないようにします。ジョブを実行するには、更新してスケジュールを追加するか、jobs run
を使用して手動で開始します。--manifest-file
には、ソースから転送するファイルのリストを含む Cloud Storage 内の CSV ファイルのパスを指定します。マニフェスト ファイルの形式については、マニフェストを使用して特定のファイルまたはオブジェクトを転送するをご覧ください。ジョブ情報:
--name
、--description
、--source-creds-file
を指定できます。スケジュール:
--schedule-starts
、--schedule-repeats-every
、--schedule-repeats-until
、または--do-not-run
を指定します。オブジェクト条件: 条件を使用して、転送するオブジェクトを決定します。これには、
--include-prefixes
と--exclude-prefixes
、--include-modified-[before | after]-[absolute | relative]
の時間ベースの条件が含まれます。ソースでフォルダを指定した場合、接頭辞フィルタはそのフォルダを基準とします。詳細については、ソース オブジェクトを前方一致でフィルタするをご覧ください。オブジェクト条件は、ファイル システムに関連する転送ではサポートされません。
転送オプション: 宛先ファイルを上書きするかどうか(
--overwrite-when=different
またはalways
)、転送中または転送後に特定のファイルを削除するかどうか(--delete-from=destination-if-unique
またはsource-after-transfer
)を指定します。保持するメタデータ値(--preserve-metadata
)を指定することや、転送されたオブジェクトにストレージ クラスを設定することもできます(--custom-storage-class
)。通知:
--notification-pubsub-topic
、--notification-event-types
、--notification-payload-format
を使用して、転送の Pub/Sub 通知を構成します。Cloud Logging:
--log-actions
と--log-action-states
を使用して、エージェントレス転送または S3 互換ソースからの転送に対して Cloud Logging を有効にします。詳細については、Storage Transfer Service の Cloud Logging をご覧ください。
S3 互換ソースからの転送でも、次のオプションが使用されます。
--source-endpoint
(必須) には、ストレージ システムのエンドポイントを指定します。例:s3.example.com
正しい形式についてはプロバイダにお問い合わせください。プロトコル(http://
またはhttps://
)は指定しないでください。--source-signing-region
には、リクエストに署名するリージョンを指定します。ストレージ プロバイダが署名のリージョンを必要としない場合は、このフラグを省略します。--source-auth-method
には、使用する認証方法を指定します。有効な値はAWS_SIGNATURE_V2
またはAWS_SIGNATURE_V4
です。詳しくは、Amazon の SigV4 と SigV2 のドキュメントをご覧ください。--source-request-model
には、使用するアドレス指定スタイルを指定します。有効な値はPATH_STYLE
またはVIRTUAL_HOSTED_STYLE
です。 パススタイルにはhttps://s3.example.com/BUCKET_NAME/KEY_NAME
の形式を使用します。仮想ホストスタイルでは、https://BUCKET_NAME.s3..example.com/KEY_NAMEの形式を使用します。--source-network-protocol
には、エージェントがこのジョブに使用するネットワーク プロトコルを指定します。有効な値はHTTP
またはHTTPS
です。--source-list-api
には、バケットからオブジェクトを返すための S3 Listing API のバージョンを指定します。有効な値はLIST_OBJECTS
またはLIST_OBJECTS_V2
です。詳しくは、Amazon の ListObjectsV2 と ListObjects のドキュメントをご覧ください。
すべてのオプションを表示するには、gcloud transfer jobs create --help
を実行するか、gcloud
リファレンス ドキュメントをご覧ください。
Examples
Amazon S3 から Cloud Storage
Amazon S3 から Cloud Storage へ転送するをご覧ください。
S3 互換ストレージから Cloud Storage
S3 互換ストレージから Cloud Storage へ転送するをご覧ください。
ファイル システムから Cloud Storage
ファイル システムから Cloud Storage へ転送するをご覧ください。
Cloud Storage からファイル システム
Cloud Storage バケットからファイル システムに転送するには、次のように指定します。
gcloud transfer jobs create \
gs://my-storage-bucket posix:///tmp/destination \
--destination-agent-pool=my-destination-agent-pool
ファイル システム間
2 つのファイル システム間で転送するには、ソース エージェント プール、宛先エージェント プール、およびデータが通過する中間 Cloud Storage バケットを指定する必要があります。
中間バケットの詳細については、中間ストレージとして Cloud Storage バケットを作成するをご覧ください。
transfer jobs create
を呼び出すときに、次の 3 つのリソースを指定します。
gcloud transfer jobs create \
posix:///tmp/source/on/systemA posix:///tmp/destination/on/systemB \
--source-agent-pool=source_agent_pool \
--destination-agent-pool=destination_agent_pool \
--intermediate-storage-path=gs://my-intermediary-bucket
REST
次のサンプルは、REST API を介して Storage Transfer Service を使用する方法を示しています。
Storage Transfer Service API を使用して転送ジョブを構成または編集する場合は、時刻を UTC で設定してください。転送ジョブのスケジュールの指定方法について詳しくは、スケジュールをご覧ください。
Cloud Storage バケット間の転送
この例では、Cloud Storage バケット間でファイルを移動する方法について説明します。たとえば、別のロケーションのバケットにデータを複製できます。
transferJobs create を使ってリクエストします。
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME" }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
200 OK { "transferJob": [ { "creationTime": "2015-01-01T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2015-01-01T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", }, "gcsDataSink": { "bucketName": "GCS_NEARLINE_SINK_NAME" }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000.000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } } ] }
Amazon S3 から Cloud Storage への転送
Amazon S3 から Cloud Storage へ転送するをご覧ください。
Microsoft Azure Blob Storage と Cloud Storage の間の転送
この例では、Microsoft Azure Storage の共有アクセス署名(SAS)トークンを使用して、Microsoft Azure Storage から Cloud Storage バケットにファイルを移動する方法について学習します。
Microsoft Azure Storage SAS の詳細については、Shared Access Signature(SAS)を使用した Azure Storage リソースへのアクセスの制限を付与するをご覧ください。
開始する前に、Microsoft Azure Storage へのアクセスを構成すると料金を確認して、Microsoft Azure Storage から Cloud Storage にデータを移動した場合にどのような影響があるかを把握してください。
transferJobs create を使ってリクエストします。
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14, "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14 "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
200 OK { "transferJob": [ { "creationTime": "2020-02-14T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2020-02-14T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14 "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14, "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "objectConditions": {}, "transferOptions": {} } } ] }
ファイル システムから転送する
ファイル システムから Cloud Storage へ転送するをご覧ください。
ソースパスと宛先パスの指定
転送元と転送先のパスを使用すると、Cloud Storage バケットにデータを転送するときに、転送元と転送先のディレクトリを指定できます。たとえば、file1.txt
、file2.txt
というファイルと、B
という Cloud Storage バケットがあるとします。my-stuff
という転送先パスを設定した場合、転送の完了後、ファイルは gs://B/my-stuff/file1.txt
と gs://B/my-stuff/file2.txt
に配置されます。
転送元パスの指定
転送ジョブを作成するときに転送元パスを指定するには、TransferSpec
仕様の gcsDataSource
フィールドに path
フィールドを追加します。
{ gcsDataSource: { bucketName: "SOURCE_BUCKET", path: "SOURCE_PATH/", }, }
この例では次のようになります。
- SOURCE_BUCKET: 転送元の Cloud Storage バケット。
- SOURCE_PATH: 転送元の Cloud Storage のパス。
転送先のパスの指定
転送ジョブを作成するときに転送先フォルダを指定するには、TransferSpec
仕様の gcsDataSink
フィールドに path
フィールドを追加します。
{ gcsDataSink: { bucketName: "DESTINATION_BUCKET", path: "DESTINATION_PATH/", }, }
この例では以下の情報が表示されます。
- DESTINATION_BUCKET: 転送先の Cloud Storage バケット。
- DESTINATION_PATH: 転送先の Cloud Storage のパス。
完全なリクエストの例
次に、完全なリクエストの例を示します。
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", "path": "GCS_SOURCE_PATH", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME", "path": "GCS_SINK_PATH", }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
クライアント ライブラリ
次のサンプルは、Go、Java、Node.js、Python のプログラムで Storage Transfer Service を使用する方法を示しています。
転送ジョブをプログラムで構成または編集する場合は、時刻を UTC で設定してください。転送ジョブのスケジュールの指定方法について詳しくは、スケジュールをご覧ください。
Storage Transfer Service クライアント ライブラリの詳細については、Storage Transfer Service クライアント ライブラリ スタートガイドをご覧ください。
Cloud Storage バケット間の転送
この例では、Cloud Storage バケット間でファイルを移動する方法について説明します。たとえば、別のロケーションのバケットにデータを複製できます。
Go
Java
古いサンプルをお探しの場合Storage Transfer Service 移行ガイドをご覧ください。
Node.js
Python
古いサンプルをお探しの場合Storage Transfer Service 移行ガイドをご覧ください。
Amazon S3 から Cloud Storage への転送
Amazon S3 から Cloud Storage へ転送するをご覧ください。
Microsoft Azure Blob Storage と Cloud Storage の間の転送
この例では、Microsoft Azure Storage の共有アクセス署名(SAS)トークンを使用して、Microsoft Azure Storage から Cloud Storage バケットにファイルを移動する方法について学習します。
Microsoft Azure Storage SAS の詳細については、Shared Access Signature(SAS)を使用した Azure Storage リソースへのアクセスの制限を付与するをご覧ください。
開始する前に、Microsoft Azure Storage へのアクセスを構成すると料金を確認して、Microsoft Azure Storage から Cloud Storage にデータを移動した場合にどのような影響があるかを把握してください。
Go
Storage Transfer Service 用のクライアント ライブラリをインストールして使用する方法については、Storage Transfer Service のクライアント ライブラリをご覧ください。 詳細については、Storage Transfer Service Go API のリファレンス ドキュメントをご覧ください。
Storage Transfer Service の認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証の設定をご覧ください。
Java
Storage Transfer Service 用のクライアント ライブラリをインストールして使用する方法については、Storage Transfer Service のクライアント ライブラリをご覧ください。 詳細については、Storage Transfer Service Java API のリファレンス ドキュメントをご覧ください。
Storage Transfer Service の認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証の設定をご覧ください。
Node.js
Storage Transfer Service 用のクライアント ライブラリをインストールして使用する方法については、Storage Transfer Service のクライアント ライブラリをご覧ください。 詳細については、Storage Transfer Service Node.js API のリファレンス ドキュメントをご覧ください。
Storage Transfer Service の認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証の設定をご覧ください。
Python
Storage Transfer Service 用のクライアント ライブラリをインストールして使用する方法については、Storage Transfer Service のクライアント ライブラリをご覧ください。 詳細については、Storage Transfer Service Python API のリファレンス ドキュメントをご覧ください。
Storage Transfer Service の認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証の設定をご覧ください。
ファイル システムから転送する
ファイル システムから Cloud Storage へ転送するをご覧ください。