Auf dieser Seite erfahren Sie, wie Sie Übertragungsjobs von Amazon S3 zu Cloud Storage erstellen und starten.
Berechtigungen konfigurieren
Bevor Sie eine Übertragung erstellen, müssen Sie Berechtigungen für Ihren Amazon S3-Bucket konfigurieren. Weitere Informationen finden Sie unter Zugriff auf eine Quelle konfigurieren: Amazon S3.
Außerdem müssen Sie Berechtigungen für die folgendenGoogle Cloud -Entitäten konfigurieren:
Das Nutzerkonto, das zum Erstellen der Übertragung verwendet wird. Dies ist das Konto, mit dem Sie in der Google Cloud -Konsole angemeldet sind, oder das Konto, das bei der Authentifizierung in der `gcloud`-Befehlszeile angegeben wird. Das Nutzerkonto kann ein reguläres Nutzerkonto oder ein nutzerverwaltetes Dienstkonto sein. | |
Das von Google verwaltete Dienstkonto, auch als Dienst-Agent bezeichnet, das von Storage Transfer Service verwendet wird. Dieses Konto wird in der Regel durch seine E-Mail-Adresse im Format project-PROJECT_NUMBER@storage-transfer-service.iam.gserviceaccount.com identifiziert.
|
Eine Anleitung finden Sie unter Berechtigungen für die agentenlose Übertragung.
Optionen für ausgehenden Traffic
Storage Transfer Service bietet mehrere Optionen für die Übertragung Ihrer S3-Daten zu Cloud Storage.
Option für ausgehenden Traffic | Beschreibung |
---|---|
Standardmäßig ohne Agent | Bei dieser Option wird ein verwalteter, agentenloser Transfer von S3 verwendet. Amazon berechnet Ihnen Gebühren für ausgehenden Traffic.
Folgen Sie der Anleitung auf dieser Seite, um diese Option zu verwenden. |
CloudFront-Verteilung | Verwenden Sie eine Amazon CloudFront-Distribution als Pfad für ausgehenden Traffic. Bei Datenübertragungen über CloudFront können die AWS-Kosten für ausgehenden Traffic niedriger sein als bei Übertragungen direkt von S3. Weitere Informationen finden Sie unter CloudFront-Preise und S3-Ausgangsgebühren.
Folgen Sie der Anleitung unter Übertragung von S3 über CloudFront, um Ihre Verteilung einzurichten und eine Übertragung zu erstellen. |
Verwaltetes privates Netzwerk | Daten über ein von Google verwaltetes Netzwerk übertragen Sie zahlen keine Gebühren für ausgehenden S3-Traffic, sondern einen Preis pro GiB fürGoogle Cloud. Weitere Informationen finden Sie auf der Seite Preise. Möglicherweise werden Ihnen weiterhin Gebühren für Vorgänge von AWS in Rechnung gestellt, z.B. LIST - oder GET -Anrufe); weitere Informationen finden Sie in den jeweiligen Preisübersichten.
Alle Übertragungen von Projekten über das verwaltete private Netzwerk teilen sich dieselbe Bandbreite. Bei hoher Nutzung kann sich die Übertragung verlangsamen. Übertragungen mit großen Dateien sind stärker betroffen als solche mit kleinen Dateien. Folgen Sie der Anleitung auf dieser Seite, um diese Option zu nutzen. Geben Sie in der Google Cloud Console die Option Verwaltetes privates Netzwerk oder in der REST API das Feld managedPrivateNetwork an. Die gcloud CLI und Clientbibliotheken unterstützen keine Übertragungen von verwalteten privaten Netzwerken. Unterstützte Regionen |
Agentengesteuert | Gültig für alle S3-kompatiblen Speicher, einschließlich Amazon S3. Wenn Sie Agent-Software auf Computern mit Zugriff auf Ihre S3-Buckets installieren, können Sie den Netzwerkpfad und die Bandbreite steuern. Für diese Option sind Agents und Agent-Pools erforderlich.
Folgen Sie der Anleitung unter Übertragung von S3-kompatiblen Quellen, um diese Option zu verwenden. |
Unterstützte Regionen
Storage Transfer Service unterstützt die folgenden Amazon S3-Regionen:
af-south-1 ap-east-1 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 |
ap-southeast-4 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2
|
eu-west-3 il-central-1 me-central-1 me-south-1 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2
|
ap-east-1 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ca-central-1 ca-west-1 eu-central-1 eu-central-2 |
eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 us-east-1 us-east-2 us-west-1 us-west-2
|
Übertragungsoptionen
Die folgenden Storage Transfer Service-Funktionen sind für Übertragungen von S3 nach Cloud Storage verfügbar.
- Bestimmte Dateien mithilfe eines Manifests übertragen
- Sie können eine Liste von Dateien übergeben, auf die der Storage Transfer Service reagieren soll. Weitere Informationen finden Sie unter Bestimmte Dateien oder Objekte mithilfe eines Manifests übertragen.
- Quellobjekte nach Präfix oder nach Zeit der letzten Änderung filtern
-
Sie können Objekte basierend auf Dateiname und Pfad oder auf dem Zeitpunkt der letzten Änderung in die Übertragung ein- oder ausschließen.
Präfixfilter werden unter Präfixfilter beschrieben.
Zu den zeitbasierten Filtern gehören:
- Die Mindest- und Höchstzeit, die seit der letzten Änderung vergangen ist. Beide akzeptieren einen Wert in Sekunden, um Objekte zu filtern, die innerhalb eines bestimmten Zeitraums geändert wurden oder nicht.
- „Zuletzt geändert seit“ und „Zuletzt geändert vor“, die beide einen dateTime-Wert akzeptieren.
Zeitbasierte Filter für S3-Übertragungen basieren auf der AWS-Definition von „Zeitpunkt der letzten Änderung“, d. h. dem Zeitpunkt, zu dem der Upload eines Objekts beginnt. Da ein Objekt erst nach Abschluss des Uploads verfügbar ist, kann es vorkommen, dass Objekte, deren Änderungsdatum Ihren Filterkriterien entspricht, noch hochgeladen werden. Diese Objekte werden nicht in Ihren Übertragungsjob aufgenommen. Wir empfehlen Folgendes, um Probleme zu vermeiden:
- Verwenden Sie anstelle von zeitbasierten Filtern [ereignisgesteuerte Übertragungen](/storage-transfer/docs/event-driven-aws), um Objekte zu übertragen, sobald sie verfügbar sind.
- Damit bei wiederkehrenden Übertragungen keine Objekte fehlen, sollte das Lookback-Window für „Letzte Änderung“ länger als der wiederkehrende Zeitplan sein. Bei einem Job, der stündlich ausgeführt wird, bietet ein Rückblickzeitraum von zwei Stunden beispielsweise einen Puffer.
- Speicherklasse angeben
- Sie können die
Cloud Storage-Speicherklasse angeben, die für Ihre Daten im Ziel-Bucket verwendet werden soll. Weitere Informationen zu REST finden Sie in den
StorageClass
-Optionen. Alternativ können Sie das Flag--custom-storage-class
mit der Google Cloud CLI verwenden.Alle Einstellungen für Speicherklassen werden ignoriert, wenn für den Ziel-Bucket Autoclass aktiviert ist. Wenn Autoclass aktiviert ist, werden in den Bucket übertragene Objekte anfangs auf Standard Storage festgelegt.
- Metadaten beibehalten
-
Wenn Sie Dateien aus S3 übertragen, kann Storage Transfer Service optional bestimmte Attribute als benutzerdefinierte Metadaten beibehalten.
Weitere Informationen dazu, welche Metadaten beibehalten werden können und wie Sie die Übertragung konfigurieren, finden Sie im Abschnitt Amazon S3 zu Cloud Storage unter Metadatenaufbewahrung.
- Ereignisgesteuerte Übertragungen
- Storage Transfer Service kann auf Amazon S3-Ereignisbenachrichtigungen warten, die an Amazon SQS gesendet werden, um automatisch Daten zu übertragen, die am Quellspeicherort hinzugefügt oder aktualisiert wurden. Weitere Informationen finden Sie unter Ereignisgesteuerte Übertragungen.
- Logging und Monitoring
- Übertragungen von S3 können in Cloud Logging und Cloud Monitoring eingesehen werden. Weitere Informationen finden Sie unter Cloud Logging für Storage Transfer Service und Übertragungsjobs überwachen. Sie können auch Pub/Sub-Benachrichtigungen konfigurieren.
Übertragung erstellen
Der Storage Transfer Service bietet mehrere Schnittstellen zum Erstellen einer Übertragung.
Der Name des Übertragungsjobs darf keine vertraulichen Informationen wie personenidentifizierbare Informationen (PII) oder Sicherheitsdaten enthalten. Ressourcennamen können an die Namen anderer Google Cloud Ressourcen weitergegeben und für Google-interne Systeme außerhalb Ihres Projekts verfügbar gemacht werden.
Google Cloud console
Rufen Sie in der Google Cloud -Console die Seite Storage Transfer Service auf.
Klicken Sie auf Übertragung erstellen. Die Seite Übertragungsjob erstellen wird angezeigt.
Wählen Sie unter Quelltyp die Option Amazon S3 aus.
Wählen Sie als Zieltyp die Option Google Cloud Storage aus.
Wählen Sie den Planungsmodus aus. Batch-Übertragungen werden einmalig oder nach Zeitplan ausgeführt. Bei ereignisgesteuerten Übertragungen wird die Quelle kontinuierlich überwacht und Daten werden übertragen, wenn sie hinzugefügt oder geändert werden.
Wenn Sie eine ereignisgesteuerte Übertragung konfigurieren möchten, folgen Sie der Anleitung unter Ereignisgesteuerte Übertragungen.
Klicken Sie auf Nächster Schritt.
Geben Sie im Feld Bucket- oder Ordnername den Namen des Quell-Buckets ein.
Der Bucket-Name ist der Name, der in der AWS Management Console angezeigt wird.
Wenn Sie eine CloudFront-Verteilung für die Übertragung von S3 verwenden, geben Sie den Domainnamen der Verteilung in das Feld CloudFront-Domain ein. Beispiel:
https://dy1h2n3l4ob56.cloudfront.net
. Informationen zum Konfigurieren einer CloudFront-Verteilung finden Sie unter Übertragung von S3 über CloudFront.Wenn Sie für diese Übertragung ein verwaltetes privates Netzwerk verwenden möchten, setzen Sie ein Häkchen in das Kästchen. Weitere Informationen finden Sie unter Optionen für ausgehenden Traffic.
Wählen Sie Ihre AWS-Authentifizierungsmethode (Amazon Web Services) aus. Weitere Informationen finden Sie unter Zugriff auf eine Quelle konfigurieren: Amazon S3.
Zugriffsschlüssel: Geben Sie Ihren Zugriffsschlüssel in das Feld Zugriffsschlüssel-ID und das Secret, das Ihrem Zugriffsschlüssel zu geordnet ist, im Feld Secret-Zugriffsschlüssel ein.
AWS-IAM-Rolle für Identitätsföderation: Geben Sie Ihren ARN in das Feld ARN der AWS-IAM-Rolle mit der folgenden Syntax ein:
arn:aws:iam::ACCOUNT:role/ROLE-NAME-WITH-PATH
Wobei:
ACCOUNT
: Die AWS-Konto-ID ohne Bindestriche.ROLE-NAME-WITH-PATH
: Der Name der AWS-Rolle, einschließlich des Pfads.
Weitere Informationen zu ARNs finden Sie unter IAM-ARNs.
Secret-Ressource: Wählen Sie diese Option aus, um Anmeldedaten für Amazon zu verwenden, die in Secret Manager gespeichert sind. Wählen Sie ein Secret aus der Liste aus oder geben Sie eines manuell im Format
projects/PROJECT_NUMBER/secrets/SECRET_NAME
ein.
Wenn es sich um eine ereignisgesteuerte Übertragung handelt, geben Sie den ARN der Amazon SQS-Warteschlange ein. Dieser hat das folgende Format:
arn:aws:sqs:us-east-1:1234567890:event-queue
- Optional können Sie Objekte nach Präfix filtern oder nach dem Datum der letzten Änderung. Wenn Sie einen Ordner als Quellspeicherort angegeben haben, sind Präfixfilter relativ zu diesem Ordner. Wenn Ihre Quelle beispielsweise
my-test-bucket/path/
ist, werden mit einem Einschlussfilter vonfile
alle Dateien eingeschlossen, die mitmy-test-bucket/path/file
beginnen. Klicken Sie auf Nächster Schritt.
Geben Sie im Feld Bucket oder Ordner den Ziel-Bucket und optional den Ordnernamen ein. Sie können auch auf Durchsuchen klicken, um einen Bucket aus einer Liste der vorhandenen Buckets im aktuellen Projekt auszuwählen. Klicken Sie zum Erstellen eines neuen Buckets auf
Neuen Bucket erstellen.
Klicken Sie auf Next step (Nächster Schritt).
Wählen Sie die Einstellungen für den Übertragungsjob aus.
Geben Sie im Feld Beschreibung eine Beschreibung der Übertragung ein. Geben Sie als Best Practice eine aussagekräftige Beschreibung ein, damit Sie die Jobs unterscheiden können.
Wählen Sie unter Metadatenoptionen die Standardoptionen aus oder klicken Sie auf Optionen auswählen und auswählen, um Werte für alle unterstützten Metadaten anzugeben. Weitere Informationen finden Sie unter Metadatenaufbewahrung.
Wählen Sie unter Wann überschreiben? eine der folgenden Optionen aus:
Falls unterschiedlich: Überschreibt Zieldateien, wenn die Quelldatei mit demselben Namen unterschiedliche ETags oder Prüfsummenwerte hat.
Immer: Zieldateien werden immer geschrieben, wenn die Quelldatei denselben Namen hat, auch wenn sie identisch sind.
Wählen Sie unter Löschzeitpunkt eine der folgenden Optionen aus:
Nie: Dateien werden niemals aus der Quelle oder dem Ziel gelöscht.
Datei nach der Übertragung aus der Quelle löschen: Dateien werden aus der Quelle gelöscht, nachdem sie an das Ziel übertragen wurden. Wenn eine Quelldatei nicht übertragen wird, z. B. weil sie bereits am Ziel vorhanden ist, wird sie nicht gelöscht.
Dateien aus dem Ziel löschen, wenn sie nicht auch in der Quelle sind: Wenn sich Dateien im Cloud Storage-Ziel-Bucket nicht auch in der Quelle befinden, löschen Sie die Dateien aus dem Cloud Storage-Bucket.
Mit dieser Option wird sichergestellt, dass der Cloud Storage-Ziel-Bucket genau mit Ihrer Quelle übereinstimmt.
Wählen Sie unter Benachrichtigungsoptionen Ihr Pub/Sub-Thema und die Ereignisse aus, die Sie benachrichtigen möchten. Weitere Informationen finden Sie unter Pub/Sub-Benachrichtigungen.
Klicken Sie auf Nächster Schritt.
Wählen Sie die gewünschten Zeitplanoptionen aus:
Wählen Sie in der Drop-down-Liste Einmal ausführen eine der folgenden Optionen aus:
Einmal ausführen: Führt eine einzelne Übertragung aus, beginnend zu einem von Ihnen ausgewählten Zeitpunkt.
Täglich ausführen: Führt jeden Tag eine Übertragung zu einem von Ihnen ausgewählten Zeitpunkt aus.
Sie können ein optionales Enddatum eingeben oder Enddatum leer lassen, um die Übertragung kontinuierlich auszuführen.
Jede Woche ausführen: Führt eine Übertragung wöchentlich aus, beginnend zu einem von Ihnen ausgewählten Zeitpunkt.
Mit benutzerdefinierter Frequenz ausführen: Führt eine Übertragung mit der von Ihnen ausgewählten Häufigkeit wird aus. Sie können die Übertragung in regelmäßigen Abständen gemessen in Stunden, Tagen oder Wochen wiederholen.
Sie können ein optionales Enddatum eingeben oder Enddatum leer lassen, um die Übertragung kontinuierlich auszuführen.
Wählen Sie in der Drop-down-Liste Jetzt starten eine der folgenden Optionen aus:
Jetzt starten: Damit wird die Übertragung gestartet, nachdem Sie auf Erstellen geklickt haben.
Ab dem: Die Übertragung wird an dem ausgewählten Datum und zur ausgewählten Uhrzeit gestartet. Klicken Sie auf Kalender, um einen Kalender aufzurufen und das Startdatum auszuwählen.
Klicken Sie zum Erstellen des Übertragungsjobs auf Erstellen.
gcloud-CLI
Verwenden Sie zum Erstellen eines neuen Übertragungsjobs den Befehl gcloud transfer jobs create
. Das Erstellen eines neuen Jobs initiiert die angegebene Übertragung, sofern weder ein Zeitplan noch --do-not-run
angegeben ist.
Die gcloud CLI unterstützt keine Übertragungen über CloudFront oder ein verwaltetes privates Netzwerk.
gcloud transfer jobs create \
s3://S3_BUCKET_NAME gs://STORAGE_BUCKET_NAME \
--source-creds-file="relative_path/to/creds.json"
Wobei:
S3_BUCKET_NAME ist die Datenquelle für diese Übertragung. Sie können optional einen Pfad angeben:
s3://S3_BUCKET_NAME/S3_FOLDER_PATH
STORAGE_BUCKET_NAME ist der Cloud Storage-Bucket, in den die Daten übertragen werden sollen. Geben Sie zum Übertragen in ein bestimmtes Verzeichnis
gs://STORAGE_BUCKET_NAME/STORAGE_FOLDER_PATH/
an, einschließlich des abschließenden Schrägstrichs.--source-creds-file
gibt den relativen Pfad zu einer lokalen Datei auf Ihrem Rechner an, die AWS-Anmeldedaten für die Übertragungsquelle enthält. Der Inhalt muss im folgenden JSON-Format vorliegen:{ "accessKeyId": string, "secretAccessKey": string }
Weitere Optionen:
--do-not-run
verhindert, dass Storage Transfer Service nach dem Senden des Befehls den Job ausführt. Zum Ausführen des Jobs aktualisieren Sie ihn, um einen Zeitplan hinzuzufügen, oder verwendenjobs run
, um ihn manuell zu starten.--manifest-file
gibt den Pfad zu einer CSV-Datei in Cloud Storage an, die eine Liste der Dateien enthält, die von Ihrer Quelle übertragen werden sollen. Informationen zur Formatierung von Manifestdateien finden Sie unter Bestimmte Dateien oder Objekte mithilfe eines Manifests übertragen.Jobinformationen: Sie können
--name
und--description
angeben.Zeitplan: Geben Sie
--schedule-starts
,--schedule-repeats-every
und--schedule-repeats-until
oder--do-not-run
an.Objektbedingungen: Mit Bedingungen können Sie bestimmen, welche Objekte übertragen werden. Dazu gehören
--include-prefixes
und--exclude-prefixes
sowie die zeitbasierten Bedingungen in--include-modified-[before | after]-[absolute | relative]
. Wenn Sie einen Ordner mit Ihrer Quelle angegeben haben, sind Präfixfilter relativ zu diesem Ordner. Weitere Informationen finden Sie unter Quellobjekte nach Präfix filtern.Übertragungsoptionen: Bestimmen Sie, ob Zieldateien überschrieben werden sollen (
--overwrite-when=different
oderalways
) und ob bestimmte Dateien während oder nach der Übertragung gelöscht werden sollen (--delete-from=destination-if-unique
odersource-after-transfer
); welche Metadatenwerte beibehalten werden (--preserve-metadata
); und legen Sie optional eine Speicherklasse für übertragene Objekte fest (--custom-storage-class
).Benachrichtigungen: Konfigurieren Sie Pub/Sub-Benachrichtigungen für Übertragungen mit
--notification-pubsub-topic
,--notification-event-types
und--notification-payload-format
.Cloud Logging: Aktivieren Sie Cloud Logging mit
--log-actions
und--log-action-states
. Weitere Informationen finden Sie unter Cloud Logging für Storage Transfer Service.
Führen Sie gcloud transfer jobs create --help
aus oder sehen Sie sich die gcloud
-Referenzdokumentation an, um alle Optionen aufzurufen.
REST
Die folgenden Beispiele zeigen, wie Sie den Storage Transfer Service über die REST API verwenden.
Wenn Sie Übertragungsjobs mithilfe der Storage Transfer Service API konfigurieren oder bearbeiten, muss die Zeit in UTC angegeben werden. Weitere Informationen zum Angeben des Zeitplans eines Übertragungsjobs finden Sie unter Zeitplan.
Geben Sie beim Erstellen von Übertragungsjobs nicht das Präfix s3://
für bucketName
in Amazon S3-Bucket-Quellnamen an.
Übertragung ohne Agent
Im folgenden Beispiel wird ein Übertragungsjob mit der standardmäßigen agentenlosen Konfiguration erstellt. Weitere Informationen finden Sie in der Referenz zu transferJobs.create.
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
Weitere Authentifizierungsoptionen finden Sie unter Zugriff auf eine Quelle konfigurieren: Amazon S3.
CloudFront-Verteilung
Wenn Sie Daten von S3 über eine CloudFront-Verteilung übertragen, geben Sie den Domainnamen der Verteilung als Wert des Felds transferSpec.awsS3DataSource.cloudfrontDomain
an:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "cloudfrontDomain": "https://dy1h2n3l4ob56.cloudfront.net", "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
Verwaltetes privates Netzwerk
Wenn Sie Daten über ein von Google verwaltetes privates Netzwerk von S3 übertragen möchten, geben Sie das Feld transferSpec.awsS3DataSource.managedPrivateNetwork
an:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "transferSpec": { "awsS3DataSource": { "bucketName": "AWS_SOURCE_NAME", "managedPrivateNetwork": TRUE, "awsAccessKey": { "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" } }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
Clientbibliotheken
Die folgenden Beispiele zeigen, wie Sie den Storage Transfer Service programmatisch mit Go, Java, Node.js und Python verwenden.
Wenn Sie Übertragungsjobs programmatisch konfigurieren oder bearbeiten, muss die Zeit in UTC angegeben werden. Weitere Informationen zum Angeben des Zeitplans eines Übertragungsjobs finden Sie unter Zeitplan.
Weitere Informationen zu den Storage Transfer Service-Clientbibliotheken finden Sie unter Erste Schritte mit Storage Transfer Service-Clientbibliotheken.
Übertragung von Amazon S3 zu Cloud Storage
In diesem Beispiel erfahren Sie, wie Sie Dateien von Amazon S3 in einen Cloud Storage-Bucket verschieben.
Geben Sie beim Erstellen von Übertragungsjobs nicht das Präfix s3://
für bucketName
in Amazon S3-Bucket-Quellnamen an.
Die Storage Transfer Service-Clientbibliotheken unterstützen keine Übertragungen über CloudFront oder ein verwaltetes privates Netzwerk.
Go
Java
Sie suchen nach älteren Beispielen? Weitere Informationen finden Sie im Migration Transfer Service-Migrationsleitfaden.
Node.js
Python
Sie suchen nach älteren Beispielen? Weitere Informationen finden Sie im Migration Transfer Service-Migrationsleitfaden.