Auf dieser Seite wird beschrieben, wie Sie Ihr BigQuery-Ziel konfigurieren, um Daten aus einer Quelldatenbank mit Datastream zu streamen.
Ziel-Datasets konfigurieren
Wenn Sie Datasets für das BigQuery-Ziel konfigurieren, können Sie eine der folgenden Optionen auswählen:
Dataset für jedes Schema: Das Dataset wird am angegebenen BigQuery-Standort anhand des Schemanamens der Quelle ausgewählt oder erstellt. Für jedes Schema in der Quelle erstellt Datastream automatisch ein Dataset in BigQuery.
Wenn Sie beispielsweise eine MySQL-Quelle haben, die eine
mydb
-Datenbank und eineemployees
-Tabelle in der Datenbank enthält, erstellt Datastream dasmydb
-Dataset und dieemployees
-Tabelle in BigQuery.Wenn Sie diese Option auswählen, erstellt Datastream Datasets in dem Projekt, das den Stream enthält. Sie müssen die Datasets nicht in derselben Region wie Ihren Stream erstellen. Wir empfehlen jedoch, alle Ressourcen für den Stream sowie Datasets in derselben Region zu platzieren, um Kosten und Leistung zu optimieren.
Einzelnes Dataset für alle Schemas: Sie können ein BigQuery-Dataset für den Stream auswählen. Datastream streamt alle Daten in dieses Dataset. Für das ausgewählte Dataset erstellt Datastream alle Tabellen als
<schema>_<table>
.Wenn Sie beispielsweise eine MySQL-Quelle mit der Datenbank
mydb
und der Tabelleemployees
in der Datenbank haben, erstellt Datastream die Tabellemydb_employees
im ausgewählten Dataset.
Schreibverhalten
Die maximale Ereignisgröße beim Streamen von Daten in BigQuery beträgt 20 MB.
Wenn Sie Ihren Stream konfigurieren, können Sie auswählen, wie Datastream Ihre Änderungsdaten in BigQuery schreibt. Weitere Informationen finden Sie unter Schreibmodus konfigurieren.
Schreibmodus konfigurieren
Es gibt zwei Modi, mit denen Sie festlegen können, wie Ihre Daten in BigQuery geschrieben werden sollen:
- Zusammenführen: Dies ist der Standardschreibmodus. Wenn diese Option ausgewählt ist, wird in BigQuery die Art und Weise berücksichtigt, wie Ihre Daten in der Quelldatenbank gespeichert sind. Das bedeutet, dass Datastream alle Änderungen an Ihren Daten in BigQuery schreibt und BigQuery die Änderungen dann mit vorhandenen Daten zusammenführt. So werden endgültige Tabellen erstellt, die Replikate der Quelltabellen sind. Im Modus Zusammenführen wird kein Verlauf der Änderungsereignisse gespeichert. Wenn Sie beispielsweise eine Zeile einfügen und dann aktualisieren, werden in BigQuery nur die aktualisierten Daten beibehalten. Wenn Sie die Zeile dann aus der Quelltabelle löschen, speichert BigQuery keinen Datensatz mehr für diese Zeile.
- Nur anhängen: Im Schreibmodus „Nur anhängen“ können Sie Daten als Stream von Änderungen (
INSERT
-,UPDATE-INSERT
-,UPDATE-DELETE
- undDELETE
-Ereignisse) in BigQuery einfügen. Verwenden Sie diesen Modus, wenn Sie den bisherigen Status Ihrer Daten beibehalten müssen. Die folgenden Szenarien veranschaulichen den Nur-Anhängen-Schreibmodus:- Erster Backfill: Nach dem ersten Backfill werden alle Ereignisse als Ereignisse vom Typ
INSERT
mit demselben Zeitstempel, derselben UUID (Universally Unique Identifier) und derselben Änderungsfolgenummer in BigQuery geschrieben. - Aktualisierung des Primärschlüssels: Wenn sich ein Primärschlüssel ändert, werden zwei Zeilen in BigQuery geschrieben:
- Eine
UPDATE-DELETE
-Zeile mit dem ursprünglichen Primärschlüssel - Eine
UPDATE-INSERT
-Zeile mit dem neuen primären Schlüssel
- Eine
- Zeilenaktualisierung: Wenn Sie eine Zeile aktualisieren, wird eine einzelne
UPDATE-INSERT
-Zeile in BigQuery geschrieben. - Löschen von Zeilen: Wenn Sie eine Zeile löschen, wird eine einzelne
DELETE
-Zeile in BigQuery geschrieben.
- Erster Backfill: Nach dem ersten Backfill werden alle Ereignisse als Ereignisse vom Typ
Tabellenmetadaten
Datastream fügt jeder Tabelle, die in das BigQuery-Ziel geschrieben wird, eine STRUCT
-Spalte mit dem Namen datastream_metadata
hinzu.
Zusammenführungs-Schreibmodus
Wenn eine Tabelle in der Quelle einen Primärschlüssel hat, enthält die Spalte die folgenden Felder:
UUID
: Dieses Feld hat den DatentypSTRING
.SOURCE_TIMESTAMP
: Dieses Feld hat den DatentypINTEGER
.
Wenn eine Tabelle keinen Primärschlüssel hat, enthält die Spalte ein zusätzliches Feld: IS_DELETED
. Dieses Feld hat den Datentyp BOOLEAN
und gibt an, ob die Daten, die von Datastream an das Ziel gestreamt werden, mit einem DELETE
-Vorgang in der Quelle verknüpft sind. Tabellen ohne Primärschlüssel sind nur zum Anhängen von Daten geeignet.
Schreibmodus „Nur anhängen“
Die Spalte datastream_metadata
enthält dieselben Felder für Tabellen mit und ohne Primärschlüssel:
UUID
: Dieses Feld hat den DatentypSTRING
.SOURCE_TIMESTAMP
: Dieses Feld hat den DatentypINTEGER
.CHANGE_SEQUENCE_NUMBER
: Dieses Feld hat den DatentypSTRING
. Dies ist eine interne Sequenznummer, die von Datastream für jedes Änderungsereignis verwendet wird.CHANGE_TYPE
: Dieses Feld hat den DatentypSTRING
. Gibt den Typ des Änderungsereignisses an:INSERT
,UPDATE-INSERT
,UPDATE-DELETE
oderDELETE
.SORT_KEYS
: Dieses Feld enthält ein Array vonSTRING
-Werten. Sie können die Werte verwenden, um die Änderungsereignisse zu sortieren.
BigQuery-Tabellen mit der Option max_staleness
verwenden
Im Rahmen der nahezu in Echtzeit erfolgenden Aufnahme verwendet Datastream die integrierte Unterstützung von BigQuery für Upsert-Vorgänge, z. B. zum Aktualisieren, Einfügen und Löschen von Daten. Mit Upsert-Vorgängen können Sie das BigQuery-Ziel dynamisch aktualisieren, wenn Zeilen hinzugefügt, geändert oder gelöscht werden. Datastream streamt diese UPSERT-Vorgänge mithilfe der BigQuery Storage Write API in die Zieltabelle.
Limit für veraltete Daten festlegen
Je nach konfiguriertem Limit für die Veralterung wendet BigQuery die Änderungen laufend im Hintergrund oder bei der Abfrageausführung an. Wenn Datastream eine neue Tabelle in BigQuery erstellt, wird die Option max_staleness
der Tabelle entsprechend dem aktuellen Wert für das Limit für die Veralterung von Daten für den Stream festgelegt.
Weitere Informationen zur Verwendung von BigQuery-Tabellen mit der Option max_staleness
finden Sie unter Aktualität von Tabellen.
BigQuery-Kosten kontrollieren
BigQuery-Kosten werden separat von Datastream in Rechnung gestellt. Informationen zur Kostenkontrolle in BigQuery finden Sie unter BigQuery CDC-Preise.
Datentypen zuordnen
In der folgenden Tabelle sind die Datentypkonvertierungen von unterstützten Quelldatenbanken in das BigQuery-Ziel aufgeführt.
Quelldatenbank | Quelldatentyp | BigQuery-Datentyp |
---|---|---|
MySQL | BIGINT(size) |
INT64 |
MySQL | BIGINT (unsigned) |
DECIMAL |
MySQL | BINARY(size) |
STRING (hex encoded) |
MySQL | BIT(size) |
INT64 |
MySQL | BLOB(size) |
STRING (hex encoded) |
MySQL | BOOL |
INT64 |
MySQL | CHAR(size) |
STRING |
MySQL | DATE |
DATE |
MySQL | DATETIME(fsp) |
DATETIME |
MySQL | DECIMAL(precision, scale) |
Wenn der Genauigkeitswert <=38 und der Skalierungswert <=9 ist, dann NUMERIC . Andernfalls BIGNUMERIC |
MySQL | DOUBLE(size, d) |
FLOAT64 |
MySQL | ENUM(val1, val2, val3, ...) |
STRING |
MySQL | FLOAT(precision) |
FLOAT64 |
MySQL | FLOAT(size, d) |
FLOAT64 |
MySQL | INTEGER(size) |
INT64 |
MySQL | INTEGER (unsigned) |
INT64 |
MySQL |
|
JSON
|
MySQL | LONGBLOB |
STRING (hex encoded) |
MySQL | LONGTEXT |
STRING |
MySQL | MEDIUMBLOB |
STRING (hex encoded) |
MySQL | MEDIUMINT(size) |
INT64 |
MySQL | MEDIUMTEXT |
STRING |
MySQL | SET(val1, val2, val3, ...) |
STRING |
MySQL | SMALLINT(size) |
INT64 |
MySQL | TEXT(size) |
STRING |
MySQL | TIME(fsp) |
INTERVAL |
MySQL | TIMESTAMP(fsp) |
TIMESTAMP |
MySQL | TINYBLOB |
STRING (hex encoded) |
MySQL | TINYINT(size) |
INT64 |
MySQL | TINYTEXT |
STRING |
MySQL | VARBINARY(size) |
STRING (hex encoded) |
MySQL | VARCHAR |
STRING |
MySQL | YEAR |
INT64 |
Oracle | ANYDATA |
UNSUPPORTED |
Oracle | BFILE |
STRING |
Oracle | BINARY DOUBLE |
FLOAT64 |
Oracle | BINARY FLOAT |
FLOAT64 |
Oracle | BLOB |
BYTES |
Oracle | CHAR |
STRING |
Oracle | CLOB |
STRING |
Oracle | DATE |
DATETIME
|
Oracle | DOUBLE PRECISION |
FLOAT64 |
Oracle | FLOAT(p) |
FLOAT64 |
Oracle | INTERVAL DAY TO SECOND |
UNSUPPORTED |
Oracle | INTERVAL YEAR TO MONTH |
UNSUPPORTED |
Oracle | LONG /LONG RAW |
STRING |
Oracle | NCHAR |
STRING |
Oracle | NCLOB |
STRING |
Oracle | NUMBER(precision, scale>0) |
Wenn 0<= p<= 78, wird der Wert parametrisierten Dezimaltypen zugeordnet. Wenn p>=79, dann STRING |
Oracle | NVARCHAR2 |
STRING |
Oracle | RAW |
STRING |
Oracle | ROWID |
STRING |
Oracle | SDO_GEOMETRY |
UNSUPPORTED |
Oracle | SMALLINT |
INT64 |
Oracle | TIMESTAMP |
TIMESTAMP
|
Oracle | TIMESTAMP WITH TIME ZONE |
TIMESTAMP
|
Oracle | UDT (user-defined type) |
UNSUPPORTED |
Oracle | UROWID |
STRING |
Oracle | VARCHAR |
STRING |
Oracle | VARCHAR2 |
STRING |
Oracle | XMLTYPE |
UNSUPPORTED |
PostgreSQL | ARRAY |
JSON
|
PostgreSQL | BIGINT |
INT64 |
PostgreSQL | BIT |
BYTES |
PostgreSQL | BIT_VARYING |
BYTES |
PostgreSQL | BOOLEAN |
BOOLEAN |
PostgreSQL | BOX |
UNSUPPORTED |
PostgreSQL | BYTEA |
BYTES |
PostgreSQL | CHARACTER |
STRING |
PostgreSQL | CHARACTER_VARYING |
STRING |
PostgreSQL | CIDR |
STRING |
PostgreSQL | CIRCLE |
UNSUPPORTED |
PostgreSQL | DATE |
DATE |
PostgreSQL | DOUBLE_PRECISION |
FLOAT64 |
PostgreSQL | ENUM |
STRING |
PostgreSQL | INET |
STRING |
PostgreSQL | INTEGER |
INT64 |
PostgreSQL | INTERVAL |
INTERVAL |
PostgreSQL | JSON |
JSON |
PostgreSQL | JSONB |
JSON |
PostgreSQL | LINE |
UNSUPPORTED |
PostgreSQL | LSEG |
UNSUPPORTED |
PostgreSQL | MACADDR |
STRING |
PostgreSQL | MONEY |
FLOAT64 |
PostgreSQL | NUMERIC |
Wenn „precision“ = -1 , dann STRING (BigQuery-NUMERIC -Typen erfordern eine feste Genauigkeit). Andernfalls BIGNUMERIC /NUMERIC . Weitere Informationen finden Sie im Abschnitt Arbitrary precision numbers (Zahlen mit beliebiger Genauigkeit) in der PostgreSQL-Dokumentation. |
PostgreSQL | OID |
INT64 |
PostgreSQL | PATH |
UNSUPPORTED |
PostgreSQL | POINT |
UNSUPPORTED |
PostgreSQL | POLYGON |
UNSUPPORTED |
PostgreSQL | REAL |
FLOAT64 |
PostgreSQL | SMALLINT |
INT64 |
PostgreSQL | SMALLSERIAL |
INT64 |
PostgreSQL | SERIAL |
INT64 |
PostgreSQL | TEXT |
STRING |
PostgreSQL | TIME |
TIME |
PostgreSQL | TIMESTAMP |
TIMESTAMP |
PostgreSQL | TIMESTAMP_WITH_TIMEZONE |
TIMESTAMP |
PostgreSQL | TIME_WITH_TIMEZONE |
TIME |
PostgreSQL | TSQUERY |
STRING |
PostgreSQL | TSVECTOR |
STRING |
PostgreSQL | TXID_SNAPSHOT |
STRING |
PostgreSQL | UUID |
STRING |
PostgreSQL | XML |
STRING |
SQL Server | BIGINT |
INT64 |
SQL Server | BINARY |
BYTES |
SQL Server | BIT |
BOOL |
SQL Server | CHAR |
STRING |
SQL Server | DATE |
DATE |
SQL Server | DATETIME2 |
DATETIME |
SQL Server | DATETIME |
DATETIME |
SQL Server | DATETIMEOFFSET |
TIMESTAMP |
SQL Server | DECIMAL |
BIGNUMERIC |
SQL Server | FLOAT |
FLOAT64 |
SQL Server | IMAGE |
BYTES |
SQL Server | INT |
INT64 |
SQL Server | MONEY |
BIGNUMERIC |
SQL Server | NCHAR |
STRING |
SQL Server | NTEXT |
STRING |
SQL Server | NUMERIC |
BIGNUMERIC |
SQL Server | NVARCHAR |
STRING |
SQL Server | NVARCHAR(MAX) |
STRING |
SQL Server | REAL |
FLOAT64 |
SQL Server | SMALLDATETIME |
DATETIME |
SQL Server | SMALLINT |
INT64 |
SQL Server | SMALLMONEY |
NUMERIC |
SQL Server | TEXT |
STRING |
SQL Server | TIME |
TIME |
SQL Server | TIMESTAMP /ROWVERSION |
BYTES |
SQL Server | TINYINT |
INT64 |
SQL Server | UNIQUEIDENTIFIER |
STRING |
SQL Server | VARBINARY |
BYTES |
SQL Server | VARBINARY(MAX) |
BYTES |
SQL Server | VARCHAR |
STRING |
SQL Server | VARCHAR(MAX) |
STRING |
SQL Server | XML |
STRING |
Salesforce | BOOLEAN |
BOOLEAN |
Salesforce | BYTE |
BYTES |
Salesforce | DATE |
DATE |
Salesforce | DATETIME |
DATETIME |
Salesforce | DOUBLE |
BIGNUMERIC |
Salesforce | INT |
INT64 |
Salesforce | STRING |
STRING |
Salesforce | TIME |
TIME |
Salesforce | ANYTYPE (kann STRING , DATE , NUMBER oder BOOLEAN sein) |
STRING |
Salesforce | COMBOBOX |
STRING |
Salesforce | CURRENCY |
FLOAT64
Die maximal zulässige Länge beträgt 18 Ziffern. |
Salesforce | DATACATEGORYGROUPREFERENCE |
STRING |
Salesforce | EMAIL |
STRING |
Salesforce | ENCRYPTEDSTRING |
STRING |
Salesforce | ID |
STRING |
Salesforce | JUNCTIONIDLIST |
STRING |
Salesforce | MASTERRECORD |
STRING |
Salesforce | MULTIPICKLIST |
STRING |
Salesforce | PERCENT |
FLOAT64
Die maximal zulässige Länge beträgt 18 Ziffern. |
Salesforce | PHONE |
STRING |
Salesforce | PICKLIST |
STRING |
Salesforce | REFERENCE |
STRING |
Salesforce | TEXTAREA |
STRING
Die maximal zulässige Länge beträgt 255 Zeichen. |
Salesforce | URL |
STRING |
MongoDB-Datentypen
Binäre JSON-Dokumente (BSON) von MongoDB werden in BigQuery im Format des erweiterten JSON-Formats von MongoDB (v1) im strikten Modus geschrieben. In der Tabelle sehen Sie, wie Datentypen in BigQuery dargestellt werden, sowie Beispielwerte.
Quelldatentyp | Beispielwert | BigQuery-JSON-Typwert |
---|---|---|
DOUBLE |
3.1415926535
|
3.1415926535 |
STRING | "Hello, MongoDB!" | "Hello, MongoDB!" |
ARRAY |
| ["item1",123,true,{"subItem":"object in array"}] |
BINARY DATA |
new BinData(0, "SGVsbG8gQmluYXJ5IERhdGE=") |
{"$binary":"SGVsbG8gQmluYXJ5IERhdGE=","$type":"00"} |
BOOLEAN | true | true |
DATE |
2024-12-25T10:30:00.000+00:00
|
{"$date": 1735122600000}
|
NULL | null | null |
REGEX | /^mongo(db)?$/i | {"$options":"i","$regex":"^mongo(db)?$"} |
JAVASCRIPT | function() {return this.stringField.length;} | {"$code":"function() {\n return this.stringField.length;\n }"} |
DECIMAL128 | NumberDecimal("1234567890.1234567890") | {"$numberDecimal":"1234567890.1234567890"} |
OBJECTID | ObjectId('673c5d8dbfe2e51808cc2c3d') | {"$oid": "673c5d8dbfe2e51808cc2c3d"} |
LONG | 3567587327 | {"$numberLong": "3567587327"} |
INT32 | 42 | 42 |
INT64 | 1864712049423024127 | {"$numberLong": "1864712049423024127"} |
TIMESTAMP | new Timestamp(1747888877, 1) | {"$timestamp":{"i":1,"t":1747888877}} |
PostgreSQL-Array als BigQuery-Array-Datentyp abfragen
Wenn Sie ein PostgreSQL-Array lieber als BigQuery-Datentyp ARRAY
abfragen möchten, können Sie die JSON
-Werte mit der BigQuery-Funktion JSON_VALUE_ARRAY
in ein BigQuery-Array konvertieren:
SELECT ARRAY(SELECT CAST(element AS TYPE) FROM UNNEST(JSON_VALUE_ARRAY(BQ_COLUMN_NAME,'$')) AS element)AS array_col
Ersetzen Sie Folgendes:
TYPE: Der BigQuery-Typ, der dem Elementtyp im PostgreSQL-Quellarray entspricht. Wenn der Quelltyp beispielsweise ein Array von
BIGINT
-Werten ist, ersetzen Sie TYPE durchINT64
.Weitere Informationen zum Zuordnen der Datentypen finden Sie unter Datentypen zuordnen.
BQ_COLUMN_NAME: Der Name der relevanten Spalte in der BigQuery-Tabelle.
Es gibt zwei Ausnahmen bei der Umrechnung der Werte:
Führen Sie für Arrays mit
BIT
-,BIT_VARYING
- oderBYTEA
-Werten in der Quellspalte die folgende Abfrage aus:SELECT ARRAY(SELECT FROM_BASE64(element) FROM UNNEST(JSON_VALUE_ARRAY(BQ_COLUMN_NAME,'$')) AS element)
AS array_of_bytes Verwenden Sie für Arrays mit
JSON
- oderJSONB
-Werten in der Quellspalte die FunktionJSON_QUERY_ARRAY
:SELECT ARRAY(SELECT element FROM UNNEST(JSON_QUERY_ARRAY(BQ_COLUMN_NAME,'$')) AS element)
AS array_of_jsons
Bekannte Einschränkungen
Bekannte Einschränkungen bei Verwendung von BigQuery als Ziel:
- Sie können Daten nur in ein BigQuery-Dataset replizieren, das sich im selben Google Cloud Projekt wie der Datastream-Stream befindet.
- Standardmäßig unterstützt Datastream das Hinzufügen eines Primärschlüssels zu einer Tabelle, die bereits ohne Primärschlüssel in BigQuery repliziert wurde, oder das Entfernen eines Primärschlüssels aus einer Tabelle, die mit einem Primärschlüssel in BigQuery repliziert wurde, nicht. Wenn Sie solche Änderungen vornehmen müssen, wenden Sie sich an den Google-Support. Informationen zum Ändern der Primärschlüsseldefinition für eine Quelltabelle, die bereits einen Primärschlüssel hat, finden Sie unter Probleme diagnostizieren.
Primärschlüssel in BigQuery müssen die folgenden Datentypen haben:
DATE
BOOL
GEOGRAPHY
INT64
NUMERIC
BIGNUMERIC
STRING
TIMESTAMP
DATETIME
Tabellen, die Primärschlüssel mit nicht unterstützten Datentypen enthalten, werden von Datastream nicht repliziert.
BigQuery unterstützt keine Tabellennamen mit den Zeichen
.
,$
,/
,@
oder+
. Datastream ersetzt solche Zeichen beim Erstellen von Zieltabelle durch Unterstriche.Beispiel:
table.name
in der Quelldatenbank wird zutable_name
in BigQuery.Weitere Informationen zu Tabellennamen in BigQuery finden Sie unter Tabellennamen.
BigQuery unterstützt nicht mehr als vier Clustering-Spalten. Wenn Sie eine Tabelle mit mehr als vier Primärschlüsselspalten replizieren, verwendet Datastream vier Primärschlüsselspalten als Clustering-Spalten.
In Datastream werden Datums- und Uhrzeitliterale außerhalb des gültigen Bereichs, z. B. PostgreSQL-Datentypen für „infinity“, den folgenden Werten zugeordnet:
- Positiver
DATE
-Wert für9999-12-31
- Negativer
DATE
-Wert für0001-01-01
- Positiver
TIMESTAMP
-Wert für9999-12-31 23:59:59.999000 UTC
- Negativer
TIMESTAMP
-Wert für0001-01-01 00:00:00 UTC
- Positiver
BigQuery unterstützt keine Streamingtabellen mit Primärschlüsseln vom Datentyp
FLOAT
oderREAL
. Solche Tabellen werden nicht repliziert. Weitere Informationen zu BigQuery-Datentypen und ‑bereichen finden Sie unter Datentypen.Wenn Ihre Quelle Salesforce ist, wird die Konfigurationsoption Dataset für jedes Schema nicht unterstützt.
Nächste Schritte
- Informationen zum Replizieren von Daten aus einer Quelldatenbank in BigQuery-Datasets mit Datastream