PostgreSQL 到 BigQuery 範本

「PostgreSQL 到 BigQuery」範本是一個批次管道,可將資料從 PostgreSQL 資料表複製到現有的 BigQuery 資料表,這個管道會使用 JDBC 連線至 PostgreSQL。為了增加多一層安全防護,您也可以傳遞 Cloud KMS 金鑰,以及使用 Cloud KMS 金鑰加密的 Base64 編碼使用者名稱、密碼和連線字串參數。如要進一步瞭解如何加密使用者名稱、密碼和連線字串參數,請參閱 Cloud KMS API 加密端點

管道相關規定

  • 在執行管道前,BigQuery 資料表必須已存在。
  • BigQuery 資料表必須具備相容的結構定義。
  • 關聯資料庫必須可從 Dataflow 執行時所在的子網路存取。

範本參數

必要參數

  • driverJars:以半形逗號分隔的驅動程式 JAR 檔案清單。例如:gs://your-bucket/driver_jar1.jar,gs://your-bucket/driver_jar2.jar
  • driverClassName:JDBC 驅動程式類別名稱,例如:com.mysql.jdbc.Driver
  • connectionURL:JDBC 連線網址字串,例如,jdbc:mysql://some-host:3306/sampledb。您可以傳入這個值,方法是使用 Cloud KMS 金鑰加密,然後進行 Base64 編碼。從 Base64 編碼字串中移除空格字元。請注意 Oracle 非 RAC 資料庫連線字串 (jdbc:oracle:thin:@some-host:<port>:<sid>) 與 Oracle RAC 資料庫連線字串 (jdbc:oracle:thin:@//some-host[:<port>]/<service_name>) 的差異。例如 jdbc:mysql://some-host:3306/sampledb
  • outputTable:BigQuery 輸出資料表位置。例如:<PROJECT_ID>:<DATASET_NAME>.<TABLE_NAME>
  • bigQueryLoadingTemporaryDirectory:BigQuery 載入程序的暫存目錄。例如:gs://your-bucket/your-files/temp_dir

選用參數

  • connectionProperties:JDBC 連線的屬性字串,字串格式必須為 [propertyName=property;]*。詳情請參閱 MySQL 說明文件中的「Configuration Properties」(https://dev.mysql.com/doc/connector-j/en/connector-j-reference-configuration-properties.html)。例如:unicode=true;characterEncoding=UTF-8
  • username:JDBC 連線要使用的使用者名稱。可以傳入以 Cloud KMS 金鑰加密的字串,也可以是 Secret Manager 密鑰,格式為 projects/{project}/secrets/{secret}/versions/{secret_version}。
  • password:JDBC 連線使用的密碼。可以傳入以 Cloud KMS 金鑰加密的字串,也可以是 Secret Manager 密鑰,格式為 projects/{project}/secrets/{secret}/versions/{secret_version}。
  • query:要在來源上執行以擷取資料的查詢,請注意,部分 JDBC SQL 和 BigQuery 類型雖然名稱相同,但仍存在差異。請注意,SQL -> BigQuery 的重要類型對應關係包括 DATETIME --> TIMESTAMP。如果結構定義不相符,可能需要進行型別轉換。例如:select * from sampledb.sample_table
  • KMSEncryptionKey:用於解密使用者名稱、密碼和連線字串的 Cloud KMS 加密金鑰。如果傳入 Cloud KMS 金鑰,則必須加密使用者名稱、密碼和連線字串。例如:projects/your-project/locations/global/keyRings/your-keyring/cryptoKeys/your-key
  • useColumnAlias:如果設為 true,管道會使用資料欄別名 (AS) 而非資料欄名稱,將資料列對應至 BigQuery。預設值為 false
  • isTruncate:如果設為 true,管道會在將資料載入 BigQuery 前截斷資料。預設值為 false,這會導致管道附加資料。
  • partitionColumn:如果指定 partitionColumntable,JdbcIO 會在相同資料表 (子查詢) 上執行多個查詢執行個體,並使用範圍,以平行方式讀取資料表。目前支援 LongDateTime 分區資料欄。透過 partitionColumnType 傳遞欄類型。
  • partitionColumnTypepartitionColumn 的類型,可接受 longdatetime。預設值為「long」。
  • table:使用分區時要讀取的資料表。這個參數也接受以半形括號括住的子查詢。例如:(select id, name from Person) as subq
  • numPartitions:分區數量。這個值會與上下限一起形成所產生 WHERE 子句運算式的分區步幅,用於平均分割分區資料欄。如果輸入的值小於 1,系統會將該值設為 1
  • lowerBound:要在分區架構中使用的下限。如未提供,Apache Beam 會自動推斷支援的類型。datetime partitionColumnType 接受 yyyy-MM-dd HH:mm:ss.SSSZ 格式的下限。例如:2024-02-20 07:55:45.000+03:30
  • upperBound:要在分割區架構中使用的上限。如未提供,Apache Beam 會自動推斷支援的類型。datetime partitionColumnType 接受 yyyy-MM-dd HH:mm:ss.SSSZ 格式的上限。例如:2024-02-20 07:55:45.000+03:30
  • fetchSize:一次從資料庫擷取的資料列數。不適用於分區讀取作業。預設值為 50000。
  • createDisposition:要使用的 BigQuery CreateDisposition。例如 CREATE_IF_NEEDEDCREATE_NEVER。預設值為 CREATE_NEVER。
  • bigQuerySchemaPath:BigQuery JSON 結構定義的 Cloud Storage 路徑。如果 createDisposition 設為 CREATE_IF_NEEDED,則必須指定這個參數。例如:gs://your-bucket/your-schema.json
  • outputDeadletterTable:用於儲存無法送達輸出資料表的訊息的 BigQuery 資料表,格式為 "PROJECT_ID:DATASET_NAME.TABLE_NAME"。如果資料表不存在,系統會在管道執行時建立。如未指定這項參數,管道會在寫入錯誤時失敗。只有在 useStorageWriteApiuseStorageWriteApiAtLeastOnce 設為 true 時,才能指定這項參數。
  • disabledAlgorithms:以半形逗號分隔要停用的演算法。如果此值設為 none,則不會停用任何演算法。請謹慎使用這個參數,因為預設停用的演算法可能存在安全漏洞或效能問題。例如:SSLv3, RC4
  • extraFilesToStage:以半形逗號分隔的 Cloud Storage 路徑或 Secret Manager 密鑰,用於在工作站中暫存檔案。這些檔案會儲存在每個工作站的 /extra_files 目錄中。例如:gs://<BUCKET_NAME>/file.txt,projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<VERSION_ID>
  • useStorageWriteApi:如果為 true,管道會使用 BigQuery Storage Write API (https://cloud.google.com/bigquery/docs/write-api)。預設值為 false。詳情請參閱「使用 Storage Write API」(https://beam.apache.org/documentation/io/built-in/google-bigquery/#storage-write-api)。
  • useStorageWriteApiAtLeastOnce:使用 Storage Write API 時,指定寫入語意。如要使用「至少一次」語意 (https://beam.apache.org/documentation/io/built-in/google-bigquery/#at-least-once-semantics),請將這個參數設為 true。如要使用「僅限一次」語意,請將參數設為 false。只有在 useStorageWriteApitrue 時,這項參數才會生效。預設值為 false

執行範本

控制台

  1. 前往 Dataflow 的「Create job from template」(透過範本建立工作) 頁面。
  2. 前往「依據範本建立工作」
  3. 在「工作名稱」欄位中,輸入專屬工作名稱。
  4. 選用:如要使用區域端點,請從下拉式選單中選取值。預設區域為 us-central1

    如需可執行 Dataflow 工作的地區清單,請參閱「Dataflow 位置」。

  5. 從「Dataflow template」(Dataflow 範本) 下拉式選單中選取 the PostgreSQL to BigQuery template。
  6. 在提供的參數欄位中輸入參數值。
  7. 按一下「Run Job」(執行工作)

gcloud

在殼層或終端機中執行範本:

gcloud dataflow flex-template run JOB_NAME \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/PostgreSQL_to_BigQuery \
    --parameters \
connectionURL=JDBC_CONNECTION_URL,\
query=SOURCE_SQL_QUERY,\
outputTable=PROJECT_ID:DATASET.TABLE_NAME,
bigQueryLoadingTemporaryDirectory=PATH_TO_TEMP_DIR_ON_GCS,\
connectionProperties=CONNECTION_PROPERTIES,\
username=CONNECTION_USERNAME,\
password=CONNECTION_PASSWORD,\
KMSEncryptionKey=KMS_ENCRYPTION_KEY

更改下列內容:

  • JOB_NAME: 您選擇的不重複工作名稱
  • VERSION: 您要使用的範本版本

    您可以使用下列值:

  • REGION_NAME: 您要部署 Dataflow 工作的地區,例如 us-central1
  • JDBC_CONNECTION_URL:JDBC 連線網址
  • SOURCE_SQL_QUERY:要在來源資料庫執行的 SQL 查詢
  • DATASET:您的 BigQuery 資料集
  • TABLE_NAME:BigQuery 資料表名稱
  • PATH_TO_TEMP_DIR_ON_GCS:Cloud Storage 中暫時目錄的路徑
  • CONNECTION_PROPERTIES:JDBC 連線屬性 (如有需要)
  • CONNECTION_USERNAME:JDBC 連線使用者名稱
  • CONNECTION_PASSWORD:JDBC 連線密碼
  • KMS_ENCRYPTION_KEY:Cloud KMS 加密金鑰

API

如要使用 REST API 執行範本,請傳送 HTTP POST 要求。如要進一步瞭解 API 和授權範圍,請參閱 projects.templates.launch

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch
{
  "launchParameter": {
    "jobName": "JOB_NAME",
    "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/PostgreSQL_to_BigQuery"
    "parameters": {
      "connectionURL": "JDBC_CONNECTION_URL",
      "query": "SOURCE_SQL_QUERY",
      "outputTable": "PROJECT_ID:DATASET.TABLE_NAME",
      "bigQueryLoadingTemporaryDirectory": "PATH_TO_TEMP_DIR_ON_GCS",
      "connectionProperties": "CONNECTION_PROPERTIES",
      "username": "CONNECTION_USERNAME",
      "password": "CONNECTION_PASSWORD",
      "KMSEncryptionKey":"KMS_ENCRYPTION_KEY"
    },
    "environment": { "zone": "us-central1-f" }
  }
}

更改下列內容:

  • PROJECT_ID: 您要執行 Dataflow 工作的專案 ID Google Cloud
  • JOB_NAME: 您選擇的不重複工作名稱
  • VERSION: 您要使用的範本版本

    您可以使用下列值:

  • LOCATION: 您要部署 Dataflow 工作的地區,例如 us-central1
  • JDBC_CONNECTION_URL:JDBC 連線網址
  • SOURCE_SQL_QUERY:要在來源資料庫執行的 SQL 查詢
  • DATASET:您的 BigQuery 資料集
  • TABLE_NAME:BigQuery 資料表名稱
  • PATH_TO_TEMP_DIR_ON_GCS:Cloud Storage 中暫時目錄的路徑
  • CONNECTION_PROPERTIES:JDBC 連線屬性 (如有需要)
  • CONNECTION_USERNAME:JDBC 連線使用者名稱
  • CONNECTION_PASSWORD:JDBC 連線密碼
  • KMS_ENCRYPTION_KEY:Cloud KMS 加密金鑰

後續步驟