將查詢結果匯出至 Blob 儲存體

本文說明如何將針對 BigLake 資料表執行的查詢結果匯出至 Azure Blob 儲存體。

如要瞭解 BigQuery 和 Azure Blob Storage 之間的資料流動方式,請參閱「匯出資料時的資料流動」。

限制

如需適用於 Amazon S3 和 Blob 儲存體 BigLake 資料表的完整限制清單,請參閱「限制」。

事前準備

請確認您已備妥下列資源:

匯出查詢結果

無論現有內容為何,BigQuery Omni 都會寫入指定的 Blob 儲存體位置。匯出查詢可以覆寫現有資料,或將查詢結果與現有資料混合。建議您將查詢結果匯出至空 Blob 儲存體容器。

  1. 前往 Google Cloud 控制台的「BigQuery」頁面。

    前往 BigQuery

  2. 在「Query editor」(查詢編輯器) 欄位中輸入 GoogleSQL 匯出查詢:

    EXPORT DATA WITH CONNECTION \`CONNECTION_REGION.CONNECTION_NAME\`
    OPTIONS(
      uri="azure://AZURE_STORAGE_ACCOUNT_NAME.blob.core.windows.net/CONTAINER_NAME/FILE_PATH/*",
      format="FORMAT"
    )
    AS QUERY

    更改下列內容:

    • CONNECTION_REGION:建立連線的區域。
    • CONNECTION_NAME:您建立的連線名稱,具有寫入容器的必要權限。
    • AZURE_STORAGE_ACCOUNT_NAME:您要寫入查詢結果的 Blob 儲存體帳戶名稱。
    • CONTAINER_NAME:您要寫入查詢結果的容器名稱。
    • FILE_PATH:您要將匯出檔案寫入的路徑。路徑字串的葉目錄中必須包含正確的萬用字元 *,例如 ../aa/*../aa/b*c../aa/*bc../aa/bc*。視匯出的檔案數量而定,BigQuery 會將 * 替換為 0000..N。BigQuery 會決定檔案數量和大小。如果 BigQuery 決定匯出兩個檔案,則第一個檔案的檔案名稱中的 * 會替換為 000000000000,第二個檔案的檔案名稱中的 * 會替換為 000000000001
    • FORMAT:支援的格式為 JSONAVROCSVPARQUET
    • QUERY:用於分析 BigLake 資料表中儲存的資料的查詢。

疑難排解

如果您收到與 quota failure 相關的錯誤訊息,請檢查是否已為查詢保留容量。如要進一步瞭解時段預留功能,請參閱本文件的事前準備

後續步驟