Apache Iceberg 用の BigQuery テーブル

プレビュー版のサポートについては、bigquery-tables-for-apache-iceberg-help@google.com までメールでお問い合わせください。

Apache Iceberg 用の BigQuery テーブル(以下、Iceberg テーブル)は、 Google Cloudでオープン形式のレイクハウスを構築するための基盤になります。Iceberg テーブルは BigQuery テーブルと同じフルマネージド エクスペリエンスを提供します。また、Parquet を使用してお客様所有のストレージ バケットにデータを保存することで、オープン形式の Iceberg テーブル形式と相互運用が可能です。

Apache Iceberg 用の BigQuery テーブルと、Apache Iceberg 用の BigLake 外部テーブルは別物で、BigQuery 内で直接変更できるのは Apache Iceberg 用の BigQuery テーブルのみです。Apache Iceberg 用の BigLake 外部テーブルは、Apache Spark など別のクエリエンジンから生成された読み取り専用テーブルで、BigQuery を使用してのみクエリできます。

Iceberg テーブルは、次の機能をサポートしています。

  • テーブル ミューテーション: GoogleSQL データ操作言語(DML)を使用します。
  • 統合されたバッチ処理と高スループット ストリーミング: Spark、Dataflow、その他のエンジンなどの BigLake コネクタを介して Storage Write API を使用します。
  • スキーマの進化: ニーズに合わせて列の追加、削除、名前の変更を行えます。この機能を使用すると、既存の列のデータ型の変更や、列モードの変更ができます。詳細については、型変換規則をご覧ください。
  • ストレージの自動最適化: 適応型ファイルサイズ設定、自動クラスタリング、ガベージ コレクション、メタデータの最適化などが含まれます。
  • 列レベルのセキュリティデータ マスキング

次の表に、BigQuery Iceberg テーブルと BigQuery の他の類似テーブルの種類を比較します。

標準の BigQuery テーブル BigLake 外部テーブル Apache Iceberg 用の BigLake 外部テーブル(BigLake Iceberg テーブル) BigQuery Metastore Iceberg テーブルプレビュー Apache Iceberg 用の BigQuery テーブル(Iceberg マネージド テーブル / BigQuery Iceberg テーブル)(プレビュー
主な機能 フルマネージド エクスペリエンス オープンソース エンジンと BigQuery エンジン全体でガバナンス(きめ細かいアクセス制御)と機能が提供される BigLake 外部テーブルの機能 + データの整合性、スキーマの更新。Spark や他のオープンエンジンからは作成できません。 BigLake Iceberg テーブルの機能 + 外部エンジンから変更可能。DDL や bq コマンドライン ツールでは作成できません。 BigLake Iceberg テーブルの機能 + オープンデータとメタデータによる低い管理オーバーヘッド
データ ストレージ BigQuery マネージド ストレージ ユーザー管理バケットでホストされているオープン形式のデータ
オープンモデル BigQuery Storage Read API(コネクタ経由) オープン ファイル形式(Parquet) オープン ライブラリ(Iceberg) オープンソース互換(Iceberg メタデータ スナップショット)
ガバナンス 統合された BigQuery ガバナンス
書き込み(DML とストリーミング) BigQuery コネクタ、API、高スループット DML、CDC を使用。 外部エンジン経由の書き込みのみ BigQuery コネクタ、API、高スループット DML、CDC を使用。

アーキテクチャ

Iceberg テーブルを使用すると、独自のクラウド バケットに存在するテーブルで、BigQuery リソース管理の利便性を享受できます。Iceberg テーブルにより、管理するバケットからデータを移動することなく、これらのテーブルで BigQuery を使用できます。

次の図は、マネージド テーブルのアーキテクチャの概要を示しています。Iceberg 用 BigQuery のテーブルのアーキテクチャ図。

このテーブル管理は、バケットに次のような影響を与えます。

  • BigQuery は、書き込みリクエストやバックグラウンドのストレージ最適化(DML ステートメントやストリーミングなど)に応じて、バケットに新しいデータファイルを作成します。
  • BigQuery でマネージド テーブルを削除しても、関連するデータファイルは削除されません。確実に削除するには、ファイルと、エクスポートされたテーブル メタデータを、バケットから手動で削除する必要があります。
  • Iceberg テーブルを使用するうえで、BigQuery のストレージ費用は発生しません。詳しくは、お支払いをご覧ください。

Iceberg テーブルの作成は、BigQuery テーブルの作成と似ています。データをオープン形式で Cloud Storage に保存するため、以下のようなオプションも使用できます。

  • WITH CONNECTION を使用して Cloud リソース接続を指定し、BigLake が Cloud Storage にアクセスするための接続認証情報を構成します。
  • file_format を使用してデータ ストレージのファイル形式を指定します。PARQUET はプレビュー版でサポートされています。
  • table_format を使用してオープンソースのメタデータ テーブル形式を指定します。ICEBERG はプレビュー版でサポートされています。

ベスト プラクティス

BigQuery の外部でバケットのファイルを直接変更または追加すると、データ損失や回復不能エラーが発生する可能性があります。次の表に、考えられるシナリオを示します。

操作 結果 予防策
BigQuery の外部にあるバケットに新しいファイルを追加する。 データ損失: BigQuery の外部で追加された新しいファイルやオブジェクトは、BigQuery によって追跡されません。追跡されないファイルは、バックグラウンドのガベージ コレクション プロセスによって削除されます。 データの追加を常に BigQuery を介して行うと、BigQuery によってファイルが追跡され、ガベージ コレクションを防止できます。
誤って追加されることやデータが失われることがないように、Iceberg テーブルを含むバケットに対して、外部ツールの書き込み権限を制限することもおすすめします。
空でない接頭辞に新しい Iceberg テーブルを作成します。 データ損失: 既存のデータは BigQuery によって追跡されないため、これらのファイルは追跡対象外とみなされ、バックグラウンドのガベージ コレクション プロセスによって削除されます。 空の接頭辞にのみ新しい Iceberg テーブルを作成します。
Iceberg テーブルのデータファイルを変更または置換する データ損失: 外部で変更または置換を行うと、テーブルの整合性チェックが失敗して読み取り不能になり、テーブルに対するクエリが失敗します。
この状態からセルフサービスで復元する方法はありません。データ復元のサポートが必要な場合は、サポートにご連絡ください。
データの変更を常に BigQuery を介して行うと、BigQuery によってファイルが追跡され、ガベージ コレクションを防止できます。
誤って追加されることやデータが失われることがないように、Iceberg テーブルを含むバケットに対して、外部ツールの書き込み権限を制限することもおすすめします。
同じ、または重複している URI に Apache Iceberg 用の BigQuery テーブルを 2 つ作成する データ損失: BigQuery は、Iceberg テーブルの同じ URI インスタンスをブリッジしません。各テーブルのバックグラウンドのガベージ コレクション プロセスは、もう一方のテーブルにあるファイルを追跡対象外とみなして削除するため、データ損失が発生します。 Iceberg テーブルごとに一意の URI を使用します。

ロケーションに関する考慮事項

マルチリージョン バケットではなく、Cloud Storage のシングル リージョン バケットまたはデュアル リージョン バケットを使用することでパフォーマンスを改善できます。

課金

次の機能には、既存の公開済み料金で課金されます。

  • Cloud Storage の料金。Cloud Storage バケットに保存されているデータ、Cloud Storage によるデータ処理、ご使用中のバケットから読み取られたデータ量に対するネットワーク使用量がすべて含まれます。
  • BigQuery コンピューティングの料金。クエリ、DML、バックグラウンド ストレージ最適化(クラスタリング、統合、ガベージ コレクションなど)で発生します。
    • 予約(スロット)の使用料は、既存のスロット料金に従います。
    • オンデマンドの最小管理単位(SKU)を使用する料金は、既存のオンデマンド料金に従います。詳細については、BigLake の費用をご覧ください。
  • バッチ読み込み抽出のコンピューティングは、オンデマンド SKU または予約(スロット)を使用して課金されます。
  • Storage Read API の料金: Read API を介した Spark からの読み取り。
  • Storage Write API の料金: ストリーミング。

Iceberg テーブルのワークフロー

次のセクションでは、マネージド テーブルの作成、読み込み、管理、クエリの方法について説明します。

始める前に

Iceberg テーブルを作成して使用する前に、ストレージ バケットへの Cloud リソース接続が設定されていることを確認してください。次の必要なロール セクションで指定されているように、接続にはストレージ バケットへの書き込み権限が必要です。接続に必要なロールと権限の詳細については、接続を管理するをご覧ください。

必要なロール

プロジェクト内のテーブルを BigQuery が管理できるようにするために必要な権限を取得するには、次の IAM ロールの付与を管理者に依頼してください。

ロールの付与については、プロジェクト、フォルダ、組織へのアクセス権の管理をご覧ください。

これらの事前定義ロールには、プロジェクト内のテーブルの BigQuery による管理を許可するために必要な権限が含まれています。必要とされる正確な権限については、「必要な権限」セクションを開いてご確認ください。

必要な権限

プロジェクト内のテーブルの BigQuery による管理を許可するには、次の権限が必要です。

  • プロジェクトに対する bigquery.connections.delegate
  • プロジェクトに対する bigquery.jobs.create
  • プロジェクトに対する bigquery.readsessions.create
  • プロジェクトに対する bigquery.tables.create
  • プロジェクトに対する bigquery.tables.get
  • プロジェクトに対する bigquery.tables.getData
  • バケットに対する storage.buckets.get
  • バケットに対する storage.objects.create
  • バケットに対する storage.objects.delete
  • バケットに対する storage.objects.get
  • バケットに対する storage.objects.list

カスタムロールや他の事前定義ロールを使用して、これらの権限を取得することもできます。

Iceberg テーブルを作成する

Iceberg テーブルを作成するには、次のいずれかの方法を選択します。

SQL

CREATE TABLE [PROJECT_NAME.]DATASET_NAME.TABLE_NAME (
COLUMN DATA_TYPE[, ...]
)
CLUSTER BY CLUSTER_COLUMN_LIST
WITH CONNECTION {CONNECTION_NAME | DEFAULT}
OPTIONS (
file_format = 'PARQUET',
table_format = 'ICEBERG',
storage_uri = 'STORAGE_URI');

次のように置き換えます。

  • PROJECT_NAME: データセットを含むプロジェクト。未定義の場合、コマンドはデフォルトのプロジェクトを想定します。
  • DATASET_NAME: 既存のデータセット。
  • TABLE_NAME: 作成するテーブルの名前。
  • DATA_TYPE: 列に含まれる情報のデータ型。
  • CLUSTER_COLUMN_LIST: 最大 4 つの列を含むカンマ区切りリスト。最上位の非繰り返し列である必要があります。
  • CONNECTION_NAME: 接続の名前。例: myproject.us.myconnection

    デフォルトの接続を使用するには、PROJECT_ID.REGION.CONNECTION_ID を含む接続文字列の代わりに DEFAULT を指定します。

  • STORAGE_URI: 完全修飾の Cloud Storage URI。例: gs://mybucket/table

bq

bq --project_id=PROJECT_NAME mk \
    --file_format=PARQUET \
    --table_format=ICEBERG \
    --connection_id=CONNECTION_NAME \
    --storage_uri=STORAGE_URI \
    --schema=COLUMN_NAME:DATA_TYPE[, ...] \
    --clustering_fields=CLUSTER_COLUMN_LIST \
    MANAGED_TABLE_NAME

次のように置き換えます。

  • PROJECT_NAME: データセットを含むプロジェクト。未定義の場合、コマンドはデフォルトのプロジェクトを想定します。
  • CONNECTION_NAME: 接続の名前。例: myproject.us.myconnection
  • STORAGE_URI: 完全修飾の Cloud Storage URI。例: gs://mybucket/table
  • COLUMN_NAME: 列の名前。
  • DATA_TYPE: 列に含まれる情報のデータ型。
  • CLUSTER_COLUMN_LIST: 最大 4 つの列を含むカンマ区切りリスト。最上位の非繰り返し列である必要があります。
  • MANAGED_TABLE_NAME: 作成するテーブルの名前。

API

次のように、定義済みのテーブル リソースを使用して tables.insert メソッドを呼び出します。

{
"tableReference": {
  "tableId": "TABLE_NAME"
},
"biglakeConfiguration": {
  "connectionId": "CONNECTION_NAME",
  "fileFormat": "PARQUET",
  "tableFormat": "ICEBERG",
  "storageUri": "STORAGE_URI"
},
"schema": {
  "fields": [
    {
      "name": "COLUMN_NAME",
      "type": "DATA_TYPE"
    }
    [, ...]
  ]
}
}

次のように置き換えます。

  • TABLE_NAME: 作成するテーブルの名前。
  • CONNECTION_NAME: 接続の名前。例: myproject.us.myconnection
  • STORAGE_URI: 完全修飾の Cloud Storage URIワイルドカードもサポートされます。例: gs://mybucket/table
  • COLUMN_NAME: 列の名前。
  • DATA_TYPE: 列に含まれる情報のデータ型。

Iceberg テーブルにデータをインポートする

次のセクションでは、さまざまなテーブル形式から Iceberg テーブルにデータをインポートする方法について説明します。

フラット ファイルからのデータの標準読み込み

Iceberg テーブルは、BigQuery 読み込みジョブを使用して外部ファイルを Iceberg テーブルに読み込みます。既存の Iceberg テーブルがある場合は、bq load CLI ガイドまたは LOAD SQL ガイドに沿って外部データを読み込みます。データの読み込み後、新しい Parquet ファイルが STORAGE_URI/data フォルダに書き込まれます。

既存の Iceberg テーブルがない場合に前述の手順を行うと、代わりに BigQuery テーブルが作成されます。

マネージド テーブルへのバッチ読み込みの、ツール固有の例については、以下をご覧ください。

SQL

LOAD DATA INTO MANAGED_TABLE_NAME
FROM FILES (
uris=['STORAGE_URI'],
format='FILE_FORMAT');

次のように置き換えます。

  • MANAGED_TABLE_NAME: 既存の Iceberg テーブルの名前。
  • STORAGE_URI: 完全修飾の Cloud Storage URI または URI のカンマ区切りのリスト。ワイルドカードもサポートされます。例: gs://mybucket/table
  • FILE_FORMAT: ソーステーブルの形式。サポートされている形式については、load_option_listformat 行をご覧ください。

bq

bq load \
  --source_format=FILE_FORMAT \
  MANAGED_TABLE \
  STORAGE_URI

次のように置き換えます。

  • FILE_FORMAT: ソーステーブルの形式。サポートされている形式については、load_option_listformat 行をご覧ください。
  • MANAGED_TABLE_NAME: 既存の Iceberg テーブルの名前。
  • STORAGE_URI: 完全修飾の Cloud Storage URI または URI のカンマ区切りのリスト。ワイルドカードもサポートされます。例: gs://mybucket/table

Hive パーティション分割ファイルからの標準読み込み

BigQuery の標準読み込みジョブを使用して、Hive パーティション分割ファイルを Iceberg テーブルに読み込むことができます。詳細については、外部パーティション分割データの読み込みをご覧ください。

Pub/Sub からストリーミング データを読み込む

Pub/Sub BigQuery サブスクリプションを使用して、ストリーミング データを Iceberg テーブルに読み込むことができます。

Iceberg テーブルからデータをエクスポートする

次のセクションでは、Iceberg テーブルからさまざまなテーブル形式にデータをエクスポートする方法について説明します。

データをフラット形式にエクスポートする

Iceberg テーブルをフラット形式にエクスポートするには、EXPORT DATA ステートメントを使用してエクスポート先の形式を選択します。詳細については、データのエクスポートをご覧ください。

Iceberg テーブルのメタデータ スナップショットを作成する

Iceberg テーブルのメタデータ スナップショットを作成する手順は次のとおりです。

  1. EXPORT TABLE METADATA SQL ステートメントを使用して、メタデータを Iceberg 形式にエクスポートします。

  2. 省略可: Iceberg メタデータ スナップショットの更新をスケジュールします。設定された時間間隔で Iceberg メタデータ スナップショットを更新するには、スケジュールされたクエリを使用します。

次の例では、DDL ステートメント EXPORT TABLE METADATA FROM mydataset.test を使用して、My Scheduled Snapshot Refresh Query という名前のスケジュールされたクエリを作成します。コピー先データセットは mydataset です。DDL ステートメントは 24 時間ごとに実行されます。

bq query \
    --use_legacy_sql=false \
    --destination_dataset=mydataset
    --display_name='My Scheduled Snapshot Refresh Query' \
    --schedule='every 24 hours' \
    'EXPORT TABLE METADATA FROM mydataset.test'

Iceberg テーブルのメタデータ スナップショットを表示する

Iceberg テーブルのメタデータ スナップショットを更新すると、Iceberg テーブルが最初に作成された Cloud Storage URI でスナップショットを確認できます。/data フォルダには Parquet ファイルのデータシャードが含まれ、/metadata フォルダには Iceberg テーブルのメタデータ スナップショットが含まれます。

SELECT
  table_name,
  REGEXP_EXTRACT(ddl, r"storage_uri\s*=\s*\"([^\"]+)\"") AS storage_uri
FROM
  `mydataset`.INFORMATION_SCHEMA.TABLES;

mydatasettable_name は、実際のデータセットとテーブルのプレースホルダです。

Apache Spark で Iceberg テーブルを読み取る

HadoopCatalog を使用して Apache Spark でテーブルデータをセットアップし、読み取ります。

次の例では、Apache Iceberg で Spark SQL を使用するように環境をセットアップしてから、クエリを実行して、指定された Iceberg テーブルからデータを取得します。

spark-sql \
  --packages org.apache.iceberg:iceberg-spark-runtime-ICEBERG_VERSION_NUMBER \
  --conf spark.sql.catalog.CATALOG_NAME=org.apache.iceberg.spark.SparkCatalog \
  --conf spark.sql.catalog.CATALOG_NAME.type=hadoop \
  --conf spark.sql.catalog.CATALOG_NAME.warehouse='BUCKET_PATH' \

# Query the table
SELECT * FROM CATALOG_NAME.FOLDER_NAME;

次のように置き換えます。

  • ICEBERG_VERSION_NUMBER: Apache Spark Iceberg ランタイムの現在のバージョン。Spark のリリースから最新バージョンをダウンロードしてください。
  • CATALOG_NAME: Iceberg テーブルを参照するカタログ。
  • BUCKET_PATH: テーブル ファイルを含むバケットへのパス。例: gs://mybucket/
  • FOLDER_NAME: テーブル ファイルを含むフォルダ。例: myfolder

Iceberg テーブルを変更する

Iceberg テーブルを変更するには、テーブル スキーマの変更の手順に沿って操作します。

料金

Iceberg テーブルの料金には、次の 3 つの部分が含まれています。

ストレージ

Iceberg テーブルは、すべてのデータを Cloud Storage に保存します。保存されたすべてのデータ(過去のテーブルデータを含む)に対して課金されます。必要に応じて、Cloud Storage のデータ処理転送料金も適用される場合があります。BigQuery 固有のストレージ料金はありません。詳しくは、Cloud Storage の料金をご覧ください。

ストレージ最適化

Iceberg テーブルには、ファイルの統合や再クラスタリングなどのストレージ最適化オペレーションが必要です。これらの最適化オペレーションは、Enterprise エディションの従量課金制スロットを使用し、既存の BACKGROUND 予約は使用しません。

BigQuery Storage Write API を介してストリーミング中に実行されるデータのエクスポート オペレーションは Storage Write API の料金に含まれており、バックグラウンドでの保守としては課金されません。詳細については、データの取り込みの料金をご覧ください。

ストレージ最適化の使用状況は、[INFORMATION_SCHEMA.JOBS] ビューに表示されます。

クエリとジョブ

BigQuery テーブルと同様に、BigQuery オンデマンド料金を使用する場合はクエリと読み取りバイト数(TiB 単位)、BigQuery 容量コンピューティングの料金を使用する場合はスロットの使用量(スロット時間単位)に基づいて課金されます。

BigQuery の料金は、BigQuery Storage Read APIBigQuery Storage Write API にも適用されます。

読み込みオペレーションとエクスポート オペレーション(EXPORT METADATA など)は、Enterprise エディションの従量課金制スロットを使用します。これは、これらのオペレーションに対して料金が発生しない BigQuery テーブルと異なる点です。Enterprise または Enterprise Plus のスロットによる PIPELINE 予約が使用可能な場合、読み込みオペレーションとエクスポート オペレーションでは、代わりにこれらの予約スロットが優先的に使用されます。

制限事項

Iceberg テーブルには次の制限があります。