Usa BigLake Metastore con tablas en BigQuery
En este documento, se explica cómo usar el metastore de BigLake con tablas de BigQuery y Spark.
Con BigLake Metastore, puedes crear y usar tablas estándar (integradas), tablas de BigLake para Apache Iceberg en BigQuery y tablas externas de solo lectura de Apache Iceberg desde BigQuery.
Antes de comenzar
- Habilita la facturación para tu proyecto de Google Cloud . Obtén información para verificar si la facturación está habilitada en un proyecto.
Habilita las APIs de BigQuery y Dataproc.
Opcional: Comprende cómo funciona BigLake Metastore y por qué deberías usarlo.
Roles obligatorios
Para obtener los permisos que necesitas para usar Spark y Dataproc con el metastore de BigLake como almacén de metadatos, pídele a tu administrador que te otorgue los siguientes roles de IAM:
-
Crea tablas de BigLake Metastore en Spark:
-
Trabajador de Dataproc (
roles/dataproc.worker
) en la cuenta de servicio de Dataproc Serverless del proyecto -
Editor de datos de BigQuery (
roles/bigquery.dataEditor
) en la cuenta de servicio de Dataproc Serverless del proyecto -
Administrador de objetos de almacenamiento (
roles/storage.objectAdmin
) en la cuenta de servicio de Dataproc Serverless del proyecto
-
Trabajador de Dataproc (
-
Consulta las tablas de BigLake Metastore en BigQuery:
-
Visualizador de datos de BigQuery (
roles/bigquery.dataViewer
) en el proyecto -
Usuario de BigQuery (
roles/bigquery.user
) en el proyecto -
Visualizador de objetos de Storage (
roles/storage.objectViewer
) en el proyecto
-
Visualizador de datos de BigQuery (
Para obtener más información sobre cómo otorgar roles, consulta Administra el acceso a proyectos, carpetas y organizaciones.
También puedes obtener los permisos necesarios mediante roles personalizados o cualquier otro rol predefinido.
Conectarse a una tabla
Crea un conjunto de datos en la consola de Google Cloud .
CREATE SCHEMA `PROJECT_ID`.DATASET_NAME;
Reemplaza lo siguiente:
PROJECT_ID
: Es el ID del proyecto Google Cloud en el que se creará el conjunto de datos.DATASET_NAME
: Un nombre para tu conjunto de datos.
Crea una conexión de recursos de Cloud.
Crea una tabla estándar de BigQuery.
CREATE TABLE `PROJECT_ID`.DATASET_NAME.TABLE_NAME (name STRING,id INT64);
Reemplaza lo siguiente:
TABLE_NAME
: Un nombre para tu tabla.
Inserta datos en la tabla estándar de BigQuery.
INSERT INTO `PROJECT_ID`.DATASET_NAME.TABLE_NAME VALUES ('test_name1', 123),('test_name2', 456),('test_name3', 789);
Crea una tabla de BigLake para Apache Iceberg en BigQuery.
Por ejemplo, para crear una tabla, ejecuta la siguiente instrucción
CREATE
.CREATE TABLE `PROJECT_ID`.DATASET_NAME.ICEBERG_TABLE_NAME( name STRING,id INT64 ) WITH CONNECTION `CONNECTION_NAME` OPTIONS ( file_format = 'PARQUET', table_format = 'ICEBERG', storage_uri = 'STORAGE_URI');
Reemplaza lo siguiente:
ICEBERG_TABLE_NAME
: Es un nombre para tu tabla de BigLake para Apache Iceberg en BigQuery. Por ejemplo,iceberg_managed_table
CONNECTION_NAME
: Es el nombre de tu conexión. La creaste en el paso anterior. Por ejemplo,myproject.us.myconnection
STORAGE_URI
: Es un URI de Cloud Storage completamente calificado. Por ejemplo,gs://mybucket/table
Inserta datos en la tabla de BigLake para Apache Iceberg en BigQuery.
INSERT INTO `PROJECT_ID`.DATASET_NAME.ICEBERG_TABLE_NAME VALUES ('test_name1', 123),('test_name2', 456),('test_name3', 789);
Crea una tabla externa de Apache Iceberg de solo lectura.
Por ejemplo, para crear una tabla de Iceberg de solo lectura, ejecuta la siguiente instrucción
CREATE
.CREATE OR REPLACE EXTERNAL TABLE `PROJECT_ID`.DATASET_NAME.READONLY_ICEBERG_TABLE_NAME WITH CONNECTION `CONNECTION_NAME` OPTIONS ( format = 'ICEBERG', uris = ['BUCKET_PATH'], require_partition_filter = FALSE);
Reemplaza lo siguiente:
READONLY_ICEBERG_TABLE_NAME
: Es un nombre para tu tabla de solo lectura.BUCKET_PATH
: Es la ruta al bucket de Cloud Storage que contiene los datos de la tabla externa, en el formato['gs://bucket_name/[folder_name/]file_name']
.
Desde PySpark, consulta la tabla estándar, la tabla de BigLake para Apache Iceberg en BigQuery y la tabla externa de solo lectura de Apache Iceberg.
from pyspark.sql import SparkSession # Create a spark session spark = SparkSession.builder \ .appName("BigLake Metastore Iceberg") \ .config("spark.sql.catalog.CATALOG_NAME", "org.apache.iceberg.spark.SparkCatalog") \ .config("spark.sql.catalog.CATALOG_NAME.catalog-impl", "org.apache.iceberg.gcp.bigquery.BigQueryMetastoreCatalog") \ .config("spark.sql.catalog.CATALOG_NAME.gcp_project", "PROJECT_ID") \ .config("spark.sql.catalog.CATALOG_NAME.gcp_location", "LOCATION") \ .config("spark.sql.catalog.CATALOG_NAME.warehouse", "WAREHOUSE_DIRECTORY") \ .getOrCreate() spark.conf.set("viewsEnabled","true") # Use the blms_catalog spark.sql("USE `CATALOG_NAME`;") spark.sql("USE NAMESPACE DATASET_NAME;") # Configure spark for temp results spark.sql("CREATE namespace if not exists MATERIALIZATION_NAMESPACE"); spark.conf.set("materializationDataset","MATERIALIZATION_NAMESPACE") # List the tables in the dataset df = spark.sql("SHOW TABLES;") df.show(); # Query the tables sql = """SELECT * FROM DATASET_NAME.TABLE_NAME""" df = spark.read.format("bigquery").load(sql) df.show() sql = """SELECT * FROM DATASET_NAME.ICEBERG_TABLE_NAME""" df = spark.read.format("bigquery").load(sql) df.show() sql = """SELECT * FROM DATASET_NAME.READONLY_ICEBERG_TABLE_NAME""" df = spark.read.format("bigquery").load(sql) df.show()
Reemplaza lo siguiente:
WAREHOUSE_DIRECTORY
: Es el URI de la carpeta de Cloud Storage que está conectada a tu tabla de BigLake Iceberg en BigQuery y a tu tabla de solo lectura de Iceberg.CATALOG_NAME
: Es el nombre del catálogo que usas.MATERIALIZATION_NAMESPACE
: Es el espacio de nombres para almacenar los resultados temporales.
Ejecuta la secuencia de comandos de PySpark con Spark sin servidores.
gcloud dataproc batches submit pyspark SCRIPT_PATH \ --version=2.2 \ --project=PROJECT_ID \ --region=REGION \ --deps-bucket=YOUR_BUCKET \
Reemplaza lo siguiente:
SCRIPT_PATH
: Es la ruta de acceso a la secuencia de comandos que usa el trabajo por lotes.PROJECT_ID
: Es el ID del proyecto Google Cloud en el que se ejecutará el trabajo por lotes.REGION
: Es la región en la que se ejecuta tu carga de trabajo.YOUR_BUCKET
: Es la ubicación del bucket de Cloud Storage en el que se subirán las dependencias de la carga de trabajo. No se requiere el prefijo de URIgs://
del bucket. Puedes especificar la ruta de acceso o el nombre del bucket, por ejemplo,mybucketname1
.
¿Qué sigue?
- Configura las funciones opcionales de BigLake Metastore.