Para escribir desde Dataflow en Apache Iceberg con el catálogo de BigLake REST, usa el conector de E/S administrado.
La E/S administrada admite las siguientes capacidades para Apache Iceberg:
Catálogos |
|
---|---|
Capacidades de lectura | Lectura por lotes |
Capacidades de escritura |
|
Para las tablas de BigQuery para Apache Iceberg, usa el conector de BigQueryIO
con la API de BigQuery Storage. La tabla ya debe existir. No se admite la creación de tablas dinámicas.
Requisitos previos
Configura BigLake. Configura tu proyecto de Google Cloud Platform con los permisos necesarios siguiendo los pasos que se indican en Usa BigLake Metastore con el catálogo de REST de Iceberg. Asegúrate de comprender las limitaciones del catálogo de Iceberg de BigLake con REST que se describen en esa página.
Dependencias
Agrega las siguientes dependencias a tu proyecto:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
Ejemplo
En el siguiente ejemplo, se muestra una canalización de transmisión que escribe datos en una tabla de Apache Iceberg con el catálogo de REST, respaldado por BigLake Metastore.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
¿Qué sigue?
- Lectura de CDC desde Apache Iceberg con el catálogo de REST de BigLake.
- Obtén más información sobre E/S administradas.
- Obtén más información sobre el Catálogo de BigLake con REST.