Para escribir desde Dataflow en Apache Iceberg mediante el catálogo REST de BigLake, usa el conector de E/S gestionado.
La E/gestionada admite las siguientes funciones de Apache Iceberg:
Catálogos |
|
---|---|
Funciones de lectura | Lectura por lotes |
Funciones de escritura |
|
En el caso de las tablas de BigQuery para Apache Iceberg,
usa el
conector BigQueryIO
con la API Storage de BigQuery. La tabla ya debe existir. No se admite la creación de tablas dinámicas.
Requisitos previos
Configura BigLake. Configura tu proyecto de Google Cloud Platform con los permisos necesarios siguiendo las instrucciones de Usar BigLake Metastore con el catálogo REST de Iceberg. Asegúrate de que conoces las limitaciones del catálogo REST de Iceberg de BigLake que se describen en esa página.
Dependencias
Añade las siguientes dependencias a tu proyecto:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
Ejemplo
En el siguiente ejemplo se muestra una canalización de streaming que escribe datos en una tabla de Apache Iceberg mediante el catálogo REST, respaldado por BigLake Metastore.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
Siguientes pasos
- Lectura de CDC de Apache Iceberg con el catálogo REST de BigLake.
- Consulta más información sobre E/S gestionada.
- Más información sobre el catálogo de REST de BigLake