Para leer datos de Apache Iceberg en Dataflow, usa el conector de E/S gestionado.
La E/gestionada admite las siguientes funciones de Apache Iceberg:
Catálogos |
|
---|---|
Funciones de lectura | Lectura por lotes |
Funciones de escritura |
|
En el caso de las tablas de BigQuery para Apache Iceberg,
usa el
conector BigQueryIO
con la API Storage de BigQuery. La tabla ya debe existir. No se admite la creación de tablas dinámicas.
Dependencias
Añade las siguientes dependencias a tu proyecto:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
Ejemplo
En el siguiente ejemplo se leen datos de una tabla de Apache Iceberg y se escriben en archivos de texto.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
Siguientes pasos
- Escribir en Apache Iceberg.
- Escritura de streaming en Apache Iceberg con el catálogo REST de BigLake.
- Consulta más información sobre E/S gestionada.