Per scrivere da Dataflow ad Apache Iceberg utilizzando il catalogo REST BigLake, utilizza il connettore I/O gestito.
L'I/O gestito supporta le seguenti funzionalità per Apache Iceberg:
Cataloghi |
|
---|---|
Funzionalità di lettura | Lettura batch |
Capacità di scrittura |
|
Per le tabelle BigQuery per Apache Iceberg,
utilizza il
connettore BigQueryIO
con l'API BigQuery Storage. La tabella deve già esistere; la creazione dinamica della tabella non è supportata.
Prerequisiti
Configura BigLake. Configura il tuo progetto Google Cloud Platform con le autorizzazioni richieste seguendo le istruzioni riportate in Utilizzare BigLake Metastore con il catalogo REST Iceberg. Assicurati di comprendere le limitazioni del catalogo REST BigLake Iceberg descritte in questa pagina.
Dipendenze
Aggiungi le seguenti dipendenze al tuo progetto:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
Esempio
L'esempio seguente mostra una pipeline di streaming che scrive dati in una tabella Apache Iceberg utilizzando il catalogo REST, supportato da BigLake Metastore.
Java
Per eseguire l'autenticazione in Dataflow, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Passaggi successivi
- Lettura CDC da Apache Iceberg con il catalogo REST BigLake.
- Scopri di più su I/O gestito.
- Scopri di più sul catalogo REST BigLake.