Concetti fondamentali relativi alla pipeline per gli SDK Apache Beam

Apache Beam è un modello unificato open source per definire pipeline di elaborazione parallela dei dati sia in batch sia in flussi. Prima di iniziare a utilizzare Dataflow, scopri come progettare, creare e testare le pipeline Apache Beam.

Risorse Apache Beam

Sul sito web di Apache Beam puoi trovare la documentazione su:

  • Come progettare la pipeline: spiega come determinare la struttura della pipeline, come scegliere le trasformazioni da applicare ai dati e come determinare i metodi di input e output.

  • Come creare la pipeline: spiega la procedura di utilizzo delle classi negli SDK Beam e i passaggi necessari per creare una pipeline.

  • Come testare la pipeline: presenta le best practice per testare le pipeline.