Google fornisce
modelli Dataflow open source
che puoi utilizzare anziché scrivere codice della pipeline. Questa pagina elenca i modelli disponibili. Le immagini container per questi modelli sono ospitate all'indirizzo
gcr.io/dataflow-templates
.
- Per informazioni generali sui modelli, consulta la panoramica.
- Per iniziare, esegui il modello di esempio WordCount.
- Per creare un modello, scopri come estendere i modelli.
Modelli di streaming
Modelli per l'elaborazione continua dei dati:
- Apache Kafka ad Apache Kafka
- Apache Kafka a BigQuery
- Apache Kafka a Cloud Storage
- Change Data Capture da MySQL a BigQuery (stream)
- modifiche in tempo reale Bigtable a BigQuery
- Bigtable modifiche in tempo reale a Pub/Sub
- Spanner modifiche in tempo reale a BigQuery
- modifiche in tempo reale di Spanner a Cloud Storage
- Spanner modifiche in tempo reale a qualsiasi database di origine
- modifiche in tempo reale Spanner a Pub/Sub
- Datastream to BigQuery (Stream)
- Datastream a Spanner
- Datastream a MySQL o PostgreSQL (stream)
- Data masking/tokenizzazione da Cloud Storage a BigQuery (utilizzando Cloud DLP)
- JMS a Pub/Sub
- MongoDB a BigQuery (stream)
- MQTT a Pub/Sub
- Da Pub/Sub a BigQuery
- Da Pub/Sub a BigQuery con la funzione definita dall'utente Python
- Pub/Sub Avro to BigQuery
- Pub/Sub Proto to BigQuery
- Pub/Sub Proto to BigQuery con UDF Python
- Sottoscrizione Pub/Sub in BigQuery
- Pub/Sub in file Avro su Cloud Storage
- Pub/Sub a Datadog
- Pub/Sub a Elasticsearch
- Da Pub/Sub a Java Database Connectivity (JDBC)
- Da Pub/Sub a MongoDB
- Da Pub/Sub a MongoDB con la funzione definita dall'utente Python
- Da Pub/Sub a Pub/Sub
- Pub/Sub a Redis
- Pub/Sub a Splunk
- Argomento o sottoscrizione Pub/Sub a file di testo su Cloud Storage
- Argomento Pub/Sub in file di testo su Cloud Storage
- File di testo su Cloud Storage in BigQuery (stream)
- File di testo di Cloud Storage in BigQuery con la funzione definita dall'utente Python
- File di testo su Cloud Storage in Pub/Sub (stream)
Modelli batch
Modelli per l'elaborazione dei dati in blocco:
- Da qualsiasi database di origine a Spanner
- Apache Cassandra a Bigtable
- AstraDB a BigQuery
- BigQuery a Bigtable
- BigQuery a Clickhouse
- Esportazione in BigQuery in formato Parquet (tramite l'API Storage)
- Da BigQuery ai TFRecord di Cloud Storage
- BigQuery a Elasticsearch
- BigQuery a MongoDB
- Bigtable in Avro di Cloud Storage
- Bigtable a Cloud Storage JSON
- Bigtable a Cloud Storage Parquet
- Bigtable in SequenceFile di Cloud Storage
- Flussi di modifiche in tempo reale a Vertex AI Vector Search
- File da Bigtable a Vertex AI Vector Search su Cloud Storage
- Spanner a BigQuery
- Spanner in Avro di Cloud Storage
- Spanner in testo Cloud Storage
- File Spanner to Vertex AI Vector Search su Cloud Storage
- Avro di Cloud Storage a Bigtable
- Cloud Storage Parquet a Bigtable
- SequenceFile di Cloud Storage a Bigtable
- Avro di Cloud Storage in Spanner
- File CSV di Cloud Storage in BigQuery
- Testo di Cloud Storage in BigQuery
- File di testo di Cloud Storage in BigQuery con la funzione definita dall'utente Python
- Cloud Storage Text to Spanner
- Testo di Cloud Storage in Datastore [ritirato]
- Cloud Storage Text to Firestore (modalità Datastore)
- Testo Cloud Storage in Pub/Sub (batch)
- Cloud Storage a Elasticsearch
- Datastore in testo Cloud Storage [ritirato]
- Firestore (modalità Datastore) in testo Cloud Storage
- Google Ads a BigQuery
- Google Cloud a Neo4j
- JDBC to BigQuery
- JDBC a Pub/Sub
- Da MongoDB a BigQuery
- Da MySQL a BigQuery
- Da Oracle a BigQuery
- Da PostgreSQL a BigQuery
- Da SQL Server a BigQuery