Integrazioni con Bigtable
Questa pagina descrive le integrazioni tra Bigtable e altri prodotti e servizi.
Google Cloud servizi
Questa sezione descrive i servizi con cui si integra Bigtable. Google Cloud
BigQuery
BigQuery è il data warehouse di analisi di Google completamente gestito, a basso costo e con capacità di petabyte. Puoi utilizzare BigQuery con Bigtable per i seguenti scopi:
Puoi creare una tabella esterna BigQuery e poi utilizzarla per eseguire query sulla tabella Bigtable e unire i dati ad altre tabelle BigQuery. Per maggiori informazioni, consulta la sezione Eseguire query sui dati Bigtable.
Puoi esportare i dati BigQuery in una tabella Bigtable utilizzando l'ETL inversa (RETL) da BigQuery a Bigtable. Per saperne di più, consulta Esportare dati in Bigtable.
Cloud Asset Inventory
Cloud Asset Inventory, che fornisce servizi di inventario basati su un database di serie temporali, supporta e restituisce i tipi di risorse Bigtable. Per un elenco completo, consulta Tipi di risorse supportati.
Dataplex Universal Catalog
Dataplex Universal Catalog e Data Catalog (ritirato) catalogano automaticamente i metadati relativi alle risorse Bigtable. Le informazioni catalogate sui tuoi dati possono facilitare l'analisi, il riutilizzo dei dati, lo sviluppo di applicazioni e la gestione dei dati. Per saperne di più, vedi Gestire gli asset di dati utilizzando Data Catalog.
Dataflow
Dataflow è un servizio cloud e un modello di programmazione per l'elaborazione di big data. Dataflow supporta l'elaborazione sia in batch che in streaming. Puoi utilizzare Dataflow per elaborare dati archiviati in Bigtable o per archiviare l'output della tua pipeline Dataflow. Puoi anche utilizzare i modelli Dataflow per esportare e importare i tuoi dati come Avro, Parquet o SequenceFiles.
Per iniziare, vedi Bigtable Beam connector.
Puoi anche utilizzare Bigtable come ricerca chiave-valore per arricchire i dati in una pipeline. Per una panoramica, vedi Arricchire i dati di streaming. Per un tutorial, consulta Utilizzare Apache Beam e Bigtable per arricchire i dati.
Dataproc
Dataproc fornisce Apache Hadoop e prodotti correlati come servizio gestito nel cloud. Con Dataproc, puoi eseguire job Hadoop che leggono e scrivono in Bigtable.
Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta
la directory /java/dataproc-wordcount
nel repository GitHub
GoogleCloudPlatform/cloud-bigtable-examples.
Vertex AI Vector Search
Vertex AI Vector Search è una tecnologia che può eseguire ricerche tra miliardi di elementi semanticamente simili o correlati. È utile per implementare motori per suggerimenti, chatbot e classificazione del testo.
Puoi utilizzare Bigtable per archiviare gli incorporamenti vettoriali, esportarli in un indice di Vector Search e poi eseguire query sull'indice per trovare elementi simili. Per
un tutorial che mostra un flusso di lavoro di esempio, consulta Esportazione da Bigtable a
Vertex AI Vector Search nel
repository GitHub workflows-demos
.
Puoi anche eseguire il push degli aggiornamenti dello streaming per mantenere l'indice di ricerca vettoriale sincronizzato con Bigtable in tempo reale. Per maggiori informazioni, consulta il modello Bigtable modifiche in tempo reale to Vector Search.
Big data
Questa sezione descrive i prodotti per big data con cui Bigtable si integra.
Apache Beam
Apache Beam è un modello unificato per definire pipeline di elaborazione parallela dei dati sia in batch sia in flussi. Il
connettore Bigtable Beam (BigtableIO
)
ti aiuta a eseguire operazioni batch e di streaming sui dati Bigtable
in una pipeline.
Per un tutorial che mostra come utilizzare il connettore Bigtable Beam per eseguire il deployment di una pipeline di dati in Dataflow, consulta Elaborare uno stream di modifiche Bigtable.
Apache Hadoop
Apache Hadoop è un framework che consente l'elaborazione distribuita di grandi set di dati su cluster di computer. Puoi utilizzare Dataproc per creare un cluster Hadoop, quindi eseguire job MapReduce che leggono e scrivono in Bigtable.
Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta
la directory /java/dataproc-wordcount
nel repository GitHub
GoogleCloudPlatform/cloud-bigtable-examples.
StreamSets Data Collector
StreamSets Data Collector è un'applicazione di streaming di dati che puoi configurare per scrivere dati in Bigtable. StreamSets fornisce una libreria Bigtable nel suo repository GitHub all'indirizzo streamsets/datacollector.
Database a grafo
Questa sezione descrive i database grafici con cui Bigtable si integra.
HGraphDB
HGraphDB è un livello client per l'utilizzo di Apache HBase o Bigtable come database a grafo. Implementa le interfacce Apache TinkerPop 3.
Per saperne di più sull'esecuzione di HGraphDB con il supporto di Bigtable, consulta la documentazione di HGraphDB.
JanusGraph
JanusGraph è un database a grafo scalabile. È ottimizzato per l'archiviazione e l'interrogazione di grafici contenenti centinaia di miliardi di vertici e archi.
Per ulteriori informazioni sull'esecuzione di JanusGraph con il supporto di Bigtable, consulta Esecuzione di JanusGraph con Bigtable o la documentazione di JanusGraph.
Gestione dell'infrastruttura
Questa sezione descrive gli strumenti di gestione dell'infrastruttura con cui Bigtable si integra.
Pivotal Cloud Foundry
Pivotal Cloud Foundry è una piattaforma di sviluppo e deployment di applicazioni che offre la possibilità di associare un'applicazione a Bigtable.
Terraform
Terraform è uno strumento open source che codifica le API in file di configurazione dichiarativi. Questi file possono essere condivisi tra i membri del team, trattati come codice, modificati, rivisti e sottoposti al controllo delle versioni.
Per saperne di più sull'utilizzo di Bigtable con Terraform, consulta Bigtable Instance e Bigtable Table nella documentazione di Terraform.
Database delle serie temporali e monitoraggio
Questa sezione descrive i database delle serie temporali e gli strumenti di monitoraggio con cui Bigtable si integra.
OpenTSDB
OpenTSDB è un database di serie temporali che può utilizzare Bigtable per l'archiviazione. La documentazione di OpenTSDB fornisce informazioni per aiutarti a iniziare.