Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Nesta página, descrevemos como configurar o Datastream para gravar dados em conjuntos de dados do BigQuery.
Permissões necessárias
O Datastream usa o suporte integrado do BigQuery para atualizações de captura de dados alterados (CDC). O Datastream atualiza as tabelas do BigQuery
processando e aplicando as mudanças transmitidas usando a API BigQuery Storage Write.
As permissões necessárias para usar a API e ingerir dados no
BigQuery são concedidas ao papel de
agente de serviço do Datastream.
Configurar o BigQuery como um destino
Para configurar o Datastream para streaming no BigQuery, siga estas etapas:
Verifique se a API BigQuery está ativada no seu projeto Google Cloud.
Os conjuntos de dados são contêineres de nível superior usados na organização e no controle de acesso
às tabelas do BigQuery.
Ao configurar conjuntos de dados para o destino do BigQuery usando o Datastream, você pode selecionar uma das seguintes opções:
Conjunto de dados para cada esquema: o conjunto de dados é selecionado ou criado automaticamente pelo Datastream no local do BigQuery especificado, com base no nome do esquema da origem. Como resultado, cada esquema na origem tem um conjunto de dados correspondente no BigQuery.
Por exemplo, se você tiver uma origem do MySQL com um banco de dados mydb e uma tabela employees dentro dele, o Datastream vai criar o conjunto de dados mydb e a tabela employees no BigQuery.
Se você selecionar essa opção, o Datastream vai criar conjuntos de dados no projeto que contém o fluxo. Embora não seja necessário criar os conjuntos de dados na mesma região do seu fluxo, recomendamos manter todos os recursos do fluxo, bem como os conjuntos de dados, na mesma região para otimizar o custo e o desempenho.
Um único conjunto de dados para todos os esquemas: você seleciona um conjunto de dados do BigQuery para o fluxo. O Datastream transmite todos os dados para esse
conjunto de dados. Para o conjunto de dados selecionado, o Datastream cria todas as tabelas como <schema>_<table>.
Por exemplo, se você tiver uma origem do MySQL com um banco de dados mydb e uma tabela employees dentro dele, o Datastream vai criar a tabela mydb_employees no conjunto de dados selecionado.
Configurar o modo de gravação
Há dois modos que podem ser usados para definir como você quer que os dados sejam gravados no BigQuery:
Mesclar: é o modo de gravação padrão. Quando selecionado, o BigQuery reflete a forma como os dados são armazenados no banco de dados de origem. Isso significa que o Datastream grava todas as mudanças nos seus dados no BigQuery, que consolida as mudanças com os dados atuais, criando tabelas finais que são réplicas das tabelas de origem. No modo de mesclagem, nenhum registro histórico dos eventos de mudança é mantido. Por exemplo, se você inserir e atualizar uma linha, o BigQuery vai manter apenas os dados atualizados. Se você excluir a linha da tabela de origem, o BigQuery não manterá mais nenhum registro dela.
Somente anexar: o modo de gravação "somente anexar" permite adicionar dados ao BigQuery como um fluxo de mudanças (eventos INSERT, UPDATE-INSERT, UPDATE-DELETE e DELETE). Use esse modo quando precisar manter o estado histórico dos seus dados.
Para entender melhor o modo de gravação somente de anexação, considere os seguintes cenários:
Preenchimento inicial: após o preenchimento inicial, todos os eventos são gravados no BigQuery como eventos do tipo INSERT, com o mesmo carimbo de data/hora, identificador universalmente exclusivo (UUID) e número de sequência de mudança.
Atualização da chave primária: quando uma chave primária muda, duas linhas são gravadas no BigQuery:
Uma linha UPDATE-DELETE com a chave primária original
Uma linha UPDATE-INSERT com a nova chave primária
Atualização de linha: quando você atualiza uma linha, uma única linha UPDATE-INSERT é gravada no BigQuery.
Exclusão de linhas: quando você exclui uma linha, uma única linha DELETE é gravada no BigQuery.
Especificar o limite de inatividade dos dados
O BigQuery aplica as modificações de origem em segundo plano de maneira contínua ou no ambiente de execução da consulta, de acordo com o limite de desatualização de dados configurado. Quando o Datastream cria uma tabela no BigQuery, a opção max_staleness dela é definida de acordo com o valor atual do limite de desatualização de dados para o fluxo.
Para mais informações sobre como usar tabelas do BigQuery com a opção max_staleness, consulte Defasagem da tabela.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[],[],null,["# Configure a BigQuery destination\n\nThis page describes how to configure Datastream so that you can write\ndata to BigQuery datasets.\n\nRequired permissions\n--------------------\n\nDatastream uses the BigQuery built-in support for change data\ncapture (CDC) updates. Datastream updates the BigQuery tables\nby processing and applying streamed changes using the BigQuery Storage Write API.\n\nThe permissions required for using the API and ingesting data to\nBigQuery are granted to the\n[Datastream Service Agent](/iam/docs/roles-permissions/datastream#datastream.serviceAgent)\nrole.\n\nConfigure BigQuery as a destination\n-----------------------------------\n\nTo configure Datastream for streaming to BigQuery, perform the\nfollowing steps:\n\n1. Make sure that the BigQuery API is enabled in your Google Cloud project.\n2. If you want to use the **Single dataset for all schemas** option, [create a dataset in BigQuery](/bigquery/docs/datasets#create-dataset).\n3. [Configure the destination dataset for your stream](#configure-datasets).\n4. [Configure write mode](#configure-write-mode).\n5. [Specify the maximum data staleness limit](#specify-staleness) for your stream.\n\n### Configure the destination datasets\n\nDatasets are top-level containers that are used to organize and control access\nto your BigQuery tables.\n\nWhen you configure datasets for the BigQuery destination using\nDatastream, you can select one of the following options:\n\n- **Dataset for each schema** : The dataset is selected or automatically created by Datastream in the [BigQuery location](/bigquery/docs/locations) specified, based on the schema name of the source. As a result, each schema in the source has a corresponding dataset in BigQuery.\n For example, if you have a MySQL source, and this source has a `mydb`\n database and an `employees` table within the database, then\n Datastream creates the `mydb` dataset and `employees` table in\n BigQuery.\n\n If you select this option, then Datastream creates datasets in the project that contains the stream. Although you don't need to create the datasets in the same region as your stream, we recommend to keep all resources for the stream, as well as datasets, in the same region for cost and performance optimization.\n | **Note:** The **Dataset for each schema** option isn't supported for Salesforce sources ([Preview](/products#product-launch-stages)).\n- **Single dataset for all schemas** : You select a BigQuery\n dataset for the stream. Datastream streams all data into this\n dataset. For the dataset that you select, Datastream creates all\n tables as `\u003cschema\u003e_\u003ctable\u003e`.\n\n For example, if you have a MySQL source, and this source has a `mydb`\n database and an `employees` table within the database, then\n Datastream creates the `mydb_employees` table in the dataset that\n you select.\n | **Note:** If your source is Salesforce ([Preview](/products#product-launch-stages)), Datastream uses the customer domain as the dataset name.\n\n### Configure write mode\n\nThere are two modes you can use to define how you want your data written to\nBigQuery:\n\n- **Merge**: This is the default write mode. When selected, BigQuery reflects the way your data is stored in the source database. This means that Datastream writes all changes to your data to BigQuery, and BigQuery then consolidates the changes with existing data, thus creating final tables that are replicas of the source tables. With merge mode, no historical record of the change events is kept. For example, if you insert and then update a row, BigQuery only keeps the updated data. If you then delete the row from the source table, BigQuery no longer keeps any record of that row.\n\n | **Note:** Merge mode is only applicable for tables with primary keys. Tables without primary keys are append-only.\n- **Append-only** : The append-only write mode lets you add data to BigQuery as a stream of changes (`INSERT`, `UPDATE-INSERT`, `UPDATE-DELETE` and `DELETE` events). Use this mode when you need to retain the historical state of your data.\n To get a better understanding of the append-only write mode, consider the following scenarios:\n\n - *Initial backfill* : after the initial backfill, all events are written to BigQuery as `INSERT` type events, with the same timestamp, universally unique identifier (UUID), and change sequence number.\n - *Primary key update* : when a primary key changes, two rows are written to BigQuery:\n - An `UPDATE-DELETE` row with the original primary key\n - An `UPDATE-INSERT` row with the new primary key\n - *Row update* : when you update a row, a single `UPDATE-INSERT` row is written to BigQuery\n - *Row deletion* : when you delete a row, a single `DELETE` row is written to BigQuery\n\n### Specify data staleness limit\n\nBigQuery applies source modifications in the background on an ongoing basis, or at query run time, according to the configured data staleness limit. When Datastream creates a new table in BigQuery, the table's `max_staleness` option is set according to the current data staleness limit value for the stream.\n\nFor more information about using BigQuery tables with the `max_staleness` option, see [Table staleness](/bigquery/docs/change-data-capture#manage_table_staleness)."]]