Nesta página, você encontra respostas para as perguntas frequentes sobre como usar o Datastream. Estas perguntas frequentes estão associadas a:
- Perguntas gerais sobre o Datastream e a captura de dados alterados (CDC)
- Comportamento e limitações gerais da fonte
- Comportamento e limitações da fonte MySQL
- Comportamento e limitações da origem do Oracle
- Comportamento e limitações da origem do PostgreSQL (incluindo o AlloyDB para PostgreSQL)
- Comportamento e limitações da origem do SQL Server
- Comportamento e limitações da origem do Salesforce
- Comportamento de destino do BigQuery
- Comportamento do destino no Cloud Storage
- Casos de uso comuns do Datastream
- Como o Datastream se integra aos serviços de dados do Google Cloud
- Segurança e conectividade
- Como monitorar o Datastream
- Preços
- Informações adicionais sobre o Datastream
Perguntas gerais sobre o Datastream e a captura de dados alterados (CDC)
Pergunta | Resposta |
---|---|
O que é o Datastream? | O Datastream é um serviço de replicação de dados (CDC, na sigla em inglês) sem alterações e fácil de usar. O Datastream permite a replicação otimizada de dados de origens banco de dados relacional, como AlloyDB para PostgreSQL, PostgreSQL, MySQL, SQL Server e Oracle, além de Salesforce e MongoDB, diretamente para o BigQuery. O Datastream oferece a escala, a velocidade, a segurança e a simplicidade de que as empresas modernas precisam. Com uma arquitetura sem servidor e com escalonamento automático, o Datastream permite configurar um pipeline ELT (extrair, carregar e transformar) para replicação de dados de baixa latência, gerando insights quase em tempo real. O Datastream também pode sincronizar streams de dados em bancos de dados e aplicativos heterogêneos de maneira confiável e com latência mínima. Você pode integrar o serviço com modelos do Dataflow para replicar bancos de dados no Cloud SQL ou no Spanner para sincronização de bancos de dados ou aproveitar o fluxo de eventos diretamente do Cloud Storage para implementar arquiteturas orientadas a eventos. |
Quais são os métodos usados pelo Datastream para fazer streaming de dados? | O fluxo de dados transmite dados de uma origem para um destino usando um destes dois métodos:
|
O que é o CDC? |
O CDC é uma abordagem de integração de dados que permite integrar e analisar dados mais rapidamente, usando menos recursos do sistema. É um método para extrair apenas as alterações mais recentes (atualizações, inserções ou exclusões) de uma fonte de dados, geralmente lendo o registro de alterações que a fonte mantém para a própria integridade transacional interna. A CDC é um mecanismo altamente eficiente para limitar o impacto na fonte ao carregar novos dados em armazenamentos e data warehouses operacionais. Ela elimina a necessidade de atualização em massa e janelas de lote inconvenientes, permitindo o carregamento incremental ou o streaming quase em tempo real de mudanças de dados para um destino. A CDC pode ser usada em muitos casos de uso que derivam valor do acesso constante às mudanças de dados conforme elas acontecem, como análises, sincronização de dados em sistemas distribuídos geograficamente e arquiteturas orientadas a eventos. |
O que é preenchimento? | Além das alterações em andamento, o Datastream também usa o preenchimento para extrair todos os dados existentes de uma origem e, em seguida, enviá-los para um destino. Como resultado, o destino é "preenchimento" com todos os dados históricos da origem. Há dois tipos de preenchimento:
|
Há alguma limitação a ser considerada ao fazer um backfill? |
Para informações sobre restrições de backfill, consulte as páginas de limitações conhecidas dos respectivos tipos de origem:
|
Qual é a ordem recomendada para operações de CDC e preenchimento? | Na maioria dos casos, não há considerações especiais aqui. Quando o preenchimento é ativado em um stream, o Datastream realiza o preenchimento e o CDC ao mesmo tempo. Em alguns casos extremos, por exemplo, ao replicar tabelas muito grandes que não podem ser preenchidas usando o Datastream, talvez seja necessário carregar os dados no BigQuery primeiro antes de iniciar o fluxo. |
Posso monitorar o status das operações de CDC e preenchimento? | É possível monitorar o status do preenchimento por objeto:
O status do CDC é efetivamente o status do stream. Se a operação de CDC falhar, todo o fluxo vai falhar. Outras métricas no nível do objeto estão disponíveis no Cloud Monitoring. Para mais informações, consulte a documentação do Cloud Monitoring. |
O que é um stream de alterações em comparação com a replicação? | Um fluxo de alterações é uma sequência de eventos que o Datastream emite para um destino com o objetivo de consumo downstream. O resultado de um stream de alterações gravado no Cloud Storage é um conjunto de arquivos que contém eventos de registro de alterações de uma tabela específica durante um período. Os eventos representam inserções, atualizações e exclusões da tabela. Eles podem ser consumidos e processados posteriormente no Cloud Storage por serviços como o Dataflow para casos de uso como arquiteturas orientadas a eventos. Replicação no contexto do Datastream significa uma representação atualizada de um para um da tabela de origem no destino. Por exemplo, uma tabela no Oracle cujas mudanças são replicadas continuamente para uma tabela do BigQuery, que é mantida atualizada usando as mudanças transmitidas da tabela do Oracle. A replicação aproveita os fluxo de alterações consumindo cada evento de alteração e usando-o para atualizar o destino. O Datastream permite a replicação direta no BigQuery e oferece suporte a outros destinos, como Cloud SQL e Spanner, por meio da integração com o Dataflow. Para isso, ele usa modelos que extraem os eventos de stream de mudança do Cloud Storage e atualizam as tabelas de destino. |
O Datastream requer um agente na origem? | Você não precisa instalar um agente na origem. O Datastream usa interfaces existentes (como o Oracle LogMiner) para extrair os dados da origem. |
Quantas tabelas posso incluir em um único fluxo? | O Datastream pode processar até 10.000 tabelas em um único stream. Não há um motivo técnico para dividir um banco de dados em vários streams, mas pode haver algumas considerações comerciais para usar streams diferentes em fluxos lógicos diferentes, por exemplo, ao replicar transações grandes de fontes do PostgreSQL. No entanto, cada stream adiciona carga ao banco de dados de origem. Esse carregamento é insignificante para o CDC, mas pode ser significativo para o backfill. |
E o impacto do desempenho sobre o uso do Datastream em um banco de dados de produção? |
O CDC é um mecanismo altamente eficiente para limitar o impacto na fonte quando novos dados são carregados em armazenamentos e armazenamentos de dados de destino. O CDC também elimina a necessidade de atualização em massa e janelas de lote inconvenientes, permitindo carregamento incremental ou streaming de dados em tempo real para um destino. Além disso, o Datastream minimiza o impacto de um preenchimento inicial, limitando o número de tarefas simultâneas e oferecendo o controle para decidir em quais objetos fazer o preenchimento. |
É possível copiar os arquivos de registros da origem para Google Cloud? | Não. O Datastream consulta os registros diretamente no servidor de banco de dados, e apenas as mudanças nas tabelas especificadas são gravadas no destino. |
O Datastream também pode transferir dados históricos? | Sim. Por padrão, o Datastream recebe todos os dados históricos das tabelas de banco de dados da fonte que você especificou, em paralelo ao stream do CDC. O Datastream oferece flexibilidade para conseguir dados históricos de algumas ou todas as tabelas de banco de dados na sua origem. Além disso, ao configurar sua transmissão, você pode desativar o preenchimento histórico. |
O Datastream garante uma entrega exatamente uma vez? | Não. O Datastream é enviado pelo menos uma vez. Os metadados adicionais que o Datastream grava em cada evento podem ser usados para remover dados duplicados. |
O Datastream pode lidar com bancos de dados criptografados? | Sim. |
O Datastream pode transmitir tabelas e colunas específicas de uma origem? | Sim. Com o Datastream, é possível especificar listas de inclusão e exclusão para tabelas e esquemas e fazer streaming apenas dos dados desejados de uma origem para um destino. Você pode excluir colunas específicas das tabelas incluídas para ajustar ainda mais os dados que serão transmitidos para o destino. No entanto, as visualizações materializadas não podem ser replicadas. |
Como mover um stream para outro projeto ou região? |
|
Como o Datastream lida com transações não confirmadas nos arquivos de registros do banco de dados? | Quando os arquivos de registros do banco de dados contêm transações não confirmadas, se alguma transação for revertida, isso refletirá isso nos arquivos de registros como operações de linguagem de manipulação de dados (DML) "reversa". Por exemplo, uma operação INSERT revertida terá uma operação DELETE correspondente. O Datastream lê essas operações dos arquivos de registros. |
Qual é a disponibilidade regional do Datastream? | Para ver uma lista das regiões em que o Datastream está disponível, consulte Listas de permissões e regiões de IP. |
Comportamento e limitações gerais da fonte
Pergunta | Resposta |
---|---|
Quais fontes são compatíveis com o Datastream? | O Datastream é compatível com streaming de dados das origens Oracle, MySQL, PostgreSQL, AlloyDB para PostgreSQL, SQL Server, Salesforce (prévia) e MongoDB (prévia), hospedadas na nuvem e autogerenciadas. Para informações sobre versões específicas da origem, consulte as seguintes páginas:
|
O Datastream pode lidar com bancos de dados criptografados? | Sim. |
Como o Datastream extrai dados das fontes? | No MySQL, o Datastream processa o registro binário do MySQL para extrair eventos de alteração. Para a Oracle, o Datastream usa as configurações de registro LogMiner e complementares para extrair dados dos registros "redo" da Oracle. Para o PostgreSQL e o AlloyDB para PostgreSQL, o Datastream conta com o recurso de decodificação lógica do PostgreSQL. A decodificação lógica expõe todas as alterações confirmadas no banco de dados e permite consumir e processar essas alterações. Para o SQL Server, o Datastream rastreia as mudanças na linguagem de manipulação de dados (DML) usando registros de transações. |
É possível copiar arquivos de registros diretamente de uma origem para o Google Cloud? | O Datastream não copia a totalidade dos arquivos de registros, mas consulta os arquivos diretamente no servidor de banco de dados e só replica alterações nas tabelas especificadas para o destino. |
Quais são as limitações dos dados que o Datastream pode processar? |
Há limitações gerais e limitações que se aplicam a fontes de banco de dados específicas. Limitações gerais incluem:
Para limitações específicas da fonte, consulte as seguintes páginas:
|
Quais dados são incluídos em todos os eventos gerados pelo Datastream? | Cada evento gerado (para inserções, atualizações e exclusões) inclui toda a linha de dados da origem com o tipo e o valor dos dados de cada coluna. Eles também incluem metadados de eventos que podem ser usados para estabelecer a ordem e garantir a exibição única. |
O Datastream garante o pedido? | Embora o Datastream não garanta a ordenação, ele fornece metadados adicionais para cada evento. Esses metadados podem ser usados para garantir a consistência posterior no destino. Dependendo da origem, da taxa e da frequência das alterações e de outros parâmetros, geralmente é possível conseguir a consistência eventual em um período de uma hora. |
O Datastream garante uma entrega exatamente uma vez? | O Datastream é exibido pelo menos uma vez. Você pode eliminar dados duplicados usando metadados adicionais que o Datastream grava em cada evento. |
Como o Datastream representa tipos de dados da origem para uso no processamento downstream? | Ao gravar em um destino sem esquema, como o Cloud Storage, o Datastream simplifica o processamento downstream de dados em várias fontes, normalizando os tipos de dados em todas elas. O Datastream usa o tipo de dados de origem original (por exemplo, um tipo Os tipos unificados representam um superconjunto sem perdas de todos os tipos possíveis. A normalização significa que dados de origens diferentes podem ser processados com o mínimo de esforço e consultados downstream de forma independente da fonte. |
Como o Datastream lida com alterações de estrutura (esquema) na origem? | O Datastream busca o esquema da origem periodicamente. Os esquemas são armazenados no registro de esquema interno do Datastream, e cada evento referencia o esquema no momento em que ele foi gerado. Isso permite que o Datastream rastreie mudanças de esquema e se ajuste com base nelas, garantindo que todos os dados sejam transmitidos e carregados no destino corretamente. No entanto, entre as buscas de esquema, algumas alterações de esquema podem não ser detectadas, podendo causar discrepâncias de dados. |
Excluí (soltei) uma coluna no banco de dados de origem, mas ela ainda aparece no destino. Por quê? | O Datastream não exclui colunas no destino. É necessário excluir as colunas manualmente. Esse comportamento é intencional porque, em alguns casos, talvez seja melhor manter a coluna excluída no destino. Por exemplo, o Datastream interpreta a mudança do nome de uma coluna na origem como a exclusão de uma coluna e a adição de outra. Nesse caso, você não quer perder a coluna original no destino. |
O stream não inicia devido a uma falha de validação, mas acho que é um erro ou quero tentar executar o stream mesmo assim. Como posso passar dessa validação? | É possível iniciar o stream usando a API adicionando a flag force=true e pulando as verificações de validação. Ignorar as validações não garante que o stream vai ser executado. Ele ainda pode falhar se o banco de dados não tiver a configuração ou as permissões necessárias.
|
Posso reiniciar uma transmissão que falhou? | Para corrigir um fluxo com o status Também é possível recuperar um fluxo com o status |
O Datastream bloqueia tabelas de banco de dados? | Não. O Datastream não precisa bloquear as tabelas. |
As páginas de limitações de cada fonte especificam que os streams podem ter até 10.000 tabelas. Isso significa que o Datastream não pode executar operações de CDC em paralelo para mais de 10.000 tabelas ao mesmo tempo? | Não, o limite mencionado é por transmissão. É possível ter vários fluxos com um número total de tabelas superior a 10.000. |
Comportamento e limitações da fonte MySQL
Pergunta | Resposta |
---|---|
Como o Datastream extrai dados do MySQL? | O Datastream usa o registro binário do MySQL para extrair os eventos de alteração do MySQL |
O Datastream é compatível com instâncias de réplica de leitura do Cloud SQL para MySQL? | Sim, o Datastream é compatível com instâncias de réplica de leitura para o Cloud SQL para MySQL versões 5.7 e 8.0. É possível ativar a geração de registros binários nestas instâncias. Para isso, execute o seguinte comando da CLI gcloud: gcloud sql instances patch INSTANCE_NAME -- enable-bin-log Para mais informações, consulte Geração de registros binários em réplicas de leitura. |
Quais permissões mínimas o Datastream precisa para replicar dados de um banco de dados MySQL de origem? | Você precisa conceder as seguintes permissões ao usuário do Datastream para replicar dados de um banco de dados MySQL:
|
O Datastream é compatível com a compactação de registros binários? | Não, o Datastream não oferece suporte à compactação de eventos de transação com compactação de transação de registro binário. Desative a compactação de transações de registro binário para usar a funcionalidade de captura de dados alterados do MySQL no Datastream. |
Sua organização não permite conceder a permissão SELECT em todas as tabelas e bancos de dados. Ainda é possível usar o Datastream? |
É possível conceder a permissão GRANT SELECT ON DATABASE_NAME.TABLE_NAME TO USER_NAME@'%'; GRANT SELECT ON DATABASE_NAME.* TO USER_NAME@'%'; Substitua:
Se você quiser restringir as permissões a um nome de host específico, substitua o caractere |
Comportamento e limitações da origem do Oracle
Pergunta | Resposta |
---|---|
Como o Datastream extrai dados da Oracle? | O Datastream usa o Oracle LogMiner para extrair os dados dos registros "redo" da Oracle. |
O Datastream requer uma licença da GoldenGate pela Oracle? | Não. O Datastream não requer uma licença GoldenGate porque usa o Oracle LogMiner para ler os dados dos registros do refazer do banco de dados. |
O que acontece quando o Oracle LogMiner não é mais compatível com as versões mais recentes? | O Oracle LogMiner ainda tem suporte em todas as versões disponíveis da Oracle, e o Datastream vai continuar oferecendo suporte ao LogMiner em todas as versões futuras. A Oracle suspendeu o suporte para a opção CONTINUOUS_MINE do LogMiner. No entanto, essa opção não é usada pelo Datastream. Portanto, essa suspensão de uso não afeta o Datastream. |
O Datastream é compatível com a criptografia de bancos de dados Oracle em trânsito? | O Datastream permite a criptografia de dados em trânsito com base nos Serviços do Oracle Net. O Datastream é executado no modo |
O Datastream oferece suporte à criptografia Secure Sockets Layer (SSL) e Transport Layer Security (TLS)? | Sim, o Datastream é compatível com o protocolo TCPS para conexões criptografadas com SSL/TLS a fontes do Oracle. |
O Datastream é compatível com arquitetura de vários locatários (multi-tenant) da Oracle, especificamente Bancos de dados de contêiner (CDBs) e Bancos de dados plugáveis (PDBs)? | Sim, o Datastream é compatível com a arquitetura multilocatária da Oracle (CDB/PDB), mas só é possível replicar um único banco de dados plugável em um stream. |
Sua organização não permite conceder a permissão GRANT SELECT ANY TABLE . Ainda é possível usar o Datastream? |
Se não for possível conceder a permissão
Para fazer streaming de mudanças usando o Datastream, você também precisa de acesso de leitura a todas as tabelas incluídas no stream. Para iniciar o stream, ignore a validação usando a API. Para mais informações, consulte Iniciar uma transmissão. |
O Datastream é compatível com a replicação de instâncias de réplica de leitura do Oracle? | O Datastream é compatível com a replicação de instâncias de réplica de leitura do Oracle, desde que a instância seja configurada de acordo com as diretrizes de configuração. |
O Datastream é compatível com bancos de dados Oracle SCAN RAC? | Sim, é possível. No entanto, não é possível estabelecer conectividade direta com bancos de dados usando o recurso Single Client Access Name (SCAN) em ambientes Oracle Real Application Clusters (RAC) com o Datastream. Para contornar essa limitação, conecte-se diretamente a um dos nós ou use o Oracle Connection Manager. Também é possível criar uma configuração de conectividade privada usando soluções de proxy reverso, como o HAProxy. |
Comportamento e limitações da origem do PostgreSQL
Pergunta | Resposta |
---|---|
Como o Datastream extrai dados do PostgreSQL? | O Datastream usa o recurso de decodificação lógica do PostgreSQL para extrair os eventos de mudança do PostgreSQL |
O Datastream oferece suporte à replicação de fontes do AlloyDB para PostgreSQL ou do AlloyDB Omni? | Sim. O Datastream é compatível com as duas origens. Para informações sobre como configurar o banco de dados de origem do AlloyDB para PostgreSQL, consulte Configurar um banco de dados do AlloyDB para PostgreSQL. Para informações sobre como configurar o banco de dados de origem do AlloyDB Omni, consulte Configurar um banco de dados PostgreSQL autogerenciado. |
O Datastream é compatível com a replicação de uma instância de réplica de leitura do PostgreSQL? | Não, o Datastream não é compatível com a replicação de instâncias de réplica de leitura para PostgreSQL. |
O Datastream é compatível com a segurança no nível da linha (RLS)? | O Datastream não oferece suporte à replicação de tabelas com a RLS ativada. No entanto, é possível ignorar essa limitação usando a cláusula BYPASSRLS :
ALTER USER USER_NAME BYPASSRLS; Substitua USER_NAME pelo nome do usuário que o Datastream usa para se conectar ao banco de dados e para quem você quer ignorar as políticas de RLS. |
O Datastream é compatível com operações simultâneas de CDC ao replicar de uma origem PostgreSQL? | Não. A replicação do PostgreSQL depende do conceito de slots de replicação, que não aceitam conexões simultâneas. Só pode haver uma tarefa de CDC lendo do slot de replicação por vez. Por exemplo, se você excluir um grande número de registros do banco de dados de origem, o slot de replicação poderá ficar sobrecarregado com eventos de exclusão. Todas as mudanças subsequentes na origem são adiadas até que os eventos de exclusão já na fila do slot de replicação sejam processados. Para informações sobre a abordagem sugerida ao replicar grandes dados de transação, consulte Diagnosticar problemas. |
O Datastream oferece suporte à criptografia Secure Sockets Layer (SSL) e Transport Layer Security (TLS)? | Sim, o Datastream oferece suporte a conexões criptografadas com SSL/TLS. |
Comportamento e limitações da origem do SQL Server
Pergunta | Resposta |
---|---|
Quais edições do SQL Server são compatíveis com o Datastream? | O Datastream é compatível com versões do banco de dados SQL Server que oferecem suporte à captura de dados alterados. Para conferir uma lista completa das versões e edições do SQL Server compatíveis, consulte Versões. |
Como funciona a replicação de CDC do Datastream para fontes do SQL Server? | O processo de ingestão de dados do Datastream usa registros de transações ou tabelas de mudanças, dependendo da configuração de origem. Para mais informações, consulte Banco de dados de origem do SQL Server. |
Quais permissões mínimas o Datastream precisa para replicar dados de um banco de dados de origem do SQL Server? | Você precisa conceder os seguintes papéis e permissões ao usuário do Datastream para replicar dados de um banco de dados do SQL Server: Para o método CDC de tabelas de mudanças:
Além disso, para o método CDC de registros de transação:
Para informações detalhadas sobre como configurar sua origem, consulte as páginas de configuração respectivas do seu tipo de banco de dados. |
Por que é necessário fazer configurações como mudar os intervalos de pesquisa e definir uma proteção de truncamento ao usar registros de transações? | Ao replicar dados de uma origem do SQL Server usando registros de transações, se um registro for truncado antes de ser lido pelo Datastream, haverá perda de dados. Mudar os intervalos de polling e configurar a proteção de truncamento é opcional, mas oferece uma camada extra de proteção para garantir que o Datastream possa ler os dados mesmo em cenários de inatividade ou problemas de conectividade. Para mais informações, consulte Configurar um banco de dados de origem do SQL Server. |
Qual método de CDC selecionar ao replicar de uma origem do SQL Server? | Você pode selecionar um dos dois métodos de CDC disponíveis, com base na configuração do banco de dados SQL Server de origem:
Para mais informações, consulte Visão geral do SQL Server como uma origem. |
Comportamento e limitações da origem do Salesforce
Pergunta | Resposta |
---|---|
O que é uma organização do Salesforce? | Uma organização do Salesforce, também chamada de organização, é sua implantação dedicada do Salesforce, semelhante a uma instância de banco de dados. Uma organização tem um conjunto definido de usuários licenciados e armazena todos os dados e aplicativos dos clientes. |
O que são objetos, registros e campos do Salesforce? | Um objeto é uma entidade de classe e é semelhante a uma tabela na nomenclatura de bancos de dados relacionais. Eles podem ser padrão ou personalizados. Os objetos padrão são incluídos no Salesforce por padrão, enquanto os personalizados são criados pelos usuários para armazenar dados específicos do caso de uso deles. Um registro é uma instância específica de um objeto, semelhante a uma linha em bancos de dados relacionais. Um campo é um atributo específico de um objeto, semelhante a uma coluna em bancos de dados relacionais. |
Comportamento de destino do BigQuery
Pergunta | Resposta |
---|---|
Como o Datastream e o BigQuery trabalham juntos para replicar mudanças do banco de dados de origem? | O Datastream lê continuamente o fluxo de mudanças do banco de dados de origem e transmite os eventos de upsert e exclusão para as tabelas de destino do BigQuery usando a API Storage Write. Em seguida, o BigQuery aplica as mudanças à tabela com base na configuração de desatualização da tabela. |
Como as operações da linguagem de manipulação de dados (DML) são aplicadas no BigQuery? |
|
Como o Datastream e o BigQuery processam a ordenação de eventos? | O BigQuery usa os metadados do evento e um número de sequência de mudança (CSN, na sigla em inglês) interno para aplicar os eventos à tabela na ordem correta. Para mais informações sobre metadados de eventos, consulte Eventos e streams. |
Como os custos do BigQuery são calculados quando usados com o Datastream? | Os custos do BigQuery são calculados e cobrados separadamente do Datastream. Para saber como controlar os custos do BigQuery, consulte Preços do CDC do BigQuery. |
Qual é o tamanho máximo de linha com suporte no Datastream ao fazer streaming de dados para o BigQuery? | O tamanho máximo de linha com suporte no Datastream é 20 MB. |
Ao fazer streaming para o BigQuery, as tabelas recebem o prefixo . Você pode mudar esse comportamento para que as tabelas no BigQuery sigam a mesma estrutura do banco de dados de origem? |
Ao configurar conjuntos de dados para um destino do BigQuery, você cria um conjunto de dados para cada esquema ou um único conjunto de dados para todos os esquemas. Ao criar um conjunto de dados para cada esquema, cada esquema na origem é mapeado para um conjunto de dados no BigQuery, e todas as tabelas no esquema de origem são mapeadas para as tabelas no conjunto de dados. Quando você seleciona a opção de um único conjunto de dados para todos os esquemas, os nomes das tabelas são prefixados com , de acordo com a convenção de nomenclatura de tabelas no BigQuery. |
A CDC pode capturar mudanças no esquema de origem, por exemplo, quando uma coluna é inserida ou excluída na origem? Essas mudanças são refletidas automaticamente nas tabelas já preenchidas nos conjuntos de dados de destino do BigQuery? | O Datastream detecta novas colunas automaticamente e as adiciona ao esquema de destino para as novas linhas, mas não para as que já foram replicadas para o destino. As colunas excluídas são ignoradas, e o Datastream as preenche com valores NULL no destino. Em seguida, você pode excluir manualmente essas colunas no BigQuery. |
Comportamento do destino no Cloud Storage
Pergunta | Resposta |
---|---|
Como são criados arquivos no Cloud Storage? | O Datastream cria uma pasta para cada tabela. Em cada pasta, o Datastream alterna o arquivo (ou cria um novo) sempre que atinge o limite de tamanho ou tempo definido pelo usuário. O Datastream também alterna o arquivo sempre que uma alteração de esquema é detectada. O nome do arquivo será composto por uma chave de esquema única (com base em um hash do esquema), seguida pelo carimbo de data/hora do primeiro evento no arquivo. Por motivos de segurança, esses nomes de arquivo não devem ser lidos ou compreendidos pelas pessoas. |
Se os dados no Cloud Storage não forem ordenados, então como os eventos podem ser reordenados antes de carregá-los no destino? | Cada evento contém vários campos de metadados que identificam exclusivamente a linha nos arquivos de registro e permitem classificar os eventos. Esses campos incluem: Para origens Oracle:
Para fontes do MySQL:
Para fontes do PostgreSQL:
Para mais informações sobre campos de metadados, consulte Metadados específicos da fonte. |
Se vários arquivos forem criados para o mesmo carimbo de data/hora, em que ordem eles serão processados? | Como a ordenação dentro e entre arquivos não é garantida, a melhor maneira de determinar a ordem de processamento dos arquivos para a origem é conseguir todos os eventos de todos os arquivos no carimbo de data/hora específico e aplicar a ordenação usando o método mencionado anteriormente nesta seção. |
Como as atualizações de chave primária são processadas? Há informações de antes e depois no evento? | Quando a chave primária de uma linha muda, o Datastream gera dois eventos para a mudança: um UPDATE-DELETE e um UPDATE-INSERT . O evento UPDATE-DELETE representa os dados antes da atualização, e UPDATE-INSERT representa os dados depois da atualização. Para mais informações sobre metadados específicos da origem, consulte Eventos e streams. |
Qual é o tamanho máximo de linha com suporte no Datastream ao transmitir dados para o Cloud Storage? | O tamanho máximo de linha com suporte no Datastream é de 100 MB. |
Casos de uso
Pergunta | Resposta |
---|---|
Quais são alguns casos de uso comuns do Datastream? | O Datastream é um serviço de CDC e replicação, o que significa que ele é flexível em vários casos de uso que podem se beneficiar do acesso a dados de alterações de streaming contínuo. Os casos de uso mais comuns do Datastream são:
|
Integrações
Pergunta | Resposta |
---|---|
Como o Datastream se integra aos serviços de dados Google Cloud ? | O Datastream complementa e aprimora o pacote de dados do Google Cloud fornecendo replicação de dados do CDC de origens para vários serviços do Google Cloud . Ao se integrar perfeitamente a esses serviços, o Datastream se encaixa no ecossistema Google Cloud . O Datastream se integra aos seguintes serviços de dados:
|
O modelo do Datastream para o BigQuery no Dataflow tem limitações quanto ao número de operações da linguagem de manipulação de dados (DML)? | Não. O modelo usa a API de inserções de streaming para carregar dados no BigQuery. Como resultado, não há limite para o número de operações DML. No entanto, algumas limitações de cota são aplicáveis. |
Segurança e conectividade
Pergunta | Resposta |
---|---|
O Datastream é um serviço seguro para dados confidenciais? | O Datastream oferece suporte a várias configurações de conectividade privada e segura para proteger os dados em trânsito enquanto eles são transmitidos de uma origem para um destino. Depois que os dados são replicados, eles são criptografados por padrão e aproveitam os controles de segurança do BigQuery ou do Cloud Storage. Todos os dados armazenados em buffer pelo Datastream são criptografados em repouso. |
Quais opções de conectividade estão disponíveis para conectar suas fontes ao Datastream? | Existem três tipos de métodos de conectividade que podem ser configurados:
|
Como posso limitar o processamento de dados confidenciais pelo Datastream? |
O Datastream permite especificar quais elementos de dados específicos (esquemas, tabelas e colunas) da sua fonte você quer transmitir para um destino e quais elementos você quer excluir do fluxo. Os registros do banco de dados podem conter dados de alterações de elementos que foram excluídos na definição do stream. Como não é possível filtrar esses elementos na origem, o Datastream lê, mas ignora todos os dados associados a eles. |
Como o Datastream mantém as credenciais de banco de dados seguras? | Se você usa o Secret Manager para armazenar sua senha ou a insere manualmente ao criar seu perfil de conexão, todos os metadados do usuário são criptografados em trânsito e em repouso, e o Google os armazena nos próprios sistemas de armazenamento. O acesso a esses metadados é rastreado e auditado. |
Por que a página Criar uma configuração de conectividade privada afirma que é necessário conceder a função roles/compute.networkAdmin à conta de serviço do Datastream para criar uma configuração de conectividade privada em uma VPC compartilhada? |
O papel networkAdmin é necessário apenas para criar o peering da VPC. Depois que o peering for estabelecido, você não vai mais precisar da função. Se a sua organização não permitir a concessão do papel networkAdmin à conta de serviço do Datastream, crie um papel personalizado com as seguintes permissões específicas:
Selecionar intervalos de IP dinamicamente
Criar redes com peering
Reservar endereços IP
|
Posso usar o Private Service Connect para criar uma configuração de conectividade privada? | Não, o Datastream não é compatível com o Private Service Connect. |
Monitorar o Datastream
Pergunta | Resposta |
---|---|
Como saber se todos os meus dados históricos foram copiados para o destino? | O Datastream fornece informações sobre o status atual nos arquivos de registros. Uma entrada de registro é criada para indicar o preenchimento de uma tabela. |
A latência aumenta ocasionalmente e diminui gradualmente com o tempo. Isso é normal? | O Datastream aumenta a escala automaticamente quando a capacidade de transferência de eventos gerada pela origem aumenta. No entanto, para proteger o banco de dados de origem e o Datastream, há limites para o número de conexões e processos simultâneos que o Datastream pode abrir a qualquer momento. Picos temporários na latência são esperados quando há um aumento significativo na taxa de transferência de eventos e devem diminuir gradualmente à medida que o backlog de eventos é processado. |
Preços
Pergunta | Resposta |
---|---|
Como o Datastream é cobrado? | O preço do Datastream é baseado no volume (GB) de dados processados da sua origem para um destino. Para saber mais sobre informações de preços do Datastream, consulte Preços. |
Como você calcula o tamanho dos dados? | O faturamento é calculado com base no tamanho dos dados processados pelo Datastream. O Datastream cobra apenas pelos dados transmitidos para o destino. |
Quanto você paga pelo Datastream com o BigQuery ou o Dataflow? | Cada serviço é cobrado e cobrado separadamente. |
Mais informações
Pergunta | Resposta |
---|---|
E se eu tiver outras dúvidas ou problemas com o uso do Datastream? | A equipe de suporte do Google pode ajudar você se tiver problemas ao usar o Datastream. Além disso, o guia de solução de problemas aborda problemas comuns que você pode encontrar ao usar o Datastream. |
A seguir
- Saiba mais sobre o Datastream.
- Saiba mais sobre os principais conceitos e recursos do Datastream.
- Saiba mais sobre as origens compatíveis com o Datastream.
- Saiba mais sobre os destinos compatíveis com o Datastream.