Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Projetar um esquema
O esquema ideal para uma tabela do Bigtable depende muito de vários fatores, incluindo caso de uso, padrões de acesso a dados e os dados que você planeja armazenar. Nesta página, fornecemos uma visão geral do processo de design do esquema do Bigtable.
Crie ou identifique uma instância do Bigtable que pode ser usada para testar o esquema.
Coletar informações
Identifique os dados que você planeja armazenar no Bigtable.
Estas são algumas perguntas:
Qual é o formato usado pelos dados? Os formatos possíveis incluem bytes brutos, strings, protobufs e json.
O que constitui uma entidade nos seus dados? Por exemplo, você está armazenando visualizações de página, preços de ações, posicionamentos de anúncios, medições de dispositivos ou algum outro tipo de entidade? Do que as entidades são compostas?
Os dados são baseados no tempo?
Identifique e classifique as consultas que você usa para receber os dados necessários. Considerando as entidades que você armazenará, pense em como você quer que os dados sejam classificados e agrupados, quando usá-los. O design do esquema pode não atender a todas as consultas, mas o ideal é que ele atenda às consultas mais importantes ou usadas com mais frequência. Veja alguns exemplos de consultas:
Um mês de leituras de temperatura para objetos de IoT.
Visualizações diárias de anúncios para um endereço IP.
O local mais recente de um dispositivo móvel.
Todos os eventos de aplicativo por dia por usuário.
Design
Escolha um design de esquema inicial. Isso significa planejar o padrão que as chaves de linha seguirão, os grupos de colunas da tabela e os qualificadores de coluna para as colunas que você quer nesses grupos.
Siga as diretrizes gerais de design de esquema. Se os dados forem baseados em tempo, siga também as diretrizes para dados de séries temporais.
Se você planeja consultar sua tabela usando SQL em vez do método ReadRows da API
Bigtable Data, consulte os seguintes documentos:
Execute um teste de carga pesada por vários minutos. Esta etapa dá ao Bigtable uma oportunidade de balancear os dados entre os nós com base nos padrões de acesso observados.
Execute uma simulação de uma hora das leituras e gravações que você normalmente enviaria para a tabela.
Analise os resultados da simulação usando o Key Visualizer e o Cloud Monitoring.
É possível visualizar os padrões
de uso de cada tabela em um cluster, basta usar a ferramenta Key Visualizer
do Bigtable para fazer verificações diárias.
O Key Visualizer ajuda a verificar se o design do esquema e os padrões de uso estão causando resultados indesejáveis, como pontos de acesso em linhas específicas.
O Monitoring ajuda a verificar métricas, como a utilização da CPU do melhor nó em um cluster, para ajudar a determinar se o design do esquema está causando problemas.
Refinar
Revise o design do esquema conforme necessário, com base no que você aprendeu com o Key Visualizer. Por exemplo:
Se você vir evidências de ponto de acesso, use chaves de linha diferentes.
Se você perceber a latência, descubra se as linhas excedem o limite de 100 MB por linha.
Se você achar que precisa usar filtros para ver os dados necessários, normalize os dados de uma maneira que permita leituras mais simples (e mais rápidas): ler uma única linha ou intervalos de linhas por chave de linha.
Depois de revisar o esquema, teste e analise os resultados novamente.
Continue modificando o design e o teste do esquema até que uma inspeção no Key Visualizer informe que o design do esquema é o ideal.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-03 UTC."],[[["\u003cp\u003eThe optimal Bigtable schema is dependent on factors such as use case, data access patterns, and the nature of the data being stored.\u003c/p\u003e\n"],["\u003cp\u003eBefore designing a schema, it's crucial to identify the data format, entity types, and whether the data is time-based, alongside defining the queries needed to retrieve the data.\u003c/p\u003e\n"],["\u003cp\u003eThe design process involves planning row key patterns, column families, and column qualifiers, following general schema guidelines and any time-series data-specific guidelines.\u003c/p\u003e\n"],["\u003cp\u003eTesting the schema requires creating a table, loading it with a significant amount of data, running load tests, and simulating normal usage patterns to identify potential issues.\u003c/p\u003e\n"],["\u003cp\u003eSchema refinement involves revising the design based on insights from tools like Key Visualizer and Cloud Monitoring, addressing issues such as hotspotting, latency, or complex filtering requirements.\u003c/p\u003e\n"]]],[],null,["# Design a schema\n===============\n\nThe ideal schema for a Bigtable table is highly dependent on a\nnumber of factors, including use case, data access patterns, and the data you\nplan to store. This page provides an overview of the Bigtable\nschema design process.\n\nBefore you read this page, you should understand [schema design](/bigtable/docs/schema-design)\nconcepts and best practices. If applicable, also read\n[Schema design for time series data](/bigtable/docs/schema-design-time-series).\n\nBefore you begin\n----------------\n\n**[Create](/bigtable/docs/creating-instance) or identify a Bigtable instance** that\nyou can use to test your schema.\n\nGather information\n------------------\n\n1. **Identify the data that you plan to store in Bigtable** . Questions to ask include:\n - What format does the data use? Possible formats include raw bytes, strings, protobufs, and json.\n - What constitutes an *entity* in your data? For example, are you storing page views, stock prices, ad placements, device measurements, or some other type of entity? What are the entities composed of?\n - Is the data time-based?\n2. **Identify and rank the queries that you use to get the data you\n need** . Considering the entities you will be storing, think about how you will want the data to be sorted and grouped when you use it. Your schema design might not satisfy all your queries, but ideally it satisfies the most important or most frequently used queries. Examples of queries might include the following:\n - A month's worth of temperature readings for IoT objects.\n - Daily ad views for an IP address.\n - The most recent location of a mobile device.\n - All application events per day per user.\n\nDesign\n------\n\n**Decide on an initial schema design** . This means planning the pattern that\nyour row keys will follow, the column families your table will have, and\nthe column qualifiers for the columns you want within those column families.\nFollow the general [schema design guidelines](/bigtable/docs/schema-design). If your data\nis time-based, also follow the [guidelines for time series data](/bigtable/docs/schema-design-time-series).\n\nIf you plan to query your table using SQL instead of the Bigtable\nData API `ReadRows` method, consult the following documents:\n\n- [GoogleSQL for Bigtable overview](/bigtable/docs/googlesql-overview)\n- [Manage row key schemas](/bigtable/docs/manage-row-key-schemas)\n\nIf you want to use SQL to query views of your table as well as the table itself,\nreview [Tables and views](/bigtable/docs/tables-and-views).\n\nTest\n----\n\n1. **Create a table** using the column families and column qualifiers that you came up with for your schema.\n2. **[Load the table](https://github.com/GoogleCloudPlatform/PerfKitBenchmarker/tree/master/tutorials/bigtable_walkthrough) with at least 30 GB of test data** , using row keys that you identified in your draft plan. **Stay below the\n [storage utilization per node](/bigtable/quotas#storage-per-node) limits.**\n3. **Run a heavy load test for several minutes.** This step gives Bigtable a chance to balance data across nodes based on the access patterns that it observes.\n4. **Run a one-hour simulation** of the reads and writes you would normally send to the table.\n5. **Review the results of your simulation using Key Visualizer and\n Cloud Monitoring**.\n\n - The [Key Visualizer tool for Bigtable](/bigtable/docs/keyvis-overview)\n provides scans that show the usage patterns for each table in a cluster.\n Key Visualizer helps you check whether your schema design and usage\n patterns are causing undesirable results, such as hotspots on specific rows.\n\n - [Monitoring](/bigtable/docs/monitoring-instance) helps you check metrics,\n such as CPU utilization of the hottest node in a cluster, to help you\n determine if the schema design is causing problems.\n\nRefine\n------\n\n1. **Revise your schema design** as necessary, based on what you learned with Key Visualizer. For instance:\n - If you see evidence of hotspotting, use different row keys.\n - If you notice latency, find out whether your rows exceed the 100 MB per row limit.\n - If you find that you have to use filters to get the data you need, consider normalizing the data in a way that allows simpler (and faster) reads: reading a single row or ranges of rows by row key.\n2. **After you've revised your schema, test and review the results again**.\n3. **Continue modifying your schema design and testing** until an inspection in Key Visualizer tells you that the schema design is optimal.\n\nWhat's next\n-----------\n\n- Watch a presentation on the [iterative design process](/bigtable/docs/media#visualizing-cloud-bigtable-access-patterns-at-twitter-for-optimizing-analytics-google-cloud-next-18) that Twitter used for Bigtable.\n- Learn more about [Bigtable performance](/bigtable/docs/performance)."]]