Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Esta página descreve como resolver problemas dos componentes do Spanner para encontrar a
origem da latência. Para saber mais sobre possíveis pontos de latência em uma
solicitação do Spanner, consulte
Pontos de latência em uma solicitação do Spanner.
No aplicativo cliente que afeta seu serviço, confirme se há um
aumento de latência do tempo de ida e volta do cliente. Verifique as seguintes dimensões
nas métricas do lado do cliente.
Nome do aplicativo cliente
Localidade do cliente (por exemplo, zonas de VM do Compute Engine) e host (ou seja, nomes de VM)
Método da API Spanner
Status da API Spanner
Agrupe por essas dimensões para saber se o problema está limitado a um cliente, status ou método específico. Para cargas de trabalho birregionais ou multirregionais, verifique se o problema está limitado a um cliente ou região do Spanner específico.
Verifique a integridade do aplicativo cliente, especialmente a infraestrutura
de computação no lado do cliente (por exemplo, utilização de VM, CPU ou memória,
conexões, descritores de arquivo etc.).
Se você tiver uma alta latência de ida e volta do cliente, mas uma baixa latência do GFE e uma baixa
latência de solicitação da API Spanner, o código do aplicativo poderá
ter um problema. Também pode indicar um problema de rede entre o cliente
e o GFE regional. Se o aplicativo tiver um problema de desempenho que cause
lentidão em alguns caminhos do código, o tempo de retorno do cliente para cada solicitação
de API poderá aumentar. Também pode haver um problema na infraestrutura de computação do cliente
que não foi detectado na etapa anterior.
Agrupe por essas dimensões para saber se o problema está limitado a um banco de dados, status ou método específico. Para cargas de trabalho birregionais ou multirregionais,
verifique se o problema está limitado a uma região específica.
Se você tiver uma alta latência do GFE, mas uma baixa latência de solicitação da API Spanner, uma das seguintes causas pode ser a causa:
Acessar um banco de dados de outra região. Essa ação pode aumentar a latência do GFE
e diminuir a latência da solicitação da API Spanner. Por exemplo,
o tráfego de um cliente na região us-east1 que tem uma instância na
região us-central1 pode ter uma latência alta do GFE, mas uma latência de solicitação da API Spanner menor.
Há um problema na camada GFE. Verifique no Painel de status doGoogle Cloud
se há algum problema de rede na sua região. Se não houver nenhum problema, abra um caso de suporte e inclua essas informações para que os engenheiros de suporte possam ajudar na solução de problemas do GFE.
Observe e resolva possíveis pontos de acesso ou padrões de acesso desequilibrados
usando o Key Visualizer
e tente reverter as mudanças no código do aplicativo que estão fortemente relacionadas
ao período do problema.
Use os procedimentos em Consultas ativas mais antigas
para conferir consultas de despesas que podem causar um gargalo de desempenho e
cancele as consultas conforme necessário.
Use os procedimentos nas seções de solução de problemas nos seguintes tópicos para
resolver o problema usando as ferramentas de introspecção do Spanner:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-11 UTC."],[],[],null,["# Identify where latency occurs\n\n| **Note:** [OpenCensus is deprecated](https://opentelemetry.io/blog/2023/sunsetting-opencensus/). We recommend using OpenTelemetry to capture and visualize Spanner observability metrics. For more information, see [Capture custom client-side metrics using OpenTelemetry](/spanner/docs/capture-custom-metrics-opentelemetry).\n\nThis page describes how to troubleshoot Spanner components to find the\nsource of the latency. To learn more about possible latency points in a\nSpanner request, see\n[Latency points in a Spanner request](/spanner/docs/latency-points).\n\n1. In your client application that affects your service, confirm there's a\n latency increase from client round-trip latency. Check the following dimensions\n from your client-side metrics.\n\n - Client Application Name\n - Client locality (for example, Compute Engine VM zones) and Host (that is, VM names)\n - Spanner API method\n - Spanner API status\n\n Group by these dimensions to see if the issue is limited to a specific\n client, status, or method. For dual-region or multi-regional workloads, see\n if the issue is limited to a specific client or Spanner region.\n2. Check your client application health, especially the computing\n infrastructure on the client side (for example, VM, CPU, or memory\n utilization, connections, file descriptors, and so on).\n\n3. Check latency in Spanner components:\n\n a. Check client round-trip latency [with OpenTelemetry](/spanner/docs/capture-custom-metrics-opentelemetry#capture-client-round-trip-latency)\n or [with OpenCensus](/spanner/docs/capture-visualize-latency-opencensus#capture_and_visualize_client_round-trip_latency).\n\n b. Check Google Front End (GFE) latency [with OpenTelemetry](/spanner/docs/capture-custom-metrics-opentelemetry#capture-gfe-latency)\n or [with OpenCensus](/spanner/docs/capture-visualize-latency-opencensus#capture_and_visualize_gfe_latency).\n\n c. Check Spanner API request latency [with OpenTelemetry](/spanner/docs/capture-custom-metrics-opentelemetry#capture-spanner-api-request-latency)\n or [with OpenCensus](/spanner/docs/capture-visualize-latency-opencensus#capture_and_visualize_api_request_latency).\n\n If you have high client round-trip latency, but low GFE latency, and a low\n Spanner API request latency, the application code might\n have an issue. It could also indicate a networking issue between the client\n and regional GFE. If your application has a performance issue that causes\n some code paths to be slow, then the client round-trip latency for each API\n request might increase. There might also be an issue in the client computing\n infrastructure that was not detected in the previous step.\n4. Check the following dimensions for\n [Spanner metrics](/spanner/docs/latency-metrics):\n\n - Spanner Database Name\n - Spanner API method\n - Spanner API status\n\n Group by these dimensions to see if the issue is limited to a specific\n database, status, or method. For dual-region or multi-regional workloads,\n check to see if the issue is limited to a specific region.\n\n If you have a high GFE latency, but a low Spanner API request\n latency, it might have one of the following causes:\n - Accessing a database from another region. This action can lead to high GFE\n latency and low Spanner API request latency. For example,\n traffic from a client in the `us-east1` region that has an instance in the\n `us-central1` region might have a high GFE latency but a lower\n Spanner API request latency.\n\n - There's an issue at the GFE layer. Check the [Google Cloud Status Dashboard](https://status.cloud.google.com/)\n to see if there are any ongoing networking issues in your region. If there\n aren't any issues, then open a support case and include this information so\n that support engineers can help with troubleshooting the GFE.\n\n5. [Check the CPU utilization of the instance](/spanner/docs/cpu-utilization).\n If the CPU utilization of the instance is above the recommended level, you\n should manually add more nodes, or set up auto scaling. For more information,\n see [Autoscaling overview](/spanner/docs/autoscaling-overview).\n\n6. Observe and troubleshoot potential hotspots or unbalanced access patterns\n using [Key Visualizer](/spanner/docs/key-visualizer)\n and try to roll back any application code changes that strongly correlate\n with the issue timeframe.\n\n | **Note:** We recommend you follow [Schema design best practices](/spanner/docs/schema-design) to ensure your access is balanced across Spanner computing resources.\n7. Check any traffic pattern changes.\n\n8. Check [Query insights](/spanner/docs/using-query-insights) and\n [Transaction insights](/spanner/docs/use-lock-and-transaction-insights) to\n see if there might be any query or transaction performance bottlenecks.\n\n9. Use procedures in [Oldest active queries](/spanner/docs/introspection/oldest-active-queries)\n to see any expense queries that might cause a performance bottleneck and\n cancel the queries as needed.\n\n10. Use procedures in the troubleshooting sections in the following topics to\n troubleshoot the issue further using Spanner introspection\n tools:\n\n - [Query statistics](/spanner/docs/introspection/query-statistics)\n - [Read statistics](/spanner/docs/introspection/read-statistics)\n - [Transaction statistics](/spanner/docs/introspection/transaction-statistics)\n - [Lock statistics](/spanner/docs/introspection/lock-statistics)\n\nWhat's next\n-----------\n\n- Now that you've identified the component that contains the latency, explore the problem further using OpenCensus. For more information, see [Capture custom client-side metrics using OpenTelemetry](/spanner/docs/capture-custom-metrics-opentelemetry) or [with OpenCensus](/spanner/docs/capture-visualize-latency-opencensus).\n- Learn how to use [metrics](/spanner/docs/latency-metrics) to diagnose latency.\n- Learn how to [troubleshoot Spanner deadline exceeded errors](/spanner/docs/deadline-exceeded)."]]