A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Se o número de solicitações exceder a capacidade alocada para processar
solicitações, o código de erro 429 será retornado. A tabela a seguir mostra a mensagem de erro gerada por cada tipo de framework de cota:
Framework de cota
Mensagem
Pagamento por utilização
Resource exhausted, please try again later.
Capacidade de processamento provisionada
Too many requests. Exceeded the Provisioned Throughput.
Com uma assinatura de capacidade de processamento provisionada, é possível reservar uma quantidade de capacidade de processamento para modelos específicos de IA generativa. Se você não tiver uma assinatura de taxa de transferência provisionada e os recursos não estiverem disponíveis para seu aplicativo, um código de erro 429 será retornado. Mesmo que você não tenha capacidade reservada, tente fazer a solicitação de novo. No entanto, a solicitação não é contabilizada na sua taxa de erros, conforme descrito no contrato de nível de serviço (SLA).
Para projetos que compraram a taxa de transferência provisionada, a Vertex AI mede a taxa de transferência de um projeto e reserva a quantidade comprada para o uso real do projeto.
Para a capacidade de processamento provisionada padrão, quando você usa menos do que o valor comprado, erros que poderiam ser 429 são retornados como 5XX e contam para a taxa de erro do SLA. Para o throughput provisionado de zona única, quando você usa menos do que a quantidade comprada, os erros 429 relacionados à capacidade são tratados como 5XX, mas não contam para a taxa de erros do SLA. Quando você excede a quantidade comprada, as solicitações adicionais são processadas sob demanda como pagamento por uso.
Pagamento por utilização
No framework de cota de pagamento conforme o uso, você tem as seguintes opções para resolver erros de 429:
Use o endpoint global em vez de um regional sempre que possível.
Se o modelo usar cotas, envie uma Solicitação de Aumento de Cota (QIR). Se o modelo usar a cota compartilhada dinâmica, suavizar o tráfego e reduzir picos grandes pode ajudar. Para mais informações, consulte Cota compartilhada dinâmica (DSQ).
Inscreva-se na capacidade de processamento provisionada para ter um nível de serviço mais consistente.
Para mais informações, consulte
Capacidade de processamento provisionada.
Capacidade de processamento provisionada
Para corrigir o erro 429 gerado pela capacidade de processamento provisionada, faça o
seguinte:
Use o exemplo de comportamento padrão, que não define um cabeçalho em solicitações de previsão. Os excedentes são processados sob demanda e faturados
como pagamento por uso.
Aumente o número de GSUs na sua assinatura de capacidade de processamento provisionada.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-28 UTC."],[],[],null,["# Error code 429\n\nIf the number of your requests exceeds the capacity allocated to process\nrequests, then error code `429` is returned. The following table displays the\nerror message generated by each type of quota framework:\n\nWith a Provisioned Throughput subscription, you can reserve an\namount of throughput for specific generative AI models. If you don't have a\nProvisioned Throughput subscription and resources aren't available\nto your application, then an error code `429` is returned. Although you don't\nhave reserved capacity, you can try your request again. However, the request\nisn't counted against your error rate as described in your [service level\nagreement (SLA)](/vertex-ai/generative-ai/sla).\n\nFor projects that have purchased Provisioned Throughput,\nVertex AI measures a project's throughput and reserves the purchased\namount of throughput for the project's actual usage.\n\nFor standard Provisioned Throughput, when you use less than your\npurchased amount, errors that might otherwise be `429` are returned as `5XX` and\ncount toward the SLA error rate. For Single Zone Provisioned Throughput,\nwhen you use less than your purchased amount, capacity-related `429` errors are\ntreated as `5XX` but don't count toward the SLA error rate. When you exceed your\npurchased amount, the additional requests are processed on-demand as pay-as-you-go.\n\nPay-as-you-go\n-------------\n\nOn the pay-as-you-go quota framework, you have the following options to\nresolving `429` errors:\n\n- Use the [global endpoint](/vertex-ai/generative-ai/docs/learn/locations#global-endpoint) instead of a regional endpoint whenever possible.\n- Implement a retry strategy by using [truncated exponential backoff](/storage/docs/retry-strategy#exponential-backoff).\n- If your model uses quotas, you can submit a Quota Increase Request (QIR). If your model uses [Dynamic shared\n quota](/vertex-ai/generative-ai/docs/dynamic-shared-quota#supported_models), smoothing traffic and reducing large spikes can help. For more information, see [Dynamic shared\n quota (DSQ)](/vertex-ai/generative-ai/docs/dynamic-shared-quota).\n- Subscribe to Provisioned Throughput for a more consistent level of service. For more information, see [Provisioned Throughput](/vertex-ai/generative-ai/docs/provisioned-throughput).\n\nProvisioned Throughput\n----------------------\n\nTo correct the 429 error generated by Provisioned Throughput, do the\nfollowing:\n\n- Use the [Default behavior\n example](/vertex-ai/generative-ai/docs/use-provisioned-throughput#default), which doesn't set a header in prediction requests. Any overages are processed on-demand and billed as pay-as-you-go.\n- Increase the number of GSUs in your Provisioned Throughput subscription.\n\nWhat's next\n-----------\n\n- To learn more about dynamic shared quota, see [Dynamic shared\n quota](/vertex-ai/generative-ai/docs/dsq).\n- To learn more about Provisioned Throughput, see [Provisioned Throughput](/vertex-ai/generative-ai/docs/provisioned-throughput).\n- To learn about quotas and limits for Vertex AI, see [Vertex AI quotas and limits](/vertex-ai/docs/quotas).\n- To learn more about Google Cloud quotas and system limits, see the [Cloud Quotas documentation](/docs/quotas/overview).\n- To learn more about API errors, see [API errors](/vertex-ai/generative-ai/docs/model-reference/api-errors)."]]