Nesta página, apresentamos duas maneiras de consumir serviços de IA generativa, fornecemos uma lista de cotas por região e modelo e mostramos como visualizar e editar suas cotas no console Google Cloud .
Visão geral
Há duas maneiras de consumir serviços de IA generativa. Você pode escolher o pagamento por utilização (PayGo) ou pagar antecipadamente usando a capacidade de processamento provisionada.
Se você estiver usando o PayGo, seu uso dos recursos de IA generativa estará sujeito a um dos seguintes sistemas de cotas, dependendo do modelo usado:
- Os modelos anteriores ao Gemini 2.0 usam um sistema de cotas padrão para cada modelo de IA generativa, o que ajuda a garantir a imparcialidade e reduzir picos no uso e na disponibilidade de recursos. As cotas se aplicam à IA generativa nas solicitações da Vertex AI para um determinado projeto Google Cloud e região compatível.
- Os modelos mais recentes usam a cota compartilhada dinâmica (DSQ, na sigla em inglês), que distribui dinamicamente a capacidade disponível do PayGo entre todos os clientes de um modelo e uma região específicos, eliminando a necessidade de definir cotas e enviar solicitações de aumento de cota. Não há cotas com o DSQ.
Para garantir alta disponibilidade do seu aplicativo e níveis de serviço previsíveis para suas cargas de trabalho de produção, consulte Capacidade provisionada.
Sistema de cotas por modelo
Os seguintes modelos oferecem suporte à cota compartilhada dinâmica (DSQ):
- Gemini 2.5 Flash-Lite
pré-lançamento - Gemini 2.0 Flash com API Live
pré-lançamento - Gemini 2.0 Flash com geração de imagens
pré-lançamento - Gemini 2.5 Pro
- Gemini 2.5 Flash
- Gemini 2.0 Flash
- Gemini 2.0 Flash-Lite
Os seguintes modelos legados do Gemini são compatíveis com DSQ:
- Gemini 1.5 Pro
- Gemini 1.5 Flash
Os modelos que não são do Gemini e as versões anteriores usam o sistema de cotas padrão. Para mais informações, consulte Cotas e limites da Vertex AI.
Cotas de modelos ajustados
A inferência de modelo ajustado compartilha a mesma cota do modelo base. Não há uma cota separada para inferência de modelo ajustado.
Limites de incorporação de texto
Cada solicitação de modelo de incorporação de texto pode ter até 250 textos de entrada (gerando uma incorporação por texto de entrada) e 20.000 tokens por solicitação. Apenas os primeiros 2.048 tokens em cada texto de entrada são usados para calcular os embeddings. Paragemini-embedding-001
, cada solicitação só pode incluir um texto de entrada.
A cota para esse modelo está listada com o nome gemini-embedding
.
Incorporar tokens de entrada de conteúdo por minuto e por modelo de base
Ao contrário dos modelos de incorporação anteriores, que eram limitados principalmente por cotas de RPM, a cota do modelo de incorporação do Gemini limita o número de tokens que podem ser enviados por minuto por projeto.
Cota | Valor |
---|---|
Tokens de entrada de conteúdo incorporado por minuto | 200000 |
Limites do Vertex AI Agent Engine
Os limites a seguir se aplicam ao Vertex AI Agent Engine para um determinado projeto em cada região:Descrição | Limite |
---|---|
Criar, excluir ou atualizar o Vertex AI Agent Engine por minuto | 10 |
Criar, excluir ou atualizar sessões do Vertex AI Agent Engine por minuto | 100 |
Criar, excluir ou atualizar sessões do Vertex AI Agent Engine por minuto | 100 |
Query ou StreamQuery Vertex AI Agent Engine por minuto |
60 |
Adicionar evento às sessões por minuto do Vertex AI Agent Engine | 100 |
Número máximo de recursos do Vertex AI Agent Engine | 100 |
Criar, excluir ou atualizar recursos de memória do Vertex AI Agent Engine por minuto | 100 |
Receber, listar ou extrair do banco de memória do Vertex AI Agent Engine por minuto | 300 |
Previsão em lote
As cotas e os limites para jobs de inferência em lote são os mesmos em todas as regiões.Limites de jobs simultâneos de inferência em lote para modelos do Gemini
Não há limites de cota predefinidos para inferência em lote para modelos do Gemini. Em vez disso, o serviço de lote fornece acesso a um grande pool compartilhado de recursos, alocado dinamicamente com base na disponibilidade em tempo real e na demanda do modelo em todos os clientes. Quando mais clientes estão ativos e saturam a capacidade do modelo, suas solicitações em lote podem ser colocadas em fila para capacidade.Cotas de jobs de inferência em lote simultâneos
A tabela a seguir lista as cotas para o número de jobs de inferência em lote simultâneos, que não se aplicam aos modelos do Gemini:Cota | Valor |
---|---|
aiplatform.googleapis.com/textembedding_gecko_concurrent_batch_prediction_jobs |
4 |
Ver e editar as cotas no console do Google Cloud
Para ver e editar as cotas no console Google Cloud , faça o seguinte:- Acesse a página Cotas e limites do sistema.
- Para ajustar a cota, copie e cole a propriedade
aiplatform.googleapis.com/generate_content_requests_per_minute_per_project_per_base_model
no Filtro. Pressione Enter. - Clique nos três pontos no final da linha e selecione Editar cota.
- Insira um novo valor de cota no painel e clique em Enviar solicitação.
Acesse "Cotas e limites do sistema"
Mecanismo de RAG da Vertex AI
Para que cada serviço realize a geração aumentada de recuperação (RAG) usando o mecanismo RAG, as cotas a seguir se aplicam, com a cota medida como solicitações por minuto (RPM).Serviço | Cota | Métrica |
---|---|---|
APIs de gerenciamento de dados do mecanismo RAG | 60 RPM | VertexRagDataService requests per minute per region |
API RetrievalContexts |
1.500 RPM | VertexRagService retrieve requests per minute per region |
base_model: textembedding-gecko |
1.500 RPM | Online prediction requests per base model per minute per region per base_model Outro filtro que você pode especificar é base_model: textembedding-gecko |
Serviço | Limite | Métrica |
---|---|---|
Solicitações simultâneas de ImportRagFiles |
3 RPM | VertexRagService concurrent import requests per region |
Número máximo de arquivos por solicitação ImportRagFiles |
10.000 | VertexRagService import rag files requests per region |
Para mais limites de taxa e cotas, consulte Limites de taxa da IA generativa na Vertex AI.
Serviço de avaliação de IA generativa
O serviço de avaliação de IA generativa usa ogemini-2.0-flash
como um modelo de avaliação padrão para métricas baseadas em modelo.
Uma única solicitação de avaliação para uma métrica baseada em modelo pode resultar em várias solicitações subjacentes ao serviço de avaliação de IA generativa. A cota de cada modelo é calculada por projeto, o que significa que todas as solicitações direcionadas ao gemini-2.0-flash
para inferência de modelo e avaliação baseada em modelo contribuem para a cota.
As cotas do serviço de avaliação de IA generativa e do modelo juiz subjacente são mostradas na tabela a seguir:
Cota de solicitações | Cota padrão |
---|---|
Solicitações do serviço de avaliação de IA generativa por minuto | 1.000 solicitações por projeto em cada região |
Solicitações de previsão on-line por minuto parabase_model: gemini-2.0-flash |
Consulte Cotas por região e modelo. |
Se você receber um erro relacionado a cotas ao usar o serviço de avaliação de IA generativa, talvez seja necessário registrar uma solicitação de aumento de cota. Para mais informações, consulte Ver e gerenciar cotas.
Limite | Valor |
---|---|
Tempo limite da solicitação do serviço de avaliação de IA generativa | 60 segundos |
Quando você usa o serviço de avaliação de IA generativa pela primeira vez em um novo projeto, pode ter um atraso na configuração inicial de até dois minutos. Se a primeira solicitação falhar, aguarde alguns minutos e tente novamente. As próximas solicitações de avaliação normalmente são concluídas em 60 segundos.
Os tokens máximos de entrada e saída para métricas baseadas em modelo dependem do modelo usado como juiz. Consulte Modelos do Google para ver uma lista de modelos.
Cotas do Vertex AI Pipelines
Cada job de ajuste usa o Vertex AI Pipelines. Para mais informações, consulte Cotas e limites do Vertex AI Pipelines.
A seguir
- Para saber mais sobre a cota compartilhada dinâmica, consulte Cota compartilhada dinâmica.
- Para saber mais sobre cotas e limites da Vertex AI, consulte Cotas e limites da Vertex AI.
- Para saber mais sobre cotas e limites do Google Cloud , consulte Noções básicas sobre valores de cota e limites do sistema.