O Vertex AI Model Optimizer é um endpoint dinâmico projetado para simplificar a seleção de modelos. Ele aplica automaticamente o modelo do Gemini que melhor atende às suas necessidades. Assim, você pode direcionar seus comandos para um único metaendpoint, e o serviço seleciona de maneira inteligente o modelo do Gemini mais adequado para sua consulta (Pro, Flash etc.) com base nas suas preferências de custo e qualidade.
Para mais informações sobre os preços do Model Optimizer, consulte Preços.
Vantagens
Com o Model Optimizer, você pode:
- Simplifique a seleção de modelos em vez de escolher um para cada aplicativo
- Otimize para custo, qualidade ou ambos, equilibrando desempenho e orçamento
- Integração perfeita com as APIs e SDKs do Gemini
- Rastrear o uso e identificar o potencial de economia de custos
- Lide com eficiência com tarefas baseadas em texto sem precisar selecionar endpoints manualmente
Modelos compatíveis
- Gemini 2.0 Flash (GA)
- Gemini 2.5 Pro (prévia, 25/03)
Suporte ao idioma
O Model Optimizer é compatível com todos os idiomas dos modelos do Gemini. Consulte "Suporte a idiomas do Gemini"
Modalidade
O Model Optimizer é compatível com casos de uso de texto, incluindo:
- Programação, incluindo chamada de função e execução de código
- Resumo
- Chat com um ou vários turnos
- Perguntas e respostas
Para saber mais sobre limitações e como lidar com elas, consulte Como processar recursos sem suporte.
Primeiros passos
Para começar a usar o Model Optimizer, consulte nosso bloco do Colab de início rápido.
Como usar o Vertex AI Model Optimizer
Python
Instalar
pip install --upgrade google-genai
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Como lidar com recursos incompatíveis
O Model Optimizer só aceita entrada e saída de texto. No entanto, a solicitação pode incluir diferentes modalidades ou ferramentas que não são compatíveis. As seções a seguir abordam como o Model Optimizer lida com esses recursos sem suporte.
Solicitações multimodais
As solicitações que incluem comandos com dados multimodais, como vídeo, imagens ou áudio, vão gerar um erro INVALID_ARGUMENT
.
Ferramentas sem suporte
O Model Optimizer só aceita declaração de função para solicitações. Se uma solicitação contiver outros tipos de ferramentas, incluindo google_maps
, google_search
, enterprise_web_search
, retrieval
ou browse
, um erro INVALID_ARGUMENT
será gerado.
Enviar feedback
Para enviar feedback sobre sua experiência com o Model Optimizer, responda à nossa pesquisa de feedback.
Se você tiver dúvidas, problemas técnicos ou feedback sobre o Model Optimizer, entre em contato com model-optimizer-support@google.com.
Grupo de discussão com clientes
Para entrar em contato diretamente com a equipe de desenvolvimento, participe do grupo de escuta do Vertex AI Model Optimizer. Nele, você vai conhecer o produto e nos ajudar a entender como melhorar os recursos para você. As atividades do grupo incluem:
- Workshops virtuais para saber mais sobre os recursos
- Pesquisas de feedback para compartilhar suas necessidades e prioridades
- Sessões individuais com funcionários do Google Cloud à medida que exploramos novos recursos
As atividades são oferecidas cerca de uma vez a cada 6 a 8 semanas. É possível participar de quantas atividades quiser ou desativar o recurso a qualquer momento. Para participar do grupo, preencha o formulário de inscrição do grupo de discussão do Vertex AI Model Optimizer.