O Vertex AI Model Optimizer é um endpoint dinâmico projetado para simplificar a seleção de modelos aplicando automaticamente o modelo Gemini que melhor atende às suas necessidades. Isso permite que você direcione seus comandos a um único meta-endpoint, e o serviço seleciona de forma inteligente o modelo Gemini mais adequado para sua consulta (Pro, Flash etc.) com base nas suas preferências de custo e qualidade.
Para mais informações sobre os preços do Model Optimizer, consulte Preços.
Vantagens
Com o Model Optimizer, você pode:
- Simplifique a seleção de modelos em vez de escolher um para cada aplicativo
- Otimize o custo, a qualidade ou ambos, para equilibrar a performance e o orçamento
- Integração perfeita com APIs e SDKs Gemini
- Rastrear o uso e identificar o potencial de economia de custos
- Processar tarefas baseadas em texto de maneira eficiente sem precisar selecionar manualmente o endpoint
Modelos compatíveis
- Gemini 2.0 Flash (GA)
- Gemini 2.5 Pro (pré-lançamento, 25/03)
Suporte ao idioma
O Model Optimizer é compatível com todos os idiomas que também são aceitos pelos modelos Gemini. (Consulte "Suporte a idiomas no Gemini")
Modalidade
O Model Optimizer oferece suporte a casos de uso de texto, incluindo:
- Programação, incluindo chamada de função e execução de código
- Resumo
- Chat único e com vários turnos
- Perguntas e respostas
Para saber mais sobre as limitações e como lidar com elas, consulte Como lidar com recursos sem suporte.
Primeiros passos
Para começar a usar o Model Optimizer, consulte nosso notebook de início rápido do Colab.
Como usar o otimizador de modelos da Vertex AI
Gen AI SDK for Python
Instalar
pip install --upgrade google-genai
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK da IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Como lidar com recursos incompatíveis
O Model Optimizer só aceita entrada e saída de texto. No entanto, a solicitação pode incluir diferentes modalidades ou ferramentas que não têm suporte. As seções a seguir abordam como o Model Optimizer lida com esses recursos sem suporte.
Solicitações multimodais
As solicitações que incluem comandos com dados multimodais, como vídeo, imagens ou áudio, vão gerar um erro INVALID_ARGUMENT
.
Ferramentas sem suporte
O Otimizador de modelo só oferece suporte à declaração de função para solicitações. Se uma solicitação tiver outros tipos de ferramentas, incluindo google_maps
, google_search
, enterprise_web_search
, retrieval
ou browse
, um erro INVALID_ARGUMENT
será gerado.
Enviar feedback
Para enviar feedback sobre sua experiência com o Model Optimizer, preencha nossa pesquisa de feedback.
Se você tiver dúvidas, problemas técnicos ou feedback sobre o Model Optimizer, entre em contato com model-optimizer-support@google.com.
Grupo de discussão com o cliente
Para entrar em contato diretamente com a equipe de desenvolvimento, participe do grupo de escuta do Vertex AI Model Optimizer. Nele, você vai conhecer o produto e nos ajudar a entender como melhorar os recursos para você. As atividades do grupo incluem:
- Workshops virtuais para saber mais sobre os recursos
- Pesquisas de feedback para compartilhar suas necessidades e prioridades
- Sessões individuais com Google Cloud funcionários à medida que exploramos novos recursos
As atividades são oferecidas cerca de uma vez a cada seis a oito semanas. É possível participar de quantas atividades quiser ou desativar o recurso a qualquer momento. Para participar do grupo, preencha o formulário de inscrição do grupo de discussão do Vertex AI Model Optimizer.