Esta página explica como embasar as respostas de um modelo usando a Pesquisa Google, que usa dados da Web disponíveis publicamente.
Embasamento com a Pesquisa Google
Se você quiser conectar seu modelo ao conhecimento mundial, a uma ampla variedade de tópicos possíveis ou a informações atualizadas na Internet, use o Embasamento com a Pesquisa Google.
Para saber mais sobre o embasamento de modelo na Vertex AI, consulte a Visão geral de embasamento.
Modelos compatíveis
Esta seção lista os modelos que oferecem suporte ao embasamento com a Pesquisa.
Idiomas disponíveis
Para conferir a lista de idiomas compatíveis, consulte Idiomas.
Basear seu modelo na Pesquisa Google
Use as instruções a seguir para embasar um modelo com dados da Web disponíveis publicamente.
Considerações
Para usar o embasamento com a Pesquisa Google, ative as Sugestões de pesquisa. Saiba mais em Usar as Sugestões da Pesquisa Google.
Para resultados ideais, use uma temperatura de
0.0
. Para saber mais sobre como definir essa configuração, consulte o Corpo da solicitação da API Gemini na referência do modelo.O embasamento na Pesquisa Google tem um limite de um milhão de consultas por dia. Se você precisar de mais consultas, entre em contato com o Google Cloud suporte para receber ajuda.
Console
Para usar o Embasamento com a Pesquisa Google no Vertex AI Studio, siga estas etapas:
- No console do Google Cloud, acesse a página Vertex AI Studio.
- Clique na guia Formato livre.
- No painel lateral, clique no botão Embasar respostas do modelo.
- Clique em Personalizar e defina a Pesquisa Google como a origem.
- Insira o comando na caixa de texto e clique em Enviar.
Agora, suas respostas aos comandos serão embasadas com a Pesquisa Google.
Gen AI SDK for Python
Instalar
pip install --upgrade google-genai
Defina variáveis de ambiente para usar o SDK da IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
Gen AI SDK for Go
Saiba como instalar ou atualizar o Gen AI SDK for Go.
Para saber mais, consulte a documentação de referência do SDK.Defina variáveis de ambiente para usar o SDK da IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- LOCATION: a região para processar a solicitação.
- PROJECT_ID: o ID do projeto.
- MODEL_ID: o ID do modelo multimodal. Os modelos do Gemini 2.0 não oferecem suporte à recuperação dinâmica.
- TEXT: as instruções de texto a serem incluídas no comando.
- DYNAMIC_THRESHOLD: um campo opcional para definir o limite
para invocar a configuração de recuperação dinâmica. É um valor de ponto flutuante
no intervalo [0,1]. Se você não definir o campo
dynamicThreshold
, o valor de limite será 0,7.
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
Corpo JSON da solicitação:
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }], "tools": [{ "googleSearchRetrieval": { "dynamicRetrievalConfig": { "mode": "MODE_DYNAMIC", "dynamicThreshold": DYNAMIC_THRESHOLD } } }], "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID" }
Para enviar a solicitação, expanda uma destas opções:
Você receberá uma resposta JSON semelhante a esta:
{ "candidates": [ { "content": { "role": "model", "parts": [ { "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer." } ] }, "finishReason": "STOP", "safetyRatings":[ "..." ], "groundingMetadata": { "webSearchQueries": [ "What's the weather in Chicago this weekend?" ], "searchEntryPoint": { "renderedContent": "....................." } "groundingSupports": [ { "segment": { "startIndex": 0, "endIndex": 65, "text": "Chicago weather changes rapidly, so layers let you adjust easily." }, "groundingChunkIndices": [ 0 ], "confidenceScores": [ 0.99 ] }, ] "retrievalMetadata": { "webDynamicRetrievalScore": 0.96879 } } } ], "usageMetadata": { "..." } }
Entender a resposta
Se o comando do modelo embasar corretamente com a Pesquisa Google pelo Vertex AI Studio ou pela API, as respostas vão incluir metadados com links de origem (URLs da Web). No entanto, há vários motivos para esses metadados não serem fornecidos e a resposta ao comando não ser embasada. Esses motivos incluem baixa relevância de fonte ou informações incompletas na resposta do modelo.
Suporte de aterramento
É recomendável mostrar o suporte de aterramento, porque ele ajuda a validar as respostas dos editores e oferece caminhos para mais aprendizado.
O suporte de fundamentação para respostas de fontes da Pesquisa Google precisa ser mostrado inline e agregado. Por exemplo, confira a imagem abaixo como uma sugestão de como fazer isso.
Uso de opções alternativas de mecanismo de pesquisa
O uso da integração com a Pesquisa do Google pelo cliente não impede que ele ofereça opções de mecanismo de pesquisa alternativas, tornando as opções de pesquisa alternativas a opção padrão para os aplicativos do cliente ou exibindo as próprias sugestões de pesquisa ou resultados de pesquisa de terceiros nos aplicativos do cliente, desde que esses serviços que não são do Google ou resultados associados sejam mostrados separadamente dos resultados e sugestões de pesquisa e não possam ser atribuídos ou confundidos com resultados fornecidos pelo Google.
Usar o Embasamento com a Pesquisa Google como ferramenta
O embasamento com a Pesquisa Google permite fornecer as informações mais atuais e precisas ao seu modelo para melhorar as respostas. O Gemini 2.0 e modelos mais recentes podem usar a Pesquisa Google como uma ferramenta das seguintes maneiras:
- O modelo pode decidir quando usar a Pesquisa Google.
- É possível ativar pesquisas com várias interações e consultas com várias ferramentas, como combinar Grounding com a Pesquisa Google e a execução de código.
O exemplo a seguir mostra como configurar a Pesquisa Google como uma ferramenta.
from google import genai
from google.genai.types import Tool, GenerateContentConfig, GoogleSearch
client = genai.Client()
model_id = "gemini-2.0-flash-001"
google_search_tool = Tool(
google_search = GoogleSearch()
)
response = client.models.generate_content(
model=model_id,
contents="When is the next total solar eclipse in the United States?",
config=GenerateContentConfig(
tools=[google_search_tool],
response_modalities=[text="TEXT"],
)
)
for each in response.candidates[0].content.parts:
print(each.text)
# Example response:
# The next total solar eclipse visible in the contiguous United States will be on ...
# To get grounding metadata as web content. This also includes Search Suggestions
print(response.candidates[0].grounding_metadata.search_entry_point.rendered_content)
Vantagens
Os seguintes comandos e fluxos de trabalho complexos que exigem planejamento, raciocínio e pensamento podem ser feitos quando você usa a Pesquisa Google como ferramenta:
- Você pode usar a base para garantir que as respostas sejam baseadas nas informações mais recentes e precisas.
- Você pode extrair artefatos da Web para fazer análises.
- Você pode encontrar imagens, vídeos ou outras mídias relevantes para ajudar no raciocínio multimodal ou na geração de tarefas.
- Você pode programar, resolver problemas técnicos e realizar outras tarefas especializadas.
- Você pode encontrar informações específicas da região ou ajudar a traduzir o conteúdo com precisão.
- Você pode encontrar sites relevantes para navegação.
A seguir
- Para saber mais sobre o embasamento, consulte Visão geral do embasamento.
- Para saber como enviar solicitações de comando de chat, consulte Chat com vários turnos.
- Para saber mais sobre as práticas recomendadas de IA responsável e os filtros de segurança da Vertex AI, consulte Práticas recomendadas de segurança.