Fundierung mit der Google Suche

Auf dieser Seite wird erläutert, wie Sie die Antworten eines Modells mit der Google Suche fundieren, die öffentlich verfügbare Webdaten verwendet.

Verwenden Sie die Funktion „Mit der Google Suche fundieren“, wenn Sie Ihr Modell mit dem Wissen der ganzen Welt, einer Vielzahl von Themen oder aktuellen Informationen im Internet verknüpfen möchten.

Weitere Informationen zur Fundierung in Vertex AI finden Sie im Fundierungs-Überblick.

Unterstützte Modelle

In diesem Abschnitt sind die Modelle aufgeführt, die Grounding mit der Google Suche unterstützen.

Unterstützte Sprachen

Eine Liste der unterstützten Sprachen finden Sie unter Sprachen.

Folgen Sie der nachstehenden Anleitung, um ein Modell mit öffentlich verfügbaren Webdaten zu fundieren.

Hinweise

  • Wenn Sie die Funktion „Fundierung mit der Google Suche“ verwenden möchten, müssen Sie die Google-Suchvorschläge aktivieren. Weitere Informationen finden Sie unter Google-Suchvorschläge verwenden.

  • Die besten Ergebnisse erzielen Sie mit einer Temperatur von 0.0. Weitere Informationen zum Festlegen dieser Konfiguration finden Sie unter Gemini API-Anfragetext in der Modellreferenz.

  • Die Fundierung mit der Google Suche ist auf eine Million Abfragen pro Tag beschränkt. Wenn du weitere Fragen hast, wende dich bitte an den Google Cloud Support.

Console

So verwenden Sie die Fundierung mit der Google Suche mit Vertex AI Studio:

  1. Rufen Sie in der Google Cloud Console die Seite „Vertex AI Studio“ auf.

    Zu Vertex AI Studio

  2. Klicken Sie auf den Tab Freies Format.
  3. Klicken Sie in der Seitenleiste auf die Ein/Aus-Schaltfläche Antworten für Bodenmodelle.
  4. Klicken Sie auf Anpassen und legen Sie die Google Suche als Quelle fest.
  5. Geben Sie Ihren Prompt in das Textfeld ein und klicken Sie auf Senden.

Ihre Prompt-Antworten werden jetzt in der Google Suche fundiert.

Gen AI SDK for Python

Installieren

pip install --upgrade google-genai
Weitere Informationen finden Sie in der SDK-Referenzdokumentation.

Legen Sie Umgebungsvariablen fest, um das Gen AI SDK mit Vertex AI zu verwenden:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import (
    GenerateContentConfig,
    GoogleSearch,
    HttpOptions,
    Tool,
)

client = genai.Client(http_options=HttpOptions(api_version="v1"))

response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="When is the next total solar eclipse in the United States?",
    config=GenerateContentConfig(
        tools=[
            # Use Google Search Tool
            Tool(google_search=GoogleSearch())
        ],
    ),
)

print(response.text)
# Example response:
# 'The next total solar eclipse in the United States will occur on ...'

Gen AI SDK for Go

Gen AI SDK for Go installieren oder aktualisieren

Weitere Informationen finden Sie in der SDK-Referenzdokumentation.

Legen Sie Umgebungsvariablen fest, um das Gen AI SDK mit Vertex AI zu verwenden:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

import (
	"context"
	"fmt"
	"io"

	genai "google.golang.org/genai"
)

// generateWithGoogleSearch shows how to generate text using Google Search.
func generateWithGoogleSearch(w io.Writer) error {
	ctx := context.Background()

	client, err := genai.NewClient(ctx, &genai.ClientConfig{
		HTTPOptions: genai.HTTPOptions{APIVersion: "v1"},
	})
	if err != nil {
		return fmt.Errorf("failed to create genai client: %w", err)
	}

	modelName := "gemini-2.0-flash-001"
	contents := []*genai.Content{
		{Parts: []*genai.Part{
			{Text: "When is the next total solar eclipse in the United States?"},
		}},
	}
	config := &genai.GenerateContentConfig{
		Tools: []*genai.Tool{
			{GoogleSearch: &genai.GoogleSearch{}},
		},
	}

	resp, err := client.Models.GenerateContent(ctx, modelName, contents, config)
	if err != nil {
		return fmt.Errorf("failed to generate content: %w", err)
	}

	respText, err := resp.Text()
	if err != nil {
		return fmt.Errorf("failed to convert model response to text: %w", err)
	}
	fmt.Fprintln(w, respText)

	// Example response:
	// The next total solar eclipse in the United States will occur on March 30, 2033, but it will only ...

	return nil
}

REST

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • LOCATION: Die Region, in der die Anfrage verarbeitet werden soll.
  • PROJECT_ID: Ihre Projekt-ID.
  • MODEL_ID: Die Modell-ID des multimodalen Modells. Die Gemini 2.0-Modelle unterstützen keinen dynamischen Abruf.
  • TEXT: Die Textanleitung, die in den Prompt eingefügt werden soll.
  • DYNAMIC_THRESHOLD: Optionales Feld zum Festlegen des Grenzwerts, bei dem die Konfiguration für die dynamische Abfrage aufgerufen wird. Es ist ein Gleitkommawert im Bereich [0,1]. Wenn Sie das Feld dynamicThreshold nicht festlegen, wird der Schwellenwert standardmäßig auf 0,7 festgelegt.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

JSON-Text anfordern:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "googleSearchRetrieval": {
      "dynamicRetrievalConfig": {
        "mode": "MODE_DYNAMIC",
        "dynamicThreshold": DYNAMIC_THRESHOLD
      }
    }
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
         "groundingSupports": [
            {
              "segment": {
                "startIndex": 0,
                "endIndex": 65,
                "text": "Chicago weather changes rapidly, so layers let you adjust easily."
              },
              "groundingChunkIndices": [
                0
              ],
              "confidenceScores": [
                0.99
              ]
            },
          ]
          "retrievalMetadata": {
              "webDynamicRetrievalScore": 0.96879
            }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Ihre Antwort verstehen

Wenn Ihr Modell-Prompt von Vertex AI Studio oder der API erfolgreich bei der Google Suche fundiert wird, enthalten die Antworten Metadaten mit Quelllinks (Web-URLs). Es gibt jedoch mehrere Gründe, warum diese Metadaten möglicherweise nicht bereitgestellt werden und die Prompt-Antwort nicht fundiert wird. Dazu gehören eine geringe Quellenrelevanz oder unvollständige Informationen in der Antwort des Modells.

Erdungsunterstützung

Es wird empfohlen, eine entsprechende Unterstützung anzuzeigen, da Sie so die Antworten der Publisher validieren und Möglichkeiten zum weiteren Lernen finden können.

Die Unterstützung für fundierte Antworten aus Quellen der Google Suche sollte sowohl inline als auch aggregiert angezeigt werden. In der folgenden Abbildung sehen Sie einen Vorschlag dafür.

Beispiele für Erdungsunterstützung

Verwendung alternativer Suchmaschinenoptionen

Die Verwendung der Funktion „Grundlagen mit der Google Suche“ durch den Kunden hindert ihn nicht daran, alternative Suchmaschinenoptionen anzubieten, alternative Suchoptionen als Standardoption für Kundenanwendungen festzulegen oder eigene Suchvorschläge oder Suchergebnisse von Drittanbietern in Kundenanwendungen anzuzeigen, sofern diese Dienste oder zugehörigen Ergebnisse, die nicht von der Google Suche stammen, getrennt von den Ergebnissen der Funktion „Grundlagen“ und den Suchvorschlägen angezeigt werden und nicht vernünftigerweise Google-Ergebnissen zugeordnet oder mit diesen verwechselt werden können.

Fundierung mit der Google Suche als Tool verwenden

Mit der Fundierung mit der Google Suche können Sie Ihrem Modell die aktuellsten und genauesten Informationen zur Verfügung stellen, um die Antworten des Modells zu verbessern. Bei Gemini 2.0 und höher kann die Google Suche auf folgende Arten als Tool verwendet werden:

  • Das Modell kann entscheiden, wann die Google Suche verwendet wird.
  • Sie können Suchanfragen mit mehreren Schritten und Abfragen für mehrere Tools aktivieren.

Im folgenden Beispiel wird gezeigt, wie Sie die Google Suche als Tool konfigurieren.

  from google import genai
  from google.genai.types import Tool, GenerateContentConfig, GoogleSearch

  client = genai.Client()
  model_id = "gemini-2.0-flash-001"

  google_search_tool = Tool(
      google_search = GoogleSearch()
  )

  response = client.models.generate_content(
      model=model_id,
      contents="When is the next total solar eclipse in the United States?",
      config=GenerateContentConfig(
          tools=[google_search_tool],
          response_modalities=[text="TEXT"],
      )
)

for each in response.candidates[0].content.parts:
    print(each.text)
# Example response:
# The next total solar eclipse visible in the contiguous United States will be on ...

# To get grounding metadata as web content. This also includes Search Suggestions
print(response.candidates[0].grounding_metadata.search_entry_point.rendered_content)

Vorteile

Die folgenden komplexen Aufgaben und Workflows, die Planung, Logik und Nachdenken erfordern, können Sie mit der Google Suche erledigen:

  • Sie können die Antworten so stützen, dass sie auf den neuesten und genauesten Informationen basieren.
  • Sie können Artefakte aus dem Web abrufen, um sie zu analysieren.
  • Sie können relevante Bilder, Videos oder andere Medien finden, die bei der multimodalen Argumentation oder Aufgabenerstellung helfen.
  • Sie können Programmieren, technische Fehlerbehebung und andere spezielle Aufgaben ausführen.
  • Sie können regionsspezifische Informationen finden oder bei der korrekten Übersetzung von Inhalten helfen.
  • Sie können relevante Websites für die Suche finden.

Nächste Schritte