Versionen und Lebenszyklus von Modellen zur Antwortgenerierung
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
AI Applications bietet mehrere Modellversionen, aus denen Sie beim Generieren von Antworten auswählen können. Sie können die Modellversionen auswählen, wenn Sie Suchzusammenfassungen und Antworten und Follow-ups verwenden.
Verfügbare Modelle
In AI Applications werden zwei Arten von Modellen für Anwendungsfälle zum Stellen und Beantworten von Fragen verwendet:
Vertex AI LLM-Modelle, die für Frage- und Antwortaufgaben getestet wurden
KI-Anwendungsmodelle, die auf Vertex AI-LLM-Modellen basieren und zusätzlich für die Bearbeitung von Fragen-und-Antworten-Aufgaben trainiert wurden
Für AI Applications-Modelle gilt dasselbe Einstellungsdatum wie für die zugehörigen Vertex AI LLM-Basismodelle. Das Basis-LLM-Modell ist gemäß der Vertex AI-Richtlinie zum Modelllebenszyklus sechs Monate nach dem Releasedatum der nächsten Version des Modells verfügbar.
Planen Sie ausreichend Zeit für die Migration auf neue Modelle vor den jeweiligen Einstellungsdaten ein.
In der folgenden Tabelle sind die Spezifikationen der Modellversion aufgeführt. Wenn Sie eine Modellspezifikation festlegen, verwendet die API das angegebene Modell, um Antworten zu generieren.
Branche
Benutzerdefiniert
Gesundheitswesen
Modellversion
Beschreibung
Verlaufszeitraum
Einstellungsdatum
Beschreibung
Verlaufszeitraum
Einstellungsdatum
stable
Die Standardmodellauswahl, wenn die Modellversion nicht festgelegt ist.
Die Modellspezifikation stable verweist auf gemini-2.5-flash/answer_gen/v1.
Das als stable bezeichnete Modell ändert sich regelmäßig, wenn neue Modelle und Versionen verfügbar werden.
128.000
–
Die Standardmodellauswahl, wenn die Modellversion nicht festgelegt ist.
Die Modellspezifikation stable verweist auf gemini-2.5-flash/answer_gen/v1.
Das als stable bezeichnete Modell ändert sich regelmäßig, wenn neue Modelle und Versionen verfügbar werden.
128.000
–
gemini-2.5-flash/answer_gen/v1
Ein KI-Anwendungsmodell, das auf dem gemini-2.5-flash-Modell basiert und zusätzlich für Frage- und Antwortaufgaben optimiert wurde.
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
17. Juni 2026
Ein KI-Anwendungsmodell, das auf dem gemini-2.5-flash-Modell basiert und zusätzlich für Frage- und Antwortaufgaben optimiert wurde.
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
17. Juni 2026
gemini-2.0-flash-001/answer_gen/v1
Ein KI-Anwendungsmodell, das auf dem gemini-2.0-flash-001-Modell basiert und zusätzlich für Frage- und Antwortaufgaben optimiert wurde.
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
5. Februar 2026
Ein KI-Anwendungsmodell, das auf dem gemini-2.0-flash-001-Modell basiert und zusätzlich für Frage- und Antwortaufgaben optimiert wurde.
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
5. Februar 2026
gemini-1.5-flash-002/answer_gen/v1
Ein KI-Anwendungsmodell, das auf dem gemini-1.5-flash-002-Modell basiert und zusätzlich für Frage- und Antwortaufgaben optimiert wurde.
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
24. September 2025
Nicht verfügbar
gemini-1.5-flash-001/answer_gen/v2
Ein AI Applications-Modell, das auf dem Modell gemini-1.5-flash-001 basiert und zusätzlich mit einer Mischung aus strukturierten und unstrukturierten Daten für Fragen-und-Antworten-Aufgaben optimiert wurde (Version 2).
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
24. Mai 2025
Ein AI Applications-Modell, das auf dem Modell gemini-1.5-flash-001 basiert und zusätzlich mit einer Mischung aus strukturierten und unstrukturierten Daten für Fragen-und-Antworten-Aufgaben optimiert wurde (Version 2).
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
24. Mai 2025
gemini-1.5-flash-001/answer_gen/v1
Ein KI-Anwendungsmodell, das auf dem gemini-1.5-flash-001-Modell basiert und zusätzlich für Frage- und Antwortaufgaben optimiert wurde.
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
24. Mai 2025
Ein KI-Anwendungsmodell, das auf dem gemini-1.5-flash-001-Modell basiert und zusätzlich für Frage- und Antwortaufgaben optimiert wurde.
Das Modell wird nach der Veröffentlichung eingefroren.
128.000
24. Mai 2025
preview
Die Vorschau-Modellspezifikation verweist auf das neueste gemini-1.5-pro-002-Modell. Das Vorschaumodell kann ohne Vorankündigung geändert werden. Wenn Sie preview als Modell verwenden, können sich die Antworten ändern, wenn sich das Modell ändert. Wenn Sie konsistente Antworten erhalten möchten, wählen Sie ein bestimmtes Modell aus.
128.000
–
Die Vorschau-Modellspezifikation verweist auf das neueste gemini-1.5-pro-002-Modell. Das Vorschaumodell kann ohne Vorankündigung geändert werden. Wenn Sie preview als Modell verwenden, können sich die Antworten ändern, wenn sich das Modell ändert. Wenn Sie konsistente Antworten erhalten möchten, wählen Sie ein bestimmtes Modell aus.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-03 (UTC)."],[[["\u003cp\u003eVertex AI Search offers a selection of model versions for generating answers, accessible when using search summaries and answers with follow-ups.\u003c/p\u003e\n"],["\u003cp\u003eThere are two main types of models used by Vertex AI Search for question-and-answer tasks: Vertex AI LLM models and Vertex AI Search models, the latter being further trained based on LLMs.\u003c/p\u003e\n"],["\u003cp\u003eThe \u003ccode\u003estable\u003c/code\u003e model designation in Vertex AI Search automatically updates to the most current model version available, whereas other model versions remain frozen after their release.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI Search models share the same discontinuation date as their base Vertex AI LLM models, with the base LLM models being supported for six months after the release of the subsequent version.\u003c/p\u003e\n"],["\u003cp\u003eThe \u003ccode\u003epreview\u003c/code\u003e model specfication uses the latest \u003ccode\u003egemini-1.5-pro-002\u003c/code\u003e model, and is subject to change without notification.\u003c/p\u003e\n"]]],[],null,["# Answer generation model versions and lifecycle\n\nAI Applications offers multiple model versions for you to choose when\ngenerating answers. You can choose the model versions when using [search\nsummaries](/generative-ai-app-builder/docs/get-search-summaries) and [answers and\nfollow-ups](/generative-ai-app-builder/docs/answer).\n\nAvailable models\n----------------\n\nAI Applications uses two types of models for question and answering\nuse cases:\n\n- Vertex AI LLM models that have been tested on question and answering tasks\n- AI Applications models that are based on Vertex AI LLM models and further trained to address question and answering tasks\n\nAI Applications models share the same discontinuation date as their\nbase Vertex AI LLM models. The base LLM model is available for six\nmonths after the release date of the next version of the model, per the [Vertex\nAI model lifecycle\npolicy](/vertex-ai/generative-ai/docs/learn/model-versioning).\nLeave enough time to migrate to new models before the discontinuation dates.\n\nThe following table lists model version specifications. When you set a model\nspecification, the API uses the specified model to generate answers.\n\nWhat's next\n-----------\n\n- [Get search summaries](/generative-ai-app-builder/docs/get-search-summaries)"]]