Die überwachte Feinabstimmung ist eine gute Option, wenn Sie eine klar definierte Aufgabe mit verfügbaren, mit Labels versehenen Daten haben. Sie ist besonders effektiv bei domainspezifischen Anwendungen, bei denen sich die Sprache oder der Inhalt erheblich von den Daten unterscheiden, mit denen das große Modell ursprünglich trainiert wurde. Sie können die Datentypen Text, Bild, Audio und Dokument abstimmen.
Bei der überwachten Feinabstimmung wird das Modellverhalten mit einem mit Labels versehenen Dataset angepasst. Bei diesem Prozess wird die Gewichtung des Modells angepasst, um den Unterschied zwischen den Vorhersagen und den tatsächlichen Labels zu minimieren. Sie können damit beispielsweise die Modellleistung für die folgenden Arten von Aufgaben verbessern:
- Klassifizierung
- Zusammenfassung
- Extraktives Question Answering
- Chat
Eine Erörterung der wichtigsten Anwendungsfälle für die Optimierung finden Sie im Blogpost Hundreds of organizations are fine-tuning Gemini models. Hier sind die beliebtesten Anwendungsfälle.
Weitere Informationen finden Sie unter Wann überwachte Feinabstimmung für Gemini verwendet werden sollte.
Unterstützte Modelle
Die folgenden Gemini-Modelle unterstützen die überwachte Feinabstimmung:
Beschränkungen
Gemini 2.5 Flash
Spezifikation | Wert |
---|---|
Maximale Anzahl der Eingabe- und Ausgabetrainings-Tokens | 131.072 |
Maximale Anzahl von Eingabe- und Ausgabetokens für die Bereitstellung | Wie beim Basismodell von Gemini |
Maximale Größe des Validierungs-Datasets | 5.000 Beispiele |
Maximale Dateigröße des Trainings-Datasets | 1 GB für JSONL |
Maximale Größe des Trainings-Datasets | 1 Million Nur-Text-Beispiele oder 300.000 multimodale Beispiele |
Adaptergröße | Die unterstützten Werte sind 1, 2, 4, 8 und 16. |
Gemini 2.0 Flash Gemini 2.0 Flash-Lite
Spezifikation | Wert |
---|---|
Maximale Anzahl der Eingabe- und Ausgabetrainings-Tokens | 131.072 |
Maximale Anzahl von Eingabe- und Ausgabetokens für die Bereitstellung | Wie beim Basismodell von Gemini |
Maximale Größe des Validierungs-Datasets | 5.000 Beispiele |
Maximale Dateigröße des Trainings-Datasets | 1 GB für JSONL |
Maximale Größe des Trainings-Datasets | 1 Million Nur-Text-Beispiele oder 300.000 multimodale Beispiele |
Adaptergröße | Die unterstützten Werte sind 1, 2, 4 und 8. |
Bekannte Probleme
- Ein abgestimmtes Gemini-Modell kann nicht aus der Vertex AI Model Registry gelöscht werden. Solange sie jedoch inaktiv ist, fallen keine Inferenzkosten an.
- Wenn Sie beim Senden von Inferenzanfragen an optimierte Gemini-Modelle kontrollierte Generierung anwenden, kann dies zu einer geringeren Modellqualität führen, da die Daten während der Optimierung und Inferenz nicht übereinstimmen. Während der Abstimmung wird die kontrollierte Generierung nicht angewendet. Das abgestimmte Modell kann daher während der Inferenz nicht gut mit der kontrollierten Generierung umgehen. Durch die überwachte Feinabstimmung wird das Modell effektiv angepasst, um strukturierte Ausgaben zu generieren. Daher müssen Sie die kontrollierte Ausgabe nicht anwenden, wenn Sie Inferenzanfragen für abgestimmte Modelle stellen.
Anwendungsfälle für die Verwendung der überwachten Abstimmung
Foundation-Modelle funktionieren gut, wenn die erwartete Ausgabe oder Aufgabe in einem Prompt klar und präzise definiert werden kann und der Prompt konsistent die erwartete Ausgabe erzeugt. Wenn Sie möchten, dass ein Modell bestimmte Nischenthemen oder Besonderheiten lernt, die von den allgemeinen Mustern abweichen, sollten Sie das Modell entsprechend abstimmen. Sie können das Modell zum Beispiel mithilfe der Modellabstimmung Folgendes antrainieren:
- Bestimmte Strukturen oder Formate zum Generieren einer Ausgabe.
- Spezifisches Verhalten, z. B. wenn eine grobe oder ausführliche Ausgabe bereitgestellt werden soll.
- Bestimmte benutzerdefinierte Ausgaben für bestimmte Eingabetypen angeben.
Bei den folgenden Beispielen handelt es sich um Anwendungsfälle, die sich nur schwer mit Eingabeaufforderungen erfassen lassen:
Klassifizierung: Die erwartete Antwort ist ein bestimmtes Wort oder eine bestimmte Wortgruppe.
Durch Abstimmung des Modells kann verhindert werden, dass das Modell ausführliche Antworten generiert.
Zusammenfassung: Die Zusammenfassung folgt einem bestimmten Format. Es kann beispielsweise vorkommen, dass Sie personenidentifizierbare Informationen aus einer Chatzusammenfassung entfernen müssen.
Das Format der Ersetzung der Namen der Sprecher durch
#Person1
und#Person2
ist schwierig zu beschreiben. Das Foundation Model erzeugt möglicherweise keine solche Antwort.Antwort auf Extraktionsfrage: Die Frage bezieht sich auf einen Kontext und die Antwort ist ein Teilstring des Kontexts.
Die Antwort "Last Glacial Maximum" ist eine spezifische Wortgruppe aus dem Kontext.
Chat: Sie müssen die Modellantwort anpassen, damit sie einer Identität, einer Rolle oder einem Zeichen genügt.
Sie können ein Modell auch in folgenden Situationen optimieren:
- Prompts führen nicht konsistent zu den erwarteten Ergebnissen.
- Die Aufgabe ist zu kompliziert, um sie in einem Prompt zu definieren. Beispiel: Das Modell soll ein Verhalten klonen, das nur schwer in einem Prompt zu beschreiben ist.
- Sie haben komplexe Ahnungen über eine Aufgabe, die schwierig in einem Prompt zu formalisieren ist.
- Sie möchten die Beispiele für Schnellerstellungen entfernen, um die Kontextlänge zu reduzieren.
Region für Abstimmungsjob konfigurieren
Nutzerdaten wie das transformierte Dataset und das optimierte Modell werden in der Abstimmungsjobregion gespeichert. Während der Abstimmung kann die Berechnung für verfügbare Beschleuniger auf andere US
- oder EU
-Regionen übertragen werden. Die Auslagerung ist für Nutzer transparent.
Wenn Sie das Vertex AI SDK verwenden, können Sie die Region bei der Initialisierung angeben. Beispiel:
import vertexai vertexai.init(project='myproject', location='us-central1')
Wenn Sie einen überwachten Job zur Feinabstimmung durch Senden einer POST-Anfrage mit der
tuningJobs.create
-Methode erstellen, verwenden Sie die URL, um die Region anzugeben, in der der Abstimmungsjob ausgeführt wird. In der folgenden URL geben Sie beispielsweise eine Region an, indem Sie beide Instanzen vonTUNING_JOB_REGION
durch die Region ersetzen, in der der Job ausgeführt wird.https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Wenn Sie die Google Cloud -Konsole verwenden, können Sie den Namen der Region im Drop-down-Feld Region auf der Seite Modelldetails auswählen. Dies ist dieselbe Seite, auf der Sie das Basismodell und den Namen eines abgestimmten Modells auswählen.
Kontingent
Das Kontingent wird für die Anzahl der gleichzeitig ausgeführten Abstimmungsjobs erzwungen. Jedes Projekt kommt mit einem Standardkontingent zum Ausführen mindestens eines Abstimmungsjobs. Dies ist ein globales Kontingent, das für alle verfügbaren Regionen und unterstützten Modelle gilt. Wenn Sie weitere Jobs gleichzeitig ausführen möchten, müssen Sie für Global concurrent tuning jobs
zusätzliche Kontingente anfordern.
Preise
Die Preise für die überwachte Feinabstimmung von Gemini finden Sie unter Vertex AI-Preise.
Die Anzahl der Trainingstokens wird berechnet, indem die Anzahl der Tokens in Ihrem Trainings-Dataset mit der Anzahl der Epochen multipliziert wird. Nach der Feinabstimmung fallen aber Inferenzkosten (Vorhersageanfrage) für das feinabgestimmte Modell an. Die Inferenzpreise sind für alle stabilen Versionen von Gemini gleich. Weitere Informationen finden Sie unter Verfügbare stabile Gemini-Modellversionen.
Nächste Schritte
- Überwachtes Dataset für das Fine-Tuning vorbereiten
- Informationen zum Bereitstellen eines abgestimmten Gemini-Modells