Überwachte Feinabstimmung für Gemini-Modelle

Die überwachte Feinabstimmung ist eine gute Option, wenn Sie eine klar definierte Aufgabe mit verfügbaren, mit Labels versehenen Daten haben. Sie ist besonders effektiv bei domainspezifischen Anwendungen, bei denen sich die Sprache oder der Inhalt erheblich von den Daten unterscheiden, mit denen das große Modell ursprünglich trainiert wurde. Sie können die Datentypen Text, Bild, Audio und Dokument abstimmen.

Bei der überwachten Feinabstimmung wird das Modellverhalten mit einem mit Labels versehenen Dataset angepasst. Bei diesem Prozess wird die Gewichtung des Modells angepasst, um den Unterschied zwischen den Vorhersagen und den tatsächlichen Labels zu minimieren. Sie können damit beispielsweise die Modellleistung für die folgenden Arten von Aufgaben verbessern:

  • Klassifizierung
  • Zusammenfassung
  • Extraktives Question Answering
  • Chat

Eine Erörterung der wichtigsten Anwendungsfälle für die Optimierung finden Sie im Blogpost Hundreds of organizations are fine-tuning Gemini models. Hier sind die beliebtesten Anwendungsfälle.

Weitere Informationen finden Sie unter Wann überwachte Feinabstimmung für Gemini verwendet werden sollte.

Unterstützte Modelle

Die folgenden Gemini-Modelle unterstützen die überwachte Feinabstimmung:

Beschränkungen

Gemini 2.5 Flash

Spezifikation Wert
Maximale Anzahl der Eingabe- und Ausgabetrainings-Tokens 131.072
Maximale Anzahl von Eingabe- und Ausgabetokens für die Bereitstellung Wie beim Basismodell von Gemini
Maximale Größe des Validierungs-Datasets 5.000 Beispiele
Maximale Dateigröße des Trainings-Datasets 1 GB für JSONL
Maximale Größe des Trainings-Datasets 1 Million Nur-Text-Beispiele oder 300.000 multimodale Beispiele
Adaptergröße Die unterstützten Werte sind 1, 2, 4, 8 und 16.

Gemini 2.0 Flash Gemini 2.0 Flash-Lite

Spezifikation Wert
Maximale Anzahl der Eingabe- und Ausgabetrainings-Tokens 131.072
Maximale Anzahl von Eingabe- und Ausgabetokens für die Bereitstellung Wie beim Basismodell von Gemini
Maximale Größe des Validierungs-Datasets 5.000 Beispiele
Maximale Dateigröße des Trainings-Datasets 1 GB für JSONL
Maximale Größe des Trainings-Datasets 1 Million Nur-Text-Beispiele oder 300.000 multimodale Beispiele
Adaptergröße Die unterstützten Werte sind 1, 2, 4 und 8.

Bekannte Probleme

  • Ein abgestimmtes Gemini-Modell kann nicht aus der Vertex AI Model Registry gelöscht werden. Solange sie jedoch inaktiv ist, fallen keine Inferenzkosten an.
  • Wenn Sie beim Senden von Inferenzanfragen an optimierte Gemini-Modelle kontrollierte Generierung anwenden, kann dies zu einer geringeren Modellqualität führen, da die Daten während der Optimierung und Inferenz nicht übereinstimmen. Während der Abstimmung wird die kontrollierte Generierung nicht angewendet. Das abgestimmte Modell kann daher während der Inferenz nicht gut mit der kontrollierten Generierung umgehen. Durch die überwachte Feinabstimmung wird das Modell effektiv angepasst, um strukturierte Ausgaben zu generieren. Daher müssen Sie die kontrollierte Ausgabe nicht anwenden, wenn Sie Inferenzanfragen für abgestimmte Modelle stellen.

Anwendungsfälle für die Verwendung der überwachten Abstimmung

Foundation-Modelle funktionieren gut, wenn die erwartete Ausgabe oder Aufgabe in einem Prompt klar und präzise definiert werden kann und der Prompt konsistent die erwartete Ausgabe erzeugt. Wenn Sie möchten, dass ein Modell bestimmte Nischenthemen oder Besonderheiten lernt, die von den allgemeinen Mustern abweichen, sollten Sie das Modell entsprechend abstimmen. Sie können das Modell zum Beispiel mithilfe der Modellabstimmung Folgendes antrainieren:

  • Bestimmte Strukturen oder Formate zum Generieren einer Ausgabe.
  • Spezifisches Verhalten, z. B. wenn eine grobe oder ausführliche Ausgabe bereitgestellt werden soll.
  • Bestimmte benutzerdefinierte Ausgaben für bestimmte Eingabetypen angeben.

Bei den folgenden Beispielen handelt es sich um Anwendungsfälle, die sich nur schwer mit Eingabeaufforderungen erfassen lassen:

  • Klassifizierung: Die erwartete Antwort ist ein bestimmtes Wort oder eine bestimmte Wortgruppe.

    Durch Abstimmung des Modells kann verhindert werden, dass das Modell ausführliche Antworten generiert.

  • Zusammenfassung: Die Zusammenfassung folgt einem bestimmten Format. Es kann beispielsweise vorkommen, dass Sie personenidentifizierbare Informationen aus einer Chatzusammenfassung entfernen müssen.

    Das Format der Ersetzung der Namen der Sprecher durch #Person1 und #Person2 ist schwierig zu beschreiben. Das Foundation Model erzeugt möglicherweise keine solche Antwort.

  • Antwort auf Extraktionsfrage: Die Frage bezieht sich auf einen Kontext und die Antwort ist ein Teilstring des Kontexts.

    Die Antwort "Last Glacial Maximum" ist eine spezifische Wortgruppe aus dem Kontext.

  • Chat: Sie müssen die Modellantwort anpassen, damit sie einer Identität, einer Rolle oder einem Zeichen genügt.

Sie können ein Modell auch in folgenden Situationen optimieren:

  • Prompts führen nicht konsistent zu den erwarteten Ergebnissen.
  • Die Aufgabe ist zu kompliziert, um sie in einem Prompt zu definieren. Beispiel: Das Modell soll ein Verhalten klonen, das nur schwer in einem Prompt zu beschreiben ist.
  • Sie haben komplexe Ahnungen über eine Aufgabe, die schwierig in einem Prompt zu formalisieren ist.
  • Sie möchten die Beispiele für Schnellerstellungen entfernen, um die Kontextlänge zu reduzieren.

Region für Abstimmungsjob konfigurieren

Nutzerdaten wie das transformierte Dataset und das optimierte Modell werden in der Abstimmungsjobregion gespeichert. Während der Abstimmung kann die Berechnung für verfügbare Beschleuniger auf andere US- oder EU-Regionen übertragen werden. Die Auslagerung ist für Nutzer transparent.

  • Wenn Sie das Vertex AI SDK verwenden, können Sie die Region bei der Initialisierung angeben. Beispiel:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • Wenn Sie einen überwachten Job zur Feinabstimmung durch Senden einer POST-Anfrage mit der tuningJobs.create-Methode erstellen, verwenden Sie die URL, um die Region anzugeben, in der der Abstimmungsjob ausgeführt wird. In der folgenden URL geben Sie beispielsweise eine Region an, indem Sie beide Instanzen von TUNING_JOB_REGION durch die Region ersetzen, in der der Job ausgeführt wird.

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Wenn Sie die Google Cloud -Konsole verwenden, können Sie den Namen der Region im Drop-down-Feld Region auf der Seite Modelldetails auswählen. Dies ist dieselbe Seite, auf der Sie das Basismodell und den Namen eines abgestimmten Modells auswählen.

Kontingent

Das Kontingent wird für die Anzahl der gleichzeitig ausgeführten Abstimmungsjobs erzwungen. Jedes Projekt kommt mit einem Standardkontingent zum Ausführen mindestens eines Abstimmungsjobs. Dies ist ein globales Kontingent, das für alle verfügbaren Regionen und unterstützten Modelle gilt. Wenn Sie weitere Jobs gleichzeitig ausführen möchten, müssen Sie für Global concurrent tuning jobs zusätzliche Kontingente anfordern.

Preise

Die Preise für die überwachte Feinabstimmung von Gemini finden Sie unter Vertex AI-Preise.

Die Anzahl der Trainingstokens wird berechnet, indem die Anzahl der Tokens in Ihrem Trainings-Dataset mit der Anzahl der Epochen multipliziert wird. Nach der Feinabstimmung fallen aber Inferenzkosten (Vorhersageanfrage) für das feinabgestimmte Modell an. Die Inferenzpreise sind für alle stabilen Versionen von Gemini gleich. Weitere Informationen finden Sie unter Verfügbare stabile Gemini-Modellversionen.

Nächste Schritte