Auf dieser Seite erfahren Sie, wie Sie Texteinbettungsmodelle optimieren.
Foundation-Einbettungsmodelle werden mit einem riesigen Text-Dataset vortrainiert und bieten eine solide Grundlage für viele Aufgaben. In Szenarien, die spezielles Wissen oder eine hochgradig maßgeschneiderte Leistung erfordern, können Sie mit der Modellabstimmung die Darstellungen des Modells anhand Ihrer eigenen relevanten Daten optimieren. Die Abstimmung wird für stabile Versionen der Modelle textembedding-gecko
und textembedding-gecko-multilingual
unterstützt.
Texteinbettungsmodelle unterstützen die überwachte Abstimmung. Die überwachte Abstimmung verwendet Beispiele für Labels, die die Art von Ausgabe zeigen, die Sie aus Ihrem Texteinbettungsmodell während der Inferenz verwenden möchten.
Weitere Informationen zur Modellabstimmung finden Sie unter Funktionsweise der Modellabstimmung.
Erwartete Qualitätsverbesserung
Für die Anpassung verwendet Vertex AI eine Methode zur effizienten Abstimmung von Parametern. Diese Methodik führt zu einer deutlichen Qualitätssteigerung von bis zu 41% (durchschnittlich 12%) bei Tests, die mit öffentlichen Benchmark-Datasets für den Abruf durchgeführt wurden.
Anwendungsfall für die Abstimmung eines Einbettungsmodells
Durch die Abstimmung eines Texteinbettungsmodells kann das Modell die Einbettungen an eine bestimmte Domain oder Aufgabe anpassen. Das kann nützlich sein, wenn das vortrainierte Einbettungsmodell nicht gut für Ihre spezifischen Anforderungen geeignet ist. Sie können beispielsweise ein Einbettungsmodell mit einem bestimmten Dataset von Kundensupport-Tickets für Ihr Unternehmen abstimmen. Dadurch kann ein Chatbot die verschiedenen Arten von Kundensupportproblemen verstehen, die Ihre Kunden normalerweise haben, und in der Lage sein, ihre Fragen effektiver beantworten zu können. Ohne Abstimmung kennt das Modell nicht die Details Ihrer Kundensupport-Tickets oder die Lösungen für bestimmte Probleme mit Ihrem Produkt.
Abstimmungsworkflow
Der Workflow zur Modellabstimmung in Vertex AI für textembedding-gecko
und textembedding-gecko-multilingual
sieht so aus:
- Modellabstimmungs-Dataset vorbereiten
- Laden Sie den Datensatz zur Modellabstimmung in einen Cloud Storage-Bucket hoch.
- Konfigurieren Sie Ihr Projekt für Vertex AI Pipelines.
- Modellabstimmungsjob erstellen
- Stellen Sie das abgestimmte Modell auf einem Vertex AI-Endpunkt mit demselben Namen bereit. Im Gegensatz zu Text- oder Codey-Modellabstimmungsjobs werden Ihre feinabgestimmten Modelle durch einen Abstimmungsjob für Texteinbettungen nicht auf einem Vertex AI-Endpunkt bereitgestellt.
Einbettungs-Dataset vorbereiten
Das Dataset zum Optimieren eines Einbettungsmodells enthält Daten, die auf die Aufgabe ausgerichtet sind, welche das Modell ausführen soll.
Dataset-Format zum Feinabstimmen eines Einbettungsmodells
Das Trainingsdataset besteht aus den folgenden Dateien, die sich in Cloud Storage befinden müssen. Die Pfade der Dateien werden beim Starten der Abstimmungs-Pipeline durch Parameter definiert. Die drei Dateitypen sind die Corpus-Datei, die Anfrage-Datei und die Labels. Es sind nur Trainingslabels erforderlich, Sie können aber auch Validierungs- und Testlabels angeben, um mehr Kontrolle zu haben.
Corpus-Datei: Der Pfad wird durch den Parameter
corpus_path
definiert. Es handelt sich um eine JSONL-Datei, in der jede Zeile die Felder_id
,title
undtext
mit Stringwerten enthält._id
undtext
sind erforderlich,title
ist optional. Hier sehen Sie einecorpus.jsonl
-Beispieldatei:{"_id": "doc1", "title": "Get an introduction to generative AI on Vertex AI", "text": "Vertex AI Studio offers a Google Cloud console tool for rapidly prototyping and testing generative AI models. Learn how you can use Vertex AI Studio to test models using prompt samples, design and save prompts, tune a foundation model, and convert between speech and text."} {"_id": "doc2", "title": "Use gen AI for summarization, classification, and extraction", "text": "Learn how to create text prompts for handling any number of tasks with Vertex AI's generative AI support. Some of the most common tasks are classification, summarization, and extraction. Vertex AI's PaLM API for text lets you design prompts with flexibility in terms of their structure and format."} {"_id": "doc3", "title": "Custom ML training overview and documentation", "text": "Get an overview of the custom training workflow in Vertex AI, the benefits of custom training, and the various training options that are available. This page also details every step involved in the ML training workflow from preparing data to predictions."} {"_id": "doc4", "text": "Text embeddings are useful for clustering, information retrieval, retrieval-augmented generation (RAG), and more."} {"_id": "doc5", "title": "Text embedding tuning", "text": "Google's text embedding models can be tuned on Vertex AI."}
Abfragedatei: Die Abfragedatei enthält Ihre Beispielabfragen. Der Pfad wird durch den Parameter
queries_path
definiert. Die Abfragedatei hat das JSONL-Format und enthält dieselben Felder wie die Korpusdatei. Hier sehen Sie einequeries.jsonl
-Beispieldatei:{"_id": "query1", "text": "Does Vertex support generative AI?"} {"_id": "query2", "text": "What can I do with Vertex GenAI offerings?"} {"_id": "query3", "text": "How do I train my models using Vertex?"} {"_id": "query4", "text": "What is a text embedding?"} {"_id": "query5", "text": "Can text embedding models be tuned on Vertex?"} {"_id": "query6", "text": "embeddings"} {"_id": "query7", "text": "embeddings for rag"} {"_id": "query8", "text": "custom model training"} {"_id": "query9", "text": "Google Cloud PaLM API"}
Trainingslabels: Der Pfad wird durch den Parameter
train_label_path
definiert. Der train_label_path ist der Cloud Storage-URI für den Speicherort der Trainingslabeldaten und wird beim Erstellen des Abstimmungsjobs angegeben. Die Labels müssen in einer TSV-Datei mit Kopfzeile enthalten sein. Ein Teil der Anfragen und des Korpus muss in Ihrer Datei mit Trainingslabels enthalten sein. Die Datei muss die Spaltenquery-id
,corpus-id
undscore
enthalten.query-id
ist ein String, der mit dem_id
-Schlüssel aus der Abfragedatei übereinstimmt, undcorpus-id
ist ein String, der mit dem_id
in der Korpusdatei übereinstimmt.Score
ist eine nicht negative Ganzzahl. Wenn ein Paar aus Anfrage und Dokument nicht zusammenhängt, können Sie es entweder aus der Datei mit den Trainingslabels entfernen oder mit einem Wert von null einfügen. Jeder Wert über null bedeutet, dass das Dokument mit der Anfrage in Verbindung steht. Je höher die Zahl, desto relevanter ist das Ergebnis. Wenn der Wert weggelassen wird, ist der Standardwert 1. Hier sehen Sie einetrain_labels.tsv
-Beispieldatei:query-id corpus-id score query1 doc1 1 query2 doc2 1 query3 doc3 2 query3 doc5 1 query4 doc4 1 query4 doc5 1 query5 doc5 2 query6 doc4 1 query6 doc5 1 query7 doc4 1 query8 doc3 1 query9 doc2 1
Test labels: Optional. Die Testlabels haben dasselbe Format wie die Trainingslabels und werden durch den Parameter
test_label_path
angegeben. Wenn keintest_label_path
angegeben ist, werden die Testlabels automatisch aus den Trainingslabels aufgeteilt.Validierungslabels: Optional. Die Validierungslabel haben dasselbe Format wie die Trainingslabel und werden mit dem Parameter
validation_label_path
angegeben. Wenn keinvalidation_label_path
angegeben ist, werden die Validierungs-Labels automatisch aus den Trainings-Labels aufgeteilt.
Anforderungen an die Dataset-Größe
Die bereitgestellten Dataset-Dateien müssen die folgenden Einschränkungen erfüllen:
- Die Anzahl der Anfragen muss zwischen 9 und 10.000 liegen.
- Die Anzahl der Dokumente im Korpus muss zwischen 9 und 500.000 liegen.
- Jede Dataset-Labeldatei muss mindestens 3 Abfrage-IDs enthalten und über alle Dataset-Aufteilungen hinweg müssen mindestens 9 Abfrage-IDs vorhanden sein.
- Die Gesamtzahl der Labels muss unter 500.000 liegen.
Projekt für Vertex AI Pipelines konfigurieren
Die Abstimmung wird in Ihrem Projekt über die Vertex AI Pipelines-Plattform ausgeführt.
Berechtigungen konfigurieren
Die Pipeline führt Trainingscode unter zwei Dienst-Agents aus. Diesen Dienst-Agents müssen bestimmte Rollen zugewiesen werden, damit das Training mit Ihrem Projekt und Dataset beginnen kann.
Standardmäßiges Compute Engine-Dienstkonto
PROJECT_NUMBER-compute@developer.gserviceaccount.com
Für dieses Dienstkonto ist Folgendes erforderlich:
Storage Object Viewer
-Zugriff auf jede Dataset-Datei, die Sie in Cloud Storage erstellt haben.Storage Object User
-Zugriff auf das Cloud Storage-Ausgabeverzeichnis Ihrer Pipeline PIPELINE_OUTPUT_DIRECTORY.Vertex AI User
-Zugriff auf Ihr Projekt.
Anstelle des Compute Engine-Standarddienstkontos können Sie ein benutzerdefiniertes Dienstkonto angeben. Weitere Informationen finden Sie unter Dienstkonto mit detaillierten Berechtigungen konfigurieren.
Vertex AI Tuning Service Agent
service-PROJECT_NUMBER@gcp-sa-aiplatform-ft.iam.gserviceaccount.com
Für dieses Dienstkonto ist Folgendes erforderlich:
Storage Object Viewer
-Zugriff auf jede Dataset-Datei, die Sie in Cloud Storage erstellt haben.Storage Object User
-Zugriff auf das Cloud Storage-Ausgabeverzeichnis Ihrer Pipeline PIPELINE_OUTPUT_DIRECTORY.
Weitere Informationen zum Konfigurieren von Cloud Storage-Dataset-Berechtigungen finden Sie unter Cloud Storage-Bucket für Pipeline-Artefakte konfigurieren.
Beschleuniger verwenden
Für das Optimieren sind GPU-Beschleuniger erforderlich. Für die Pipeline zum Optimieren von Texteinbettungen können die folgenden Beschleuniger verwendet werden:
NVIDIA_L4
NVIDIA_TESLA_A100
NVIDIA_TESLA_T4
NVIDIA_TESLA_V100
NVIDIA_TESLA_P100
Zum Starten eines Abstimmungsjobs ist ein ausreichendes Restricted image training GPUs
-Kontingent für den von Ihnen ausgewählten Beschleunigertyp und die Region erforderlich, z. B. Restricted image training Nvidia V100 GPUs per region
. Informationen zum Erhöhen des Kontingents Ihres Projekts finden Sie unter Weitere Kontingente anfordern.
Nicht alle Accelerators sind in allen Regionen verfügbar. Weitere Informationen finden Sie unter Beschleuniger in Vertex AI verwenden.
Feinabstimmungsjob für Einbettungsmodelle erstellen
Sie können einen Feinabstimmungsjob für Einbettungsmodelle mit der Google Cloud -Konsole, der REST API oder den Clientbibliotheken erstellen.
REST
Verwenden Sie zum Erstellen eines Feinabstimmungsjobs für Einbettungsmodelle die Methode projects.locations.pipelineJobs.create
.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_ID
: Ihre Google Cloud -Projekt-IDPIPELINE_OUTPUT_DIRECTORY
: Pfad für die Pipeline-Ausgabe-Artefakte, beginnend mit „gs://“.
HTTP-Methode und URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/pipelineJobs
JSON-Text anfordern:
{ "displayName": "tune_text_embeddings_model_sample", "runtimeConfig": { "gcsOutputDirectory": "PIPELINE_OUTPUT_DIRECTORY", "parameterValues": { "corpus_path": "gs://cloud-samples-data/ai-platform/embedding/goog-10k-2024/r11/corpus.jsonl", "queries_path": "gs://cloud-samples-data/ai-platform/embedding/goog-10k-2024/r11/queries.jsonl", "train_label_path": "gs://cloud-samples-data/ai-platform/embedding/goog-10k-2024/r11/train.tsv", "test_label_path": "gs://cloud-samples-data/ai-platform/embedding/goog-10k-2024/r11/test.tsv", "base_model_version_id":"text-embedding-004", "task_type": "DEFAULT", "batch_size": "128", "train_steps": "1000", "output_dimensionality": "768", "learning_rate_multiplier": "1.0" } }, "templateUri": "https://us-kfp.pkg.dev/ml-pipeline/llm-text-embedding/tune-text-embedding-model/v1.1.3" }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten in etwa folgende JSON-Antwort erhalten:
Nachdem Sie die Pipeline gestartet haben, können Sie den Fortschritt des Abstimmungsjobs über die Google Cloud Console verfolgen.
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Python-API-Referenzdokumentation.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Console
Wenn Sie ein Texteinbettungsmodell mithilfe der Google Cloud console optimieren möchten, können Sie mit den folgenden Schritten eine Anpassungspipeline starten:
- Rufen Sie im Bereich „Vertex AI“ der Google Cloud Console die Seite Vertex AI Pipelines auf.
- Klicken Sie auf Ausführung erstellen, um den Bereich Pipeline-Ausführung erstellen zu öffnen.
- Klicken Sie auf Aus vorhandenen Pipelines auswählen und geben Sie die folgenden Details ein:
- Wählen Sie im Drop-down-Menü Ressource auswählen die Option „ml-pipeline“ aus.
- Wählen Sie im Drop-down-Menü Repository die Option „llm-text-embedding“ aus.
- Wählen Sie „tune-text-embedding-model“ im Drop-down-Menü Pipeline oder Komponente aus.
- Wählen Sie im Drop-down-Menü Version die Version mit der Bezeichnung „v1.1.3“ aus.
- Geben Sie einen Ausführungsnamen an, um die Pipelineausführung zu identifizieren.
- Wählen Sie in der Drop-down-Liste Region die Region aus, in der Sie die Pipelineausführung erstellen möchten. Das ist dieselbe Region, in der Ihr abgestimmtes Modell erstellt wird.
- Klicken Sie auf Weiter. Der Bereich Laufzeitkonfiguration wird angezeigt.
- Klicken Sie unter Cloud Storage-Speicherort auf Durchsuchen, um den Cloud Storage-Bucket zum Speichern der Pipeline-Ausgabeartefakte auszuwählen. Klicken Sie dann auf Auswählen.
- Geben Sie unter Pipeline parameters (Pipelineparameter) die Parameter für die Abstimmungs-Pipeline an. Die drei erforderlichen Parameter sind
corpus_path
,queries_path
undtrain_label_path
. Die Formate sind unter Einbettungs-Dataset vorbereiten beschrieben. Weitere Informationen zu den einzelnen Parametern finden Sie auf dem Tab „REST“ dieses Abschnitts. - Klicken Sie auf Senden, um die Pipelineausführung zu erstellen.
Weitere unterstützte Funktionen
Das Abstimmen von Texteinbettungen unterstützt VPC Service Controls und kann so konfiguriert werden, dass es in einer Virtual Private Cloud (VPC) ausgeführt wird. Dazu muss beim Erstellen von PipelineJob
der Parameter network
übergeben werden.
Wenn Sie CMEK (vom Kunden verwaltete Verschlüsselungsschlüssel) verwenden möchten, übergeben Sie den Schlüssel beim Erstellen der PipelineJob
an den Pipelineparameter parameterValues.encryption_spec_key_name
sowie an den Parameter encryptionSpec.kmsKeyName
.
Feinabgestimmtes Modell verwenden
Feinabgestimmte Modelle in Model Registry ansehen
Wenn Ihr Abstimmungsjob abgeschlossen ist, wird das abgestimmte Modell nicht automatisch an einem Endpunkt bereitgestellt. Es ist als Modellressource in Model Registry verfügbar. Mit der Google Cloud -Konsole können Sie eine Liste der Modelle in Ihrem aktuellen Projekt, einschließlich der abgestimmten Modelle, aufrufen.
Rufen Sie die Seite Vertex AI Model Registry auf, um Ihre optimierten Modelle in der Google Cloud Console aufzurufen.
Modell bereitstellen
Nachdem Sie das Einbettungsmodell abgestimmt haben, müssen Sie die Modellressource bereitstellen. Informationen zum Bereitstellen Ihres feinabgestimmten Einbettungsmodells finden Sie unter Modell auf einem Endpunkt bereitstellen.
Im Gegensatz zu Fundamentmodellen werden abgestimmte Texteinbettungsmodelle vom Nutzer verwaltet.
Dazu gehört die Verwaltung von Bereitstellungsressourcen wie Maschinentyp und Beschleuniger.
Um Fehler aufgrund von unzureichendem Arbeitsspeicher bei der Vorhersage zu vermeiden, empfiehlt es sich, den GPU-Typ NVIDIA_TESLA_A100
zu verwenden, der Batchgrößen von bis zu 5 für jede Eingabelänge unterstützt.
Ähnlich wie beim textembedding-gecko
-Grundlagenmodell unterstützt Ihr abgestimmtes Modell bis zu 3.072 Tokens und kann längere Eingaben kürzen.
Vorhersagen für ein bereitgestelltes Modell abrufen
Sobald Ihr feinabgestimmtes Modell bereitgestellt wurde, können Sie mit einem der folgenden Befehle Anfragen an den Endpunkt des feinabgestimmten Modells senden.
curl-Beispielbefehle für abgestimmte textembedding-gecko@001
-Modelle
Verwenden Sie den folgenden curl-Befehl, um Vorhersagen aus einer optimierten Version von textembedding-gecko@001
abzurufen.
PROJECT_ID=PROJECT_ID
LOCATION=LOCATION
ENDPOINT_URI=https://${LOCATION}-aiplatform.googleapis.com
MODEL_ENDPOINT=TUNED_MODEL_ENDPOINT_ID
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
${ENDPOINT_URI}/v1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${MODEL_ENDPOINT}:predict \
-d '{
"instances": [
{
"content": "Dining in New York City"
},
{
"content": "Best resorts on the east coast"
}
]
}'
curl-Befehle für nicht textembedding-gecko@001
-Modelle
Für optimierte Versionen anderer Modelle (z. B. textembedding-gecko@003
und textembedding-gecko-multilingual@001
) sind zwei zusätzliche Eingaben erforderlich: task_type
und title
.
Weitere Dokumentation zu diesen Parametern finden Sie unter curl-Befehl.
PROJECT_ID=PROJECT_ID
LOCATION=LOCATION
ENDPOINT_URI=https://${LOCATION}-aiplatform.googleapis.com
MODEL_ENDPOINT=TUNED_MODEL_ENDPOINT_ID
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
${ENDPOINT_URI}/v1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${MODEL_ENDPOINT}:predict \
-d '{
"instances": [
{
"content": "Dining in New York City",
"task_type": "DEFAULT",
"title": ""
},
{
"content": "There are many resorts to choose from on the East coast...",
"task_type": "RETRIEVAL_DOCUMENT",
"title": "East Coast Resorts"
}
]
}'
Beispielausgabe
Diese Ausgabe gilt unabhängig von der Version für die Modelle textembedding-gecko
und textembedding-gecko-multilingual
.
{
"predictions": [
[ ... ],
[ ... ],
...
],
"deployedModelId": "...",
"model": "projects/.../locations/.../models/...",
"modelDisplayName": "tuned-text-embedding-model",
"modelVersionId": "1"
}
Nächste Schritte
- Informationen zum Abrufen von Batchvorhersagen für Einbettungen finden Sie unter Vorhersagen für Batch-Texteinbettungen abrufen.
- Weitere Informationen zu multimodalen Einbettungen finden Sie unter Multimodale Einbettungen abrufen.
- Informationen zu Anwendungsfällen für Nur-Text-Einbettungen (textbasierte semantische Suche, Clustering, ausführliche Dokumentanalyse und andere Anwendungsfälle für das Abrufen von Text oder Question Answering) finden Sie unter Texteinbettungen abrufen.