Mit einem abgestimmten Suchmodell können Sie Ergebnisse von besserer Qualität erzielen als mit dem Basissuchmodell.
Die Abstimmung der Suche ist vor allem nützlich bei branchen- oder unternehmensspezifischen Anfragen, die von allgemeinen LLMs weniger gut beantwortet werden. Sie kann verwendet werden, um das Suchmodell weiter zu trainieren.
Beschränkungen
Die Suchoptimierung kann nur auf unstrukturierte Datenspeicher angewendet werden.
Trainingsdaten
Zum Abstimmen eines Suchmodells müssen Sie zuerst Trainingsdaten zusammenstellen.
Die Trainingsdaten sollten Abfragen enthalten, die Ihre Endnutzer voraussichtlich stellen werden, sowie Textausschnitte mit einer Länge von 250 bis 500 Wörtern, die relevante Informationen enthalten, die zur Beantwortung der Abfragen erforderlich sind. Eine Anfrage kann mehreren Snippets zugeordnet werden, sofern jedes Snippet Informationen enthält, die die Anfrage beantworten.
Die Trainingsdaten sollten auch Textausschnitte enthalten, die nicht mit Anfragen verknüpft sind, aber in Stil und Länge den Antworten ähneln. Diese Snippets ohne zugehörige Anfragen liefern zufällige Negativbeispiele zum Optimieren des Modells. Google empfiehlt,mindestens 10.000 dieser Snippets bereitzustellen.
Hier finden Sie einige Begriffe zur Beschreibung der Trainingsdaten, die Sie bereitstellen müssen:
Trainingsanfragen:Anfragen, die Ihre Endnutzer voraussichtlich stellen werden. Konzentrieren Sie sich auf Anfragen mit spezifischer Domain- oder Unternehmensterminologie.
Geben Sie mindestens 100 ein.
Extrahierte Segmente:Ausschnitte (in der Regel mehrere Absätze) müssen wörtlich aus den Dokumenten im Datenspeicher übernommen werden. Alle Dokumente im Datenspeicher werden zusammen als „Korpus“ bezeichnet.
Sie müssen zwei Arten von extraktiven Segmenten angeben:
Segmente, die relevante Informationen enthalten, die zum Beantworten der Trainingsanfragen erforderlich sind. Das sind Segmente, die positiv mit Anfragen übereinstimmen.
Segmente, die nicht mit Trainingsanfragen verknüpft sind. Diese Segmente werden beim Abstimmen des Modells als zufällige Negativbeispiele verwendet.
Ein oder zwei Sätze sind nicht lang genug für ein extraktives Segment. Das Segment muss genügend Kontext für das Training enthalten. Wenn beispielsweise die Frage „Wer hat Google gegründet?“ gestellt wird, ist ein kurzer Auszug wie „Larry Page“ nicht ausreichend. Beispiele für ausreichend lange Segmente finden Sie in der folgenden Tabelle.
Geben Sie mindestens ein extraktives Segment pro Anfrage und mindestens 10.000 zusätzliche extraktive Segmente an.
Relevanzbewertungen:Relevanzbewertungen sind nicht negative Ganzzahlen, die schätzen, wie relevant das extraktive Segment für die Anfrage ist. Sie geben für jedes Paar aus Anfrage und extrahiertem Segment einen Punktwert an. Ein Wert von 0 bedeutet, dass das extraktive Segment überhaupt nicht relevant für die Anfrage ist. Ein Wert größer als null weist auf eine gewisse Relevanz hin. Für eine einfache Bewertung empfiehlt Google, für alle relevanten Segmente 1 und für nicht relevante Segmente 0 zu verwenden. Wenn Sie die Relevanz einstufen möchten, können Sie Relevanzwerte von 0 bis 10 zuweisen, wobei 10 für die relevantesten Segmente und 0 für Segmente steht, die überhaupt nicht relevant sind.
Geben Sie mindestens 100 relevante Werte und optional zusätzliche nicht relevante Werte an.
Beispiele für Abfrage- und Extraktionssegmentpaare
In der folgenden Tabelle finden Sie einige Beispiele für Paare aus Anfrage und extrahiertem Segment. Diese allgemeinen Beispiele stammen aus Wikipedia. Für ein sinnvolles Fine-Tuning sollten Sie jedoch Dokumente aus proprietären Datasets bereitstellen, die Informationen enthalten, die für Ihr Unternehmen spezifisch sind und weniger leicht im Web zu finden sind.
Das letzte Paar in dieser Tabelle ist ein Beispiel für ein Paar mit dem Wert 0, bei dem die Antwort nicht relevant für die Anfrage ist.
Trainingsanfrage | Extraktives Segment | Punktzahl |
---|---|---|
Wer hat Google gegründet? | Google wurde am 4. September 1998 von den amerikanischen Informatikern Larry Page und Sergey Brin gegründet, als sie Doktoranden an der Stanford University in Kalifornien waren. Zusammen besitzen sie etwa 14% der börsennotierten Aktien und kontrollieren 56% der Stimmrechte der Aktionäre durch Super-Voting-Aktien. Das Unternehmen ging 2004 mit einem Börsengang an die Börse. 2015 wurde Google als hundertprozentige Tochtergesellschaft von Alphabet Inc. neu organisiert. Google ist die größte Tochtergesellschaft von Alphabet und eine Holdinggesellschaft für die Internet-Assets und -Beteiligungen von Alphabet. Sundar Pichai wurde am 24. Oktober 2015 zum CEO von Google ernannt. Er trat die Nachfolge von Larry Page an, der CEO von Alphabet wurde. Am 3. Dezember 2019 wurde Pichai auch CEO von Alphabet. [...] Auf der Liste der wertvollsten Marken belegt Google den zweiten Platz bei Forbes und den vierten Platz bei Interbrand. | 1 |
Wohin wird das Blut gepumpt, nachdem es die rechte Herzkammer verlassen hat? | Sauerstoffreiches Blut verlässt die Lunge über die Lungenvenen, die es zum linken Teil des Herzens zurückführen. Damit ist der Lungenkreislauf abgeschlossen. Dieses Blut gelangt dann in den linken Vorhof, der es durch die Mitralklappe in die linke Herzkammer pumpt. Von der linken Herzkammer gelangt das Blut durch die Aortenklappe in die Aorta. Das Blut wird dann über den Körperkreislauf in den Körper verteilt, bevor es wieder in den Lungenkreislauf zurückkehrt. Arterien Hauptartikel: Lungenarterie Aus der rechten Herzkammer wird Blut durch die halbmondförmige Pulmonalklappe in die linke und rechte Hauptlungenarterie (eine für jede Lunge) gepumpt, die sich in kleinere Lungenarterien verzweigen, die sich in der Lunge ausbreiten. [...] Ein Herz-Shunt ist eine unnatürliche Verbindung zwischen Teilen des Herzens, die zu einem Blutfluss führt, der die Lunge umgeht. | 1 |
Wo befindet sich die Bowling Hall of Fame? | Die World Bowling Writers ( WBW) International Bowling Hall of Fame wurde 1993 gegründet und befindet sich im International Bowling Museum and Hall of Fame auf dem International Bowling Campus in Arlington, Texas. Geschichte Das International Bowling Museum and Hall of Fame befand sich bis zum 8. November 2008 in 11 Stadium Plaza, St. Louis, Missouri, USA, und teilte sich das Gebäude mit dem St. Louis Cardinals Hall of Fame Museum. Es zog nach Arlington um und wurde Anfang 2010 wiedereröffnet. 2012 wurde die WBW mit der International Bowling Media Association zusammengeführt. Nach der Fusion wurden die Mitglieder der WBW Hall of Fame in die IBMA Luby Hall of Fame aufgenommen.[...] Die Männer und Frauen, die die meisten Stimmen erhalten, werden gewählt. | 1 |
Warum ist der Himmel blau? | Ein „Hello, World!“-Programm ist in der Regel ein einfaches Computerprogramm, das eine Nachricht wie „Hello, World!“ auf dem Bildschirm (oft der Konsole) ausgibt oder anzeigt und dabei alle Nutzereingaben ignoriert. Ein kleines Stück Code in den meisten universellen Programmiersprachen, das verwendet wird, um die grundlegende Syntax einer Sprache zu veranschaulichen. Ein „Hallo Welt“-Programm ist oft das erste Programm, das ein Lernender einer neuen Programmiersprache schreibt. Es kann aber auch verwendet werden, um zu prüfen, ob die Computersoftware, die zum Kompilieren oder Ausführen von Quellcode vorgesehen ist, korrekt installiert ist und ob der Bediener weiß, wie sie verwendet wird. […] Der C-Sprachversion ging Kernighans eigenes Tutorial von 1972 voraus: „A Tutorial Introduction to the Language B“. Dort findet sich die erste bekannte Version des Programms in einem Beispiel zur Veranschaulichung externer Variablen. | 0 |
Tests
Nach dem Training wird die optimierte Suche getestet, um festzustellen, ob sich die Ergebnisse durch die Optimierung verbessert haben. Sie können die Abfragen, die getestet werden sollen, explizit angeben. Wenn Sie keine Testanfragen angeben, verwendet Vertex AI Search 20% der Trainingsanfragen als Testanfragen.
Trainingsdateien
Die Trainingsdaten müssen in drei (optional vier) bestimmten Dateien hochgeladen werden:
Eine Korpusdatei mit den extraktiven Segmenten
Eine Abfragedatei, die nur die Abfragen enthält
Eine Datei mit Trainingslabels, in der Abfragen mit Segmenten verknüpft sind und die Relevanzwerte enthält
Optional: Eine Datei mit Testlabels, die den Dateien mit Trainingslabels ähnelt, aber zum Bewerten des optimierten Modells anstelle des Trainings verwendet wird
Die drei Trainingsdateien (Korpusdatei, Abfragedatei und Datei mit Trainingslabels) und die optionale Datei mit Testlabels müssen sich in Cloud Storage befinden. Die Pfade der Dateien werden durch Felder im trainCustomMethod
-Aufruf definiert.
Korpusdatei
Die Korpusdatei enthält extraktive Segmente: Segmente, die Informationen zur Beantwortung der Anfragen in der Anfragedatei enthalten, und viele zusätzliche Segmente, die beim Optimieren des Modells als zufällige Negativbeispiele verwendet werden. Sie sollten mindestens 100 Segmente mit Antworten auf Anfragen haben. Anfragen können von mehreren Segmenten beantwortet werden. Sie sollten auch mindestens 10.000 zufällige Segmente haben.
Wenn die Dokumente in Ihrem Datenspeicher weniger als 500 Wörter enthalten, können Sie ganze Dokumente als Segmente verwenden. Andernfalls erstellen Sie programmatisch zufällige Segmente mit 250 bis 500 Wörtern aus den Dokumenten in Ihrem Datenspeicher und fügen Sie sie der Korpusdatei hinzu.
Die Korpusdatei ist eine JSONL-Datei (JSON Lines), in der jede Zeile die Felder _id
und text
mit Stringwerten enthält.
Beispiel:
{"_id": "doc1", "text": "Google was founded on September 4, 1998, by American computer scientists Larry Page and Sergey Brin while they were PhD students at Stanford University in California. Together they own about 14% of its publicly listed shares and control 56% of its stockholder voting power through super-voting stock. The company went public via an initial public offering (IPO) in 2004. In 2015, Google was reorganized as a wholly owned subsidiary of Alphabet Inc. Google is Alphabet's largest subsidiary and is a holding company for Alphabet's internet properties and interests. Sundar Pichai was appointed CEO of Google on October 24, 2015, replacing Larry Page, who became the CEO of Alphabet. On December 3, 2019, Pichai also became the CEO of Alphabet. [...] On the list of most valuable brands, Google is 105 ranked second by Forbes and fourth by Interbrand."}
{"_id": "doc2", "text": "Oxygenated blood leaves the lungs through pulmonary veins, which return it to the left part of the heart, completing the pulmonary cycle. This blood then enters the left atrium, which pumps it through the mitral valve into the left ventricle. From the left ventricle, the blood passes through the aortic valve to the aorta. The blood is then distributed to the body through the systemic circulation before returning again to the pulmonary circulation. Arteries Main article: Pulmonary artery From the right ventricle, blood is pumped through the semilunar pulmonary valve into the left and right main pulmonary artery (one for each lung), which branch into smaller pulmonary arteries that spread throughout the lungs. [...] Cardiac shunt is an unnatural connection between parts of the heart that leads to blood flow that bypasses the lungs."}
{"_id": "doc3", "text": "The World Bowling Writers ( WBW ) International Bowling Hall of Fame was established in 1993 and is located in the International Bowling Museum and Hall of Fame , on the International Bowling Campus in Arlington , Texas. History The International Bowling Museum and Hall of Fame was located at 11 Stadium Plaza, St. Louis, Missouri, USA, and shared the same building with the St. Louis Cardinals Hall of Fame Museum, until November 8, 2008. It moved to Arlington and reopened in early 2010. In 2012, the WBW was merged with the International Bowling Media Association. After the merger, the WBW Hall of Fame inductees became part of the IBMA Luby Hall of Fame. officers of the World Bowling Writers, which formed the Hall's Board.][...] The man and woman who receive the most votes are elected."}
{"_id": "doc4", "text": "A \"Hello, World!\" program is generally a simple computer program which outputs (or displays) to the screen (often the console) a message similar to "Hello, World!" while ignoring any user input. A small piece of code in most general-purpose programming languages, this program is used to illustrate a language's basic syntax. A "Hello, World!" program is often the first written by a student of a new programming language, but such a program can also be used as a check to ensure that the computer software intended to compile or run source code is correctly installed, and that its operator understands how to use it. [...] The C-language version was preceded by Kernighan's own 1972 A Tutorial Introduction to the Language B, where the first known version of the program is found in an example used to illustrate external variables."}
Die Datei darf maximal 500.000 Zeilen umfassen.
Abfragedatei
Die Abfragedatei enthält die Beispielabfragen, die zum Optimieren des Modells verwendet werden. Jeder Anfrage sollten ein oder mehrere entsprechende extraktive Segmente in der Korpusdatei zugeordnet sein. Sie sollten mindestens 100 Anfragen mit positiver Übereinstimmung angeben. Sie können auch nicht relevante Anfragen angeben. Das sind Anfragen, die extraktiven Segmenten mit einem Relevanzwert von null entsprechen.
Die Abfragedatei hat das JSONL-Format und enthält dieselben Felder wie die Korpusdatei.
Beispiel:
{"_id": "query1", "text": "who founded Google?"}
{"_id": "query2", "text": "where is blood pumped after it leaves the right ventricle?"}
{"_id": "query3", "text": "where is the bowling hall of fame located?"}
{"_id": "query4", "text": "why is the sky blue?"}
Die maximale Anzahl der zulässigen Anfragen in der Datei beträgt 40.000.
Trainingslabels
In der Datei mit Trainingslabels werden die Anfragen mit den extraktiven Segmenten verknüpft und jedes Anfrage- und Segmentpaar wird bewertet.
Wenn die Datei mit den Testlabels nicht vorhanden ist, werden 20% der Anfragen in der Datei mit den Trainingslabels reserviert, um das optimierte Modell nach dem Training zu bewerten.
Die Datei enthält die ID einer Anfrage und die ID des entsprechenden (oder nicht entsprechenden) extraktiven Segments sowie einen Wert für die Relevanz des Segments für die Anfrage.
Pro Abfrage muss mindestens eine Zeile vorhanden sein. Wenn eine Abfrage durch zwei Segmente beantwortet wird, gibt es zwei Zeilen für diese Abfrage. Score
ist ein nicht negativer Ganzzahlwert. Jeder Wert über null bedeutet, dass das Dokument mit der Anfrage in Verbindung steht. Je höher die Zahl, desto relevanter ist das Ergebnis. Wenn der Wert weggelassen wird, ist der Standardwert 1.
Die Datei mit den Trainingslabels ist eine TSV-Datei (tabulatorgetrennte Werte) mit einer Kopfzeile.
Die Datei muss die Spalten query-id
, corpus-id
und score
enthalten. query-id
ist ein String, der mit dem _id
-Schlüssel aus der Abfragedatei übereinstimmt, und corpus-id
ist ein String, der mit dem _id
in der Korpusdatei übereinstimmt.
Beispiel:
query-id corpus-id score
query1 doc1 1
query2 doc2 1
query3 doc3 1
query3 doc9 1
query4 doc4 0
Die Datei mit den Trainingslabels muss mindestens 100 eindeutige Abfrage-IDs enthalten. Die Anzahl der Abfrage-IDs in der Datei mit Trainingslabels in Kombination mit der Anzahl der Abfragen in der Datei mit Testlabels muss kleiner als 500.000 sein.
Test labels
Wie die Datei mit den Trainingslabels enthält diese optionale Datei die IDs der Abfrage und des extraktiven Segments sowie Relevanzwerte. Sie enthält weniger und andere Anfragen als die Datei mit den Trainingslabels. Falls vorhanden, werden die Paare aus Anfragen und extraktiven Segmenten in der Datei verwendet, um das Tuning zu bewerten. Wenn die Datei mit den Testlabels nicht vorhanden ist, werden Abfrage- und extraktive Segmentpaare aus der Datei mit den Trainingslabels für die Bewertung verwendet.
Diese Datei hat dasselbe Format wie die Datei mit den Trainingslabels.
Beispiel:
query-id corpus-id score
query200 doc200 1
query201 doc201 1
query202 doc202 1
Die Datei mit Testlabels ist zwar optional, muss aber mindestens drei eindeutige Abfrage-IDs enthalten, wenn Sie sie bereitstellen.
Hinweise
Aktivieren Sie die Features der Enterprise-Version für die App.
Suche abstimmen
So stimmen Sie ein Suchmodell mit Ihren eigenen Trainingsdaten ab:
Console
So optimieren Sie ein Modell über die Google Cloud Console:
Bereiten Sie Ihre Trainingsdaten und optional Ihre Testdatendateien vor. Verwenden Sie die in Trainingsdateien beschriebenen Formate.
Laden Sie die Dateien in Cloud Storage hoch.
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.
Klicken Sie auf der Seite Apps auf den Namen der App, für die Sie ein trainiertes Modell benötigen.
Klicken Sie im Navigationsmenü auf Konfigurationen.
Klicken Sie auf den Tab Feinabstimmung.
Klicken Sie auf Das Basismodell abstimmen.
Geben Sie die Dateien für Korpus, Anfrage, Training und optional für Tests an, die Sie in den vorherigen Schritten 1 und 2 vorbereitet haben.
Klicken Sie auf Abstimmung starten.
Aktualisieren Sie die Seite, um den Status in der Tabelle Letzte Optimierungsaktivitäten auf dem Tab Optimierung zu sehen.
REST
So verwenden Sie die Methode trainCustomModel
zum Optimieren eines Datenspeichers:
Bereiten Sie Ihre Trainingsdaten- und optionalen Testdatendateien vor. Verwenden Sie die in Trainingsdateien beschriebenen Formate.
Legen Sie die Dateien in einen Cloud Storage-Bucket.
Laden Sie die Dateien aus dem Cloud Storage-Bucket in Vertex AI Search hoch, indem Sie den folgenden curl-Befehl ausführen:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID:trainCustomModel" \ -d '{ "gcsTrainingInput": { "corpusDataPath": "CORPUS_JSONL_GCS_PATH", "queryDataPath": "QUERY_JSONL_GCS_PATH", "trainDataPath": "TRAIN_TSV_GCS_PATH", "testDataPath": "TEST_TSV_GCS_PATH" }, "modelType": "search-tuning" }'
Ersetzen Sie Folgendes:
PROJECT_ID
: die ID Ihres Google Cloud Projekts.DATA_STORE_ID
: Die ID des Datenspeichers, den Sie optimieren möchten.CORPUS_JSONL_GCS_PATH
: Der Pfad zur JSONL-Datei des Korpus in Cloud Storage, z. B.gs://my-bucket/corpus.jsonl
.QUERY_JSONL_GCS_PATH
: der Pfad zur JSONL-Datei mit Anfragen in Cloud Storage, z. B.gs://my-bucket/query.jsonl
.TRAIN_TSV_GCS_PATH
: Der Pfad zur TSV-Datei mit Trainingslabels in Cloud Storage, z. B.gs://my-bucket/train.tsv
.TEST_TSV_GCS_PATH
: Ein optionales Feld, in dem Sie den Cloud Storage-Pfad für Ihre TSV-Datei mit Testlabels angeben können, z. B.gs://my-bucket/test.tsv
. Wenn Sie keine Datei mit Testlabels haben, entfernen Sie das FeldtestDataPath
oder lassen Sie es leer.
Allgemeine Informationen zu dieser Methode finden Sie unter
trainCustomModel
.Das Optimieren beginnt automatisch, nachdem die Datendateien hochgeladen wurden.
Klicken Sie hier, um ein Beispiel für einen cURL-Befehl und eine Antwort zu sehen.
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" "https://discoveryengine.googleapis.com/v1/projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321:trainCustomModel" -d '{ "dataStore": "projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321", "gcsTrainingInput": { "corpusDataPath": "gs://my-bucket/corpus.jsonl", "queryDataPath": "gs://my-bucket/query.jsonl", "trainDataPath": "gs://my-bucket/train.tsv" }, "modelType": "search-tuning" }
{ "name": "projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321/operations/train-custom-model-6071430366161939774", "metadata": { "@type": "type.googleapis.com/google.cloud.discoveryengine.v1.TrainCustomModelMetadata" }, "response": { "@type": "type.googleapis.com/google.cloud.discoveryengine.v1.TrainCustomModelResponse", "modelStatus": "in-progress" } }
Notieren Sie sich den
name
-Wert, der von der MethodetrainCustomModel
zurückgegeben wird, und folgen Sie der Anleitung unter Details zu einem Vorgang mit langer Ausführungszeit abrufen, um zu sehen, wann der Vorgang zum Optimieren der Suche abgeschlossen ist.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur AI Applications Python API.
Richten Sie zur Authentifizierung bei AI Applications Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Abgestimmte Suche testen und für einzelne Suchanfragen verwenden
Nach Abschluss der Abstimmung können Sie das Modell testen, indem Sie die Ergebnisse von Anfragen mit dem abgestimmten Modell mit den Ergebnissen derselben Anfragen mit dem Basismodell vergleichen.
Console
So rufen Sie in der Google Cloud Console eine Vorschau des Verhaltens eines optimierten Modells auf:
Rufen Sie den Tab Feinabstimmung auf:
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.
Klicken Sie auf den Namen der App, die Sie in der Vorschau ansehen möchten.
Klicken Sie auf Configurations (Konfigurationen).
Klicken Sie auf den Tab Feinabstimmung.
Klicken Sie auf Abgestimmtes Modell und verwenden Sie den Vorschau-Bereich auf der rechten Seite, um Anfragen zu stellen, für die das abgestimmte Modell verwendet wird.
Klicken Sie auf Basismodell und verwenden Sie den Vorschau-Bereich auf der rechten Seite, um Abfragen mit dem ursprünglichen Modell zu stellen.
Vergleichen Sie die Qualität der Ergebnisse.
REST
Um die Auswirkungen der Optimierung zu bewerten, können Sie Abfragen ausführen, bei denen das Feld enableSearchAdaptor
auf true
und dann auf false
festgelegt ist, und die Ergebnisse vergleichen. Wenn Sie das Feld enableSearchAdaptor
auf true
setzen, wird für diese Anfrage die optimierte Version der Suche verwendet.
So erstellen Sie Suchanfragen, für die das abgestimmte Modell verwendet wird:
Setzen Sie im Aufruf der Abfragemethode das Feld
enableSearchAdaptor
im FeldcustomFineTuningSpec
auftrue
.Beispiel:
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search:search" \ -d '{ "query": "QUERY", "customFineTuningSpec": { "enableSearchAdaptor": true } }'
Ersetzen Sie Folgendes:
PROJECT_ID
: die ID Ihres Google Cloud Projekts.APP_ID
: die ID der App, die Sie abfragen möchten.
Ausführliche Informationen zu Suchanfragen finden Sie unter Suchergebnisse abrufen und in der servingConfigs.search
-Methode.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur AI Applications Python API.
Richten Sie zur Authentifizierung bei AI Applications Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Abgestimmte Suche aktivieren
Nachdem Sie die optimierte Suche getestet und entschieden haben, dass Sie sie für alle Suchanfragen verwenden möchten, können Sie sie zum Standardsuchmodell machen.
Console
So legen Sie das abgestimmte Modell als Standardmodell fest und wenden es auf die Hauptseite „Vorschau“, das Widget und API-Aufrufe an:
Rufen Sie den Tab Feinabstimmung auf:
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.
Klicken Sie auf den Namen der App.
Klicken Sie auf Configurations (Konfigurationen).
Klicken Sie auf den Tab Feinabstimmung.
Klicken Sie auf Abgestimmtes Modell.
Klicken Sie auf Veröffentlichen.
REST
Wenn Sie das abgestimmte Modell als Standardmodell festlegen, müssen Sie das Feld customFineTuningSpec
in der Suchanfrage nicht wie im vorherigen Verfahren angeben.
So verwenden Sie die optimierte Version der Suche standardmäßig für alle Suchanfragen:
Führen Sie den folgenden curl-Befehl aus, um die optimierte Suche als Standardmodell festzulegen:
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search?updateMask=customFineTuningSpec.enableSearchAdaptor" \ -d '{ "customFineTuningSpec": { "enableSearchAdaptor": true } }'
Allgemeine Informationen zu dieser Methode finden Sie unter
servingConfigs.patch
.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur AI Applications Python API.
Richten Sie zur Authentifizierung bei AI Applications Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Abgestimmte Suche deaktivieren
Wenn Sie die optimierte Version der Suche nicht mehr verwenden möchten, weil die Ergebnisse beispielsweise nicht besser oder sogar schlechter als vor der Optimierung sind, können Sie die optimierte Suche deaktivieren.
Console
So stellen Sie das Basismodell als Standardmodell wieder her:
Rufen Sie den Tab Feinabstimmung auf:
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.
Klicken Sie auf den Namen der App.
Klicken Sie auf Configurations (Konfigurationen).
Klicken Sie auf den Tab Feinabstimmung.
Klicken Sie auf Basismodell.
Klicken Sie auf Veröffentlichen.
REST
Wenn Sie das abgestimmte Modell nicht mehr verwenden möchten, führen Sie einen ähnlichen curl-Aufruf wie oben aus, setzen Sie enableSearchAdaptor
aber auf false
:
Führen Sie den folgenden curl-Befehl aus:
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search?updateMask=customFineTuningSpec.enableSearchAdaptor" \ -d '{ "customFineTuningSpec": { "enableSearchAdaptor": false } }'
Allgemeine Informationen zu dieser Methode finden Sie unter
servingConfigs.patch
.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur AI Applications Python API.
Richten Sie zur Authentifizierung bei AI Applications Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Nächste Schritte
- Um die Auswirkungen der Suchoptimierung auf die Suchqualität zu verstehen, müssen Sie die Suchqualität bewerten. Weitere Informationen finden Sie unter Suchqualität bewerten.