Un modèle de recherche réglé peut vous fournir des résultats de meilleure qualité que le modèle de recherche de base.
Le réglage de la recherche est particulièrement utile pour les requêtes propres à un secteur ou à une entreprise, qui sont moins bien traitées par les LLM généraux. Il peut être utilisé pour entraîner davantage le modèle de recherche.
Limites
L'optimisation de la recherche ne peut être appliquée qu'aux data stores non structurés.
À propos des données d'entraînement
Pour affiner un modèle de recherche, vous devez d'abord rassembler des données d'entraînement.
Les données d'entraînement doivent contenir les requêtes que vous pensez que vos utilisateurs finaux poseront, ainsi que des extraits de texte de 250 à 500 mots contenant les informations pertinentes nécessaires pour répondre à ces requêtes. Une requête peut être associée à plusieurs extraits, à condition que chacun d'eux contienne des informations qui répondent à la requête.
Les données d'entraînement doivent également contenir des extraits de texte qui ne sont pas associés à des requêtes, mais qui sont par ailleurs similaires aux réponses en termes de style et de longueur. Ces extraits sans requêtes associées fournissent des exemples négatifs aléatoires pour ajuster le modèle. Google vous recommande de fournir au moins 10 000 de ces extraits.
Voici quelques termes pour décrire les données d'entraînement que vous devrez fournir :
Requêtes d'entraînement : requêtes que vos utilisateurs finaux sont susceptibles de poser. Veillez à vous concentrer sur les requêtes contenant des termes spécifiques à un domaine ou à une entreprise.
Veuillez fournir au moins 100.
Segments extractifs : les extraits (généralement plusieurs paragraphes) doivent être tirés mot pour mot des documents du data store. L'ensemble des documents du data store est appelé "corpus".
Vous devez fournir deux types de segments extractifs :
Segments contenant les informations pertinentes nécessaires pour répondre aux requêtes d'entraînement. Il s'agit de segments qui correspondent positivement aux requêtes.
Segments qui ne sont associés à aucune requête d'entraînement. Ces segments sont utilisés comme négatifs aléatoires lors de l'ajustement du modèle.
Une ou deux phrases ne sont pas suffisamment longues pour constituer un segment extractif. Le segment doit contenir suffisamment de contexte pour l'entraînement. Par exemple, en réponse à une requête telle que "qui a fondé Google", un court extrait tel que "Larry Page" est insuffisant. Pour obtenir des exemples de segments suffisamment longs, consultez le tableau ci-dessous.
Fournissez au moins un segment extractif par requête et au moins 10 000 segments extractifs supplémentaires.
Scores de pertinence : il s'agit d'entiers non négatifs qui estiment la pertinence du segment extractif par rapport à la requête. Vous devez fournir une valeur de score pour chaque paire requête/segment extractif. Un score de 0 signifie que le segment d'extraction n'est pas du tout pertinent par rapport à la requête. Un score supérieur à zéro indique une certaine pertinence. Pour une notation simple, Google recommande d'attribuer la valeur 1 à tous les segments pertinents et la valeur 0 à ceux qui ne le sont pas. Si vous souhaitez classer la pertinence, vous pouvez attribuer des scores de pertinence de 0 à 10 (par exemple), 10 pour les segments les plus pertinents et 0 pour les segments qui ne le sont pas du tout.
Fournissez au moins 100 scores pertinents et, éventuellement, des scores non pertinents supplémentaires.
Exemples de paires requête/segment extractif
Le tableau suivant fournit quelques exemples de paires requête/segment extractif. Ces exemples généraux ont été extraits de Wikipédia. Toutefois, pour un réglage utile, vous devez fournir des documents provenant d'ensembles de données propriétaires contenant des informations spécifiques à votre entreprise et moins facilement trouvables sur le Web.
La dernière paire de ce tableau est un exemple de paire avec un score de zéro, où la réponse n'est pas pertinente par rapport à la requête.
Requête d'entraînement | Segment extractif | Score |
---|---|---|
qui a fondé Google ? | Google a été fondé le 4 septembre 1998 par les informaticiens américains Larry Page et Sergey Brin, alors qu'ils étaient doctorants à l'université de Stanford en Californie.Ensemble, ils détiennent environ 14 % de ses actions cotées en bourse et contrôlent 56 % des droits de vote des actionnaires grâce à des actions à droit de vote multiple. L'entreprise a été introduite en bourse en 2004. En 2015, Google a été réorganisé en tant que filiale à part entière d'Alphabet Inc. Google est la plus grande filiale d'Alphabet et est une société holding pour les propriétés et les intérêts d'Alphabet sur Internet. Sundar Pichai a été nommé PDG de Google le 24 octobre 2015, en remplacement de Larry Page, qui est devenu PDG d'Alphabet. Le 3 décembre 2019, Pichai est également devenu le PDG d'Alphabet. [...] Dans la liste des marques les plus précieuses, Google est classé deuxième par Forbes et quatrième par Interbrand. | 1 |
Où le sang est-il pompé après avoir quitté le ventricule droit ? | Le sang oxygéné quitte les poumons par les veines pulmonaires, qui le renvoient vers la partie gauche du cœur, ce qui termine le cycle pulmonaire. Ce sang pénètre ensuite dans l'oreillette gauche, qui le pompe à travers la valve mitrale dans le ventricule gauche. Du ventricule gauche, le sang passe par la valve aortique jusqu'à l'aorte. Le sang est ensuite distribué dans le corps par la circulation systémique avant de revenir à la circulation pulmonaire. Artères Article principal : Artère pulmonaire À partir du ventricule droit, le sang est pompé à travers la valvule pulmonaire semi-lunaire dans l'artère pulmonaire principale gauche et droite (une pour chaque poumon), qui se ramifient en artères pulmonaires plus petites qui se propagent dans les poumons. [...] Un shunt cardiaque est une connexion anormale entre des parties du cœur qui entraîne un flux sanguin contournant les poumons. | 1 |
Où se trouve le Bowling Hall of Fame ? | Le World Bowling Writers ( WBW) International Bowling Hall of Fame a été créé en 1993 et se trouve à l'International Bowling Museum and Hall of Fame , sur l'International Bowling Campus à Arlington, au Texas. Historique Le International Bowling Museum and Hall of Fame était situé au 11 Stadium Plaza, St. Louis, Missouri, États-Unis, et partageait le même bâtiment que le St. Louis Cardinals Hall of Fame Museum, jusqu'au 8 novembre 2008. Il a été transféré à Arlington et a rouvert ses portes début 2010. En 2012, la WBW a fusionné avec l'International Bowling Media Association. Après la fusion, les membres du WBW Hall of Fame ont rejoint l'IBMA Luby Hall of Fame. officiels de la World Bowling Writers, qui ont formé le conseil d'administration du Hall of Fame.][...] L'homme et la femme qui reçoivent le plus de votes sont élus. | 1 |
pourquoi le ciel est bleu | Un programme "Hello, World!" est généralement un programme informatique simple qui affiche à l'écran (souvent la console) un message semblable à "Hello, World!" tout en ignorant toute saisie de l'utilisateur. Il s'agit d'un petit extrait de code dans la plupart des langages de programmation à usage général. Il est utilisé pour illustrer la syntaxe de base d'un langage. Un programme "Hello, World!" est souvent le premier écrit par un élève qui apprend un nouveau langage de programmation. Il peut également servir à vérifier que le logiciel informatique destiné à compiler ou à exécuter le code source est correctement installé et que son opérateur sait l'utiliser. [...] La version en langage C a été précédée par le tutoriel de Kernighan de 1972, "A Tutorial Introduction to the Language B", où la première version connue du programme se trouve dans un exemple utilisé pour illustrer les variables externes. | 0 |
À propos des tests
Une fois l'entraînement terminé, la recherche optimisée est testée pour déterminer si l'optimisation a amélioré les résultats. Vous pouvez fournir explicitement les requêtes que vous souhaitez tester. Si vous ne fournissez pas de requêtes de test, Vertex AI Search utilise 20 % des requêtes d'entraînement comme requêtes de test.
Fichiers d'entraînement
Les données d'entraînement doivent être importées dans trois (ou quatre) fichiers spécifiques :
Un fichier de corpus contenant les segments extractifs
Un fichier de requête contenant uniquement les requêtes
Un fichier d'étiquettes d'entraînement qui associe les requêtes aux segments et contient les scores de pertinence
Facultatif : un fichier d'étiquettes de test semblable aux fichiers d'étiquettes d'entraînement, mais utilisé pour évaluer le modèle ajusté au lieu de l'entraîner
Les trois fichiers d'entraînement (fichier corpus, fichier de requête et fichier d'étiquettes d'entraînement) et le fichier d'étiquettes de test (facultatif) doivent se trouver dans Cloud Storage. Les chemins d'accès aux fichiers sont définis par des champs dans l'appel trainCustomMethod
.
Fichier de corpus
Le fichier de corpus contient des segments extractifs : des segments contenant des informations permettant de répondre aux requêtes du fichier de requêtes et de nombreux segments supplémentaires à utiliser comme négatifs aléatoires lors de l'ajustement du modèle. Vous devez disposer d'au moins 100 segments contenant des réponses aux requêtes. Plusieurs segments peuvent répondre à une même requête. Vous devez également disposer d'au moins 10 000 segments aléatoires.
Si les documents de votre data store contiennent moins de 500 mots, vous pouvez les utiliser entiers comme segments. Sinon, créez de manière programmatique des segments aléatoires de 250 à 500 mots à partir des documents de votre data store et ajoutez-les au fichier corpus.
Le fichier de corpus est un fichier JSONL (JSON Lines) dans lequel chaque ligne contient les champs _id
et text
avec des valeurs de chaîne.
Exemple :
{"_id": "doc1", "text": "Google was founded on September 4, 1998, by American computer scientists Larry Page and Sergey Brin while they were PhD students at Stanford University in California. Together they own about 14% of its publicly listed shares and control 56% of its stockholder voting power through super-voting stock. The company went public via an initial public offering (IPO) in 2004. In 2015, Google was reorganized as a wholly owned subsidiary of Alphabet Inc. Google is Alphabet's largest subsidiary and is a holding company for Alphabet's internet properties and interests. Sundar Pichai was appointed CEO of Google on October 24, 2015, replacing Larry Page, who became the CEO of Alphabet. On December 3, 2019, Pichai also became the CEO of Alphabet. [...] On the list of most valuable brands, Google is 105 ranked second by Forbes and fourth by Interbrand."}
{"_id": "doc2", "text": "Oxygenated blood leaves the lungs through pulmonary veins, which return it to the left part of the heart, completing the pulmonary cycle. This blood then enters the left atrium, which pumps it through the mitral valve into the left ventricle. From the left ventricle, the blood passes through the aortic valve to the aorta. The blood is then distributed to the body through the systemic circulation before returning again to the pulmonary circulation. Arteries Main article: Pulmonary artery From the right ventricle, blood is pumped through the semilunar pulmonary valve into the left and right main pulmonary artery (one for each lung), which branch into smaller pulmonary arteries that spread throughout the lungs. [...] Cardiac shunt is an unnatural connection between parts of the heart that leads to blood flow that bypasses the lungs."}
{"_id": "doc3", "text": "The World Bowling Writers ( WBW ) International Bowling Hall of Fame was established in 1993 and is located in the International Bowling Museum and Hall of Fame , on the International Bowling Campus in Arlington , Texas. History The International Bowling Museum and Hall of Fame was located at 11 Stadium Plaza, St. Louis, Missouri, USA, and shared the same building with the St. Louis Cardinals Hall of Fame Museum, until November 8, 2008. It moved to Arlington and reopened in early 2010. In 2012, the WBW was merged with the International Bowling Media Association. After the merger, the WBW Hall of Fame inductees became part of the IBMA Luby Hall of Fame. officers of the World Bowling Writers, which formed the Hall's Board.][...] The man and woman who receive the most votes are elected."}
{"_id": "doc4", "text": "A \"Hello, World!\" program is generally a simple computer program which outputs (or displays) to the screen (often the console) a message similar to "Hello, World!" while ignoring any user input. A small piece of code in most general-purpose programming languages, this program is used to illustrate a language's basic syntax. A "Hello, World!" program is often the first written by a student of a new programming language, but such a program can also be used as a check to ensure that the computer software intended to compile or run source code is correctly installed, and that its operator understands how to use it. [...] The C-language version was preceded by Kernighan's own 1972 A Tutorial Introduction to the Language B, where the first known version of the program is found in an example used to illustrate external variables."}
La taille maximale du fichier est de 500 000 lignes.
Fichier de requête
Le fichier de requête contient les exemples de requêtes qui seront utilisés pour ajuster le modèle. Chaque requête doit comporter un ou plusieurs segments extractifs correspondants dans le fichier du corpus. Vous devez fournir au moins 100 requêtes avec correspondance positive. Vous pouvez également fournir des requêtes non pertinentes, c'est-à-dire des requêtes qui correspondent à des segments extractifs avec un score de pertinence nul.
Le fichier de requête est au format JSONL et contient les mêmes champs que le fichier de corpus.
Exemple :
{"_id": "query1", "text": "who founded Google?"}
{"_id": "query2", "text": "where is blood pumped after it leaves the right ventricle?"}
{"_id": "query3", "text": "where is the bowling hall of fame located?"}
{"_id": "query4", "text": "why is the sky blue?"}
Le nombre maximal de requêtes autorisées dans le fichier est de 40 000.
Libellés d'entraînement
Le fichier d'étiquettes d'entraînement associe les requêtes aux segments extractifs et attribue un score à chaque paire requête/segment.
Si le fichier d'étiquettes de test n'est pas présent, 20 % des requêtes du fichier d'étiquettes d'entraînement sont réservées à l'évaluation du modèle ajusté après l'entraînement.
Le fichier contient l'ID d'une requête, l'ID du segment extractif correspondant (ou non) et un score indiquant la pertinence du segment par rapport à la requête.
Il doit y avoir au moins une ligne par requête. Si une requête est traitée par deux segments, il y aura deux lignes pour cette requête. Score
est une valeur entière non négative. Tout score supérieur à zéro indique que le document est lié à la requête. Plus le nombre est élevé, plus le niveau de pertinence est élevé. Si le score est omis, la valeur par défaut est 1.
Le fichier d'étiquettes d'entraînement est un fichier TSV (valeurs séparées par des tabulations) avec un en-tête.
Le fichier doit contenir les colonnes query-id
, corpus-id
et score
. query-id
est une chaîne correspondant à la clé _id
du fichier de requête, et corpus-id
est une chaîne correspondant à _id
dans le fichier de corpus.
Exemple :
query-id corpus-id score
query1 doc1 1
query2 doc2 1
query3 doc3 1
query3 doc9 1
query4 doc4 0
Le fichier d'étiquettes d'entraînement doit inclure au moins 100 ID de requête uniques. Le nombre d'ID de requête dans le fichier d'étiquettes d'entraînement combiné au nombre de requêtes dans le fichier d'étiquettes de test doit être inférieur à 500 000.
Libellés de test
Comme le fichier de libellés d'entraînement, ce fichier facultatif contient les ID de la requête et du segment extractif, ainsi que les scores de pertinence. Il contient moins de requêtes et des requêtes différentes de celles du fichier de libellés d'entraînement. Si elles sont présentes, les paires requête/segment extractif du fichier sont utilisées pour évaluer l'ajustement. Si le fichier d'étiquettes de test n'est pas présent, les paires requête/segment extractif du fichier d'étiquettes d'entraînement sont utilisées pour l'évaluation.
Ce fichier a le même format que le fichier des libellés d'entraînement.
Exemple :
query-id corpus-id score
query200 doc200 1
query201 doc201 1
query202 doc202 1
Bien que le fichier d'étiquettes de test soit facultatif, si vous le fournissez, il doit contenir au moins trois ID de requête uniques.
Avant de commencer
Activez les fonctionnalités de l'édition Enterprise pour l'application.
Affiner la recherche
Pour ajuster un modèle de recherche avec vos propres données d'entraînement, procédez comme suit.
Console
Pour utiliser la console Google Cloud afin de régler un modèle, procédez comme suit :
Préparez vos fichiers de données d'entraînement et, éventuellement, de données de test. Utilisez les formats décrits dans Fichiers d'entraînement.
Importez les fichiers dans Cloud Storage.
Dans la console Google Cloud , accédez à la page AI Applications.
Sur la page Applications, cliquez sur le nom de l'application pour laquelle vous souhaitez obtenir un modèle entraîné.
Dans le menu de navigation, cliquez sur Configurations.
Cliquez sur l'onglet Réglages.
Cliquez sur Régler le modèle de base.
Spécifiez les fichiers de corpus, de requête, d'entraînement et, éventuellement, de test que vous avez préparés lors des étapes 1 et 2 précédentes.
Cliquez sur Commencer le réglage.
Actualisez la page pour voir l'état dans le tableau Activité d'optimisation récente de l'onglet Optimisation.
REST
Pour utiliser la méthode trainCustomModel
afin d'ajuster un data store, procédez comme suit :
Préparez vos fichiers de données d'entraînement (et éventuellement de données de test). Utilisez les formats décrits dans Fichiers d'entraînement.
Placez les fichiers dans un bucket Cloud Storage.
Importez les fichiers du bucket Cloud Storage dans Vertex AI Search en exécutant la commande curl suivante :
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID:trainCustomModel" \ -d '{ "gcsTrainingInput": { "corpusDataPath": "CORPUS_JSONL_GCS_PATH", "queryDataPath": "QUERY_JSONL_GCS_PATH", "trainDataPath": "TRAIN_TSV_GCS_PATH", "testDataPath": "TEST_TSV_GCS_PATH" }, "modelType": "search-tuning" }'
Remplacez les éléments suivants :
PROJECT_ID
: ID de votre projet Google Cloud .DATA_STORE_ID
: ID du data store que vous souhaitez ajuster.CORPUS_JSONL_GCS_PATH
: chemin d'accès au fichier JSONL du corpus dans Cloud Storage (par exemple,gs://my-bucket/corpus.jsonl
).QUERY_JSONL_GCS_PATH
: chemin d'accès au fichier JSONL de requête dans Cloud Storage (par exemple,gs://my-bucket/query.jsonl
).TRAIN_TSV_GCS_PATH
: chemin d'accès au fichier TSV des libellés d'entraînement dans Cloud Storage, par exemplegs://my-bucket/train.tsv
.TEST_TSV_GCS_PATH
: champ facultatif permettant de spécifier le chemin d'accès Cloud Storage à votre fichier TSV des libellés de test (par exemple,gs://my-bucket/test.tsv
). Si vous n'avez pas de fichier de libellés de test, supprimez le champtestDataPath
ou laissez-le vide.
Pour obtenir des informations générales sur cette méthode, consultez
trainCustomModel
.L'optimisation commence automatiquement une fois les fichiers de données importés.
Cliquez pour obtenir un exemple de commande curl et de réponse.
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" "https://discoveryengine.googleapis.com/v1/projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321:trainCustomModel" -d '{ "dataStore": "projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321", "gcsTrainingInput": { "corpusDataPath": "gs://my-bucket/corpus.jsonl", "queryDataPath": "gs://my-bucket/query.jsonl", "trainDataPath": "gs://my-bucket/train.tsv" }, "modelType": "search-tuning" }
{ "name": "projects/12345/locations/global/collections/default_collection/dataStores/my-data-store_4321/operations/train-custom-model-6071430366161939774", "metadata": { "@type": "type.googleapis.com/google.cloud.discoveryengine.v1.TrainCustomModelMetadata" }, "response": { "@type": "type.googleapis.com/google.cloud.discoveryengine.v1.TrainCustomModelResponse", "modelStatus": "in-progress" } }
Notez la valeur
name
renvoyée par la méthodetrainCustomModel
, puis suivez les instructions de la section Obtenir des détails sur une opération de longue durée pour savoir quand l'opération d'optimisation de la recherche est terminée.
Python
Pour en savoir plus, consultez la documentation de référence de l'API AI Applications Python.
Pour vous authentifier auprès des applications d'IA, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Tester la recherche optimisée et l'utiliser pour des requêtes de recherche individuelles
Une fois le réglage terminé, vous pouvez le tester en comparant les résultats des requêtes avec le modèle réglé et les résultats des mêmes requêtes avec le modèle de base.
Console
Pour utiliser la console Google Cloud afin de prévisualiser le comportement d'un modèle ajusté, procédez comme suit :
Accédez à l'onglet Réglages :
Dans la console Google Cloud , accédez à la page AI Applications.
Cliquez sur le nom de l'application que vous souhaitez prévisualiser.
Cliquez sur Configurations.
Cliquez sur l'onglet Réglages.
Cliquez sur Modèle ajusté et utilisez le panneau d'aperçu à droite pour effectuer des requêtes qui utilisent le modèle ajusté.
Cliquez sur Modèle de base et utilisez le panneau d'aperçu à droite pour effectuer des requêtes à l'aide du modèle d'origine.
Comparez la qualité des résultats.
REST
Pour évaluer l'effet de l'optimisation, vous pouvez effectuer des requêtes avec le champ enableSearchAdaptor
défini sur true
, puis sur false
, et comparer les résultats. Si vous définissez le champ enableSearchAdaptor
sur true
, cela indique que la version optimisée de la recherche est utilisée pour cette requête.
Pour effectuer des requêtes de recherche à l'aide du modèle réglé :
Dans l'appel de la méthode de requête, définissez le champ
enableSearchAdaptor
dans le champcustomFineTuningSpec
surtrue
.Exemple :
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search:search" \ -d '{ "query": "QUERY", "customFineTuningSpec": { "enableSearchAdaptor": true } }'
Remplacez les éléments suivants :
PROJECT_ID
: ID de votre projet Google Cloud .APP_ID
: ID de l'application sur laquelle vous souhaitez effectuer la requête.
Pour en savoir plus sur les requêtes de recherche, consultez Obtenir des résultats de recherche et la méthode servingConfigs.search
.
Python
Pour en savoir plus, consultez la documentation de référence de l'API AI Applications Python.
Pour vous authentifier auprès des applications d'IA, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Activer la recherche optimisée
Après avoir testé la recherche optimisée et décidé de l'utiliser pour toutes les requêtes de recherche, vous pouvez en faire le modèle de recherche par défaut.
Console
Pour définir le modèle ajusté comme modèle par défaut et l'appliquer à la page d'aperçu principale, au widget et aux appels d'API, procédez comme suit :
Accédez à l'onglet Réglages :
Dans la console Google Cloud , accédez à la page AI Applications.
Cliquez sur le nom de l'application.
Cliquez sur Configurations.
Cliquez sur l'onglet Réglages.
Cliquez sur Modèle réglé.
Cliquez sur Publier.
REST
Lorsque vous définissez le modèle ajusté comme modèle par défaut, vous n'avez pas besoin de spécifier le champ customFineTuningSpec
dans la requête de recherche, comme dans la procédure précédente.
Pour utiliser la version optimisée de la recherche par défaut pour toutes les requêtes de recherche, procédez comme suit :
Pour définir la recherche optimisée comme modèle par défaut, exécutez la commande curl suivante :
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search?updateMask=customFineTuningSpec.enableSearchAdaptor" \ -d '{ "customFineTuningSpec": { "enableSearchAdaptor": true } }'
Pour obtenir des informations générales sur cette méthode, consultez
servingConfigs.patch
.
Python
Pour en savoir plus, consultez la documentation de référence de l'API AI Applications Python.
Pour vous authentifier auprès des applications d'IA, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Désactiver la recherche optimisée
Si vous ne souhaitez plus utiliser la version optimisée de la recherche (par exemple, si vous trouvez que les résultats ne sont pas meilleurs, voire pires, qu'avant l'optimisation), vous pouvez la désactiver.
Console
Pour revenir à l'utilisation du modèle de base comme modèle par défaut, procédez comme suit :
Accédez à l'onglet Réglages :
Dans la console Google Cloud , accédez à la page AI Applications.
Cliquez sur le nom de l'application.
Cliquez sur Configurations.
Cliquez sur l'onglet Réglages.
Cliquez sur Modèle de base.
Cliquez sur Publier.
REST
Pour arrêter d'utiliser le modèle ajusté, exécutez un appel curl semblable à celui ci-dessus, mais définissez enableSearchAdaptor
sur false
:
Exécutez la commande curl suivante :
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/engines/APP_ID/servingConfigs/default_search?updateMask=customFineTuningSpec.enableSearchAdaptor" \ -d '{ "customFineTuningSpec": { "enableSearchAdaptor": false } }'
Pour obtenir des informations générales sur cette méthode, consultez
servingConfigs.patch
.
Python
Pour en savoir plus, consultez la documentation de référence de l'API AI Applications Python.
Pour vous authentifier auprès des applications d'IA, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Étapes suivantes
- Pour comprendre l'impact du réglage de la recherche sur la qualité de la recherche, évaluez la qualité de la recherche. Pour en savoir plus, consultez Évaluer la qualité de la recherche.