Package prediction.aiplatform.gdc.goog.v1

Index

PredictionService

Service de prédictions et d'explications en ligne.

Prédiction

rpc Predict(PredictRequest) returns (PredictResponse)

Permet d'effectuer une prédiction en ligne.

RawPredict

rpc RawPredict(RawPredictRequest) returns (HttpBody)

Effectuer une prédiction en ligne avec une charge utile HTTP arbitraire.

La réponse inclut les en-têtes HTTP suivants :

  • X-Vertex-AI-Endpoint-Id : ID du point de terminaison qui a diffusé cette prédiction.

  • X-Vertex-AI-Deployed-Model-Id : ID du DeployedModel du point de terminaison qui a diffusé cette prédiction.

PredictRequest

Message de requête pour PredictionService.Predict.

Champs
endpoint

string

Obligatoire. Nom du point de terminaison demandé pour diffuser la prédiction. Format : projects/{project}/locations/{location}/endpoints/{endpoint}

instances[]

Value

Obligatoire. Instances qui sont l'entrée de l'appel de prédiction. Un DeployedModel peut avoir une limite supérieure sur le nombre d'instances qu'il prend en charge par requête. Dans le cas de Modèles créés par le client, le comportement est celui documenté par ce Modèle. Le schéma de n'importe quelle instance peut être spécifié dans la méthode DeployedModels du point de terminaison.

parameters

Value

Paramètres qui régissent la prédiction. Le schéma des paramètres peut être spécifié dans les DeployedModels du point de terminaison.

PredictResponse

Message de réponse pour PredictionService.Predict.

Champs
predictions[]

Value

Prédictions qui sont le résultat de l'appel de prédictions. Le schéma de n'importe quelle prédiction peut être spécifié dans les DeployedModels du point de terminaison.

deployed_model_id

string

ID du DeployedModel du point de terminaison qui a diffusé cette prédiction.

model

string

Uniquement en sortie. Nom de la ressource du modèle déployé en tant que DeployedModel que cette prédiction atteint.

model_version_id

string

Uniquement en sortie. ID de version du modèle déployé en tant que DeployedModel que cette prédiction atteint.

model_display_name

string

Uniquement en sortie. Nom à afficher du modèle déployé en tant que DeployedModel que cette prédiction atteint.

metadata

Value

Uniquement en sortie. Métadonnées au niveau de la requête renvoyées par le modèle. Le type de métadonnées dépendra de l'implémentation du modèle.

RawPredictRequest

Message de requête pour PredictionService.RawPredict.

Champs
endpoint

string

Obligatoire. Nom du point de terminaison demandé pour diffuser la prédiction. Format : projects/{project}/locations/{location}/endpoints/{endpoint}

http_body

HttpBody

Entrée de prédiction. Compatible avec les en-têtes HTTP et la charge utile de données arbitraires.

Un DeployedModel peut avoir une limite supérieure sur le nombre d'instances qu'il prend en charge par requête. Lorsque cette limite est dépassée pour un modèle AutoML, la méthode RawPredict renvoie une erreur. Lorsque cette limite est dépassée pour un modèle entraîné personnalisé, le comportement varie en fonction du modèle.

Vous pouvez spécifier le schéma de chaque instance dans le champ "PredictSchemata" lorsque vous créez un modèle. Ce schéma s'applique lorsque vous déployez le Model en tant que DeployedModel sur un point de terminaison et que vous utilisez la méthode RawPredict.