Package prediction.aiplatform.gdc.goog.v1

Index

PredictionService

Ein Dienst für Onlinevorhersagen und ‑erklärungen.

Vorhersagen

rpc Predict(PredictRequest) returns (PredictResponse)

Führt eine Onlinevorhersage durch.

RawPredict

rpc RawPredict(RawPredictRequest) returns (HttpBody)

Onlinevorhersagen mit einer beliebigen HTTP-Nutzlast erstellen

Die Antwort umfasst die folgenden HTTP-Header:

  • X-Vertex-AI-Endpoint-Id: ID des Endpunkts, der diese Vorhersage bereitgestellt hat.

  • X-Vertex-AI-Deployed-Model-Id: ID des DeployedModel des Endpunkts, das diese Vorhersage bereitgestellt hat.

PredictRequest

Anfragenachricht für PredictionService.Predict.

Felder
endpoint

string

Erforderlich. Der Name des Endpunkts, der für die Vorhersageanfrage verwendet wurde. Format: projects/{project}/locations/{location}/endpoints/{endpoint}

instances[]

Value

Erforderlich. Die Instanzen, die die Eingabe für den Vorhersageaufruf sind. Für ein DeployedModel kann eine Obergrenze für die Anzahl der Instanzen gelten, die pro Anfrage unterstützt werden. Bei von Kunden erstellten Modellen entspricht das Verhalten der Dokumentation des jeweiligen Modells. Das Schema einer einzelnen Instanz kann in den DeployedModels des Endpunkts angegeben werden.

parameters

Value

Die Parameter, die die Vorhersage steuern. Das Schema der Parameter kann in den DeployedModels des Endpunkts angegeben werden.

PredictResponse

Antwortnachricht für PredictionService.Predict.

Felder
predictions[]

Value

Die Vorhersagen, die die Ausgabe des Vorhersageaufrufs sind. Das Schema einer einzelnen Vorhersage kann für die DeployedModels des Endpunkts angegeben werden.

deployed_model_id

string

ID des DeployedModel des Endpunkts, das diese Vorhersage bereitgestellt hat.

model

string

Nur Ausgabe. Der Ressourcenname des Modells, das als das DeployedModel bereitgestellt wird, das von dieser Vorhersage erreicht wird.

model_version_id

string

Nur Ausgabe. Die Versions-ID des Modells, das als das DeployedModel bereitgestellt wird, das von dieser Vorhersage erreicht wird.

model_display_name

string

Nur Ausgabe. Der Anzeigename des Modells, das als das DeployedModel bereitgestellt wird, das von dieser Vorhersage erreicht wird.

metadata

Value

Nur Ausgabe. Metadaten auf Anfrageebene, die vom Modell zurückgegeben werden. Der Metadatentyp hängt von der Modellimplementierung ab.

RawPredictRequest

Anfragenachricht für PredictionService.RawPredict.

Felder
endpoint

string

Erforderlich. Der Name des Endpunkts, der für die Vorhersageanfrage verwendet wurde. Format: projects/{project}/locations/{location}/endpoints/{endpoint}

http_body

HttpBody

Die Eingabe für die Vorhersage. Unterstützt HTTP-Header und beliebige Daten-Payloads.

Für ein DeployedModel kann eine Obergrenze für die Anzahl der Instanzen gelten, die pro Anfrage unterstützt werden. Wenn dieses Limit für ein AutoML-Modell überschritten wird, gibt die RawPredict-Methode einen Fehler zurück. Wenn dieses Limit für ein benutzerdefiniertes Modell überschritten wird, variiert das Verhalten je nach Modell.

Sie können das Schema für jede Instanz beim Erstellen eines Modells im Feld „PredictSchemata“ angeben. Dieses Schema wird angewendet, wenn Sie Model als DeployedModel für einen Endpunkt bereitstellen und die Methode RawPredict verwenden.