Package prediction.aiplatform.gdc.goog.v1

Indice

PredictionService

Un servizio per previsioni e spiegazioni online.

Previsione

rpc Predict(PredictRequest) returns (PredictResponse)

Esegui una previsione online.

RawPredict

rpc RawPredict(RawPredictRequest) returns (HttpBody)

Esegui una previsione online con un payload HTTP arbitrario.

La risposta include le seguenti intestazioni HTTP:

  • X-Vertex-AI-Endpoint-Id: l'ID dell'endpoint che ha fornito questa previsione.

  • X-Vertex-AI-Deployed-Model-Id: ID di DeployedModel dell'endpoint che ha fornito questa previsione.

PredictRequest

Richiesta di messaggio per PredictionService.Predict.

Campi
endpoint

string

Obbligatorio. Il nome dell'endpoint richiesto per pubblicare la previsione. Formato: projects/{project}/locations/{location}/endpoints/{endpoint}

instances[]

Value

Obbligatorio. Le istanze che sono l'input della chiamata di previsione. Un modello di cui è stato eseguito il deployment potrebbe avere un limite superiore al numero di istanze supportate per richiesta. Nel caso di Modelli creati dal cliente, il comportamento è quello documentato dal Modello. Lo schema di una singola istanza può essere specificato in DeployedModels dell'endpoint.

parameters

Value

I parametri che regolano la previsione. Lo schema dei parametri può essere specificato in DeployedModels dell'endpoint.

PredictResponse

Messaggio di risposta per PredictionService.Predict.

Campi
predictions[]

Value

Le previsioni che sono l'output della chiamata di previsione. Lo schema di una singola previsione può essere specificato in DeployedModels dell'endpoint.

deployed_model_id

string

ID di DeployedModel dell'endpoint che ha fornito questa previsione.

model

string

Solo output. Il nome della risorsa del modello di cui è stato eseguito il deployment come DeployedModel a cui fa riferimento questa previsione.

model_version_id

string

Solo output. L'ID versione del modello di cui è stato eseguito il deployment come DeployedModel a cui fa riferimento questa previsione.

model_display_name

string

Solo output. Il nome visualizzato del modello di cui è stato eseguito il deployment come DeployedModel che questa previsione raggiunge.

metadata

Value

Solo output. Metadati a livello di richiesta restituiti dal modello. Il tipo di metadati dipende dall'implementazione del modello.

RawPredictRequest

Richiesta di messaggio per PredictionService.RawPredict.

Campi
endpoint

string

Obbligatorio. Il nome dell'endpoint richiesto per pubblicare la previsione. Formato: projects/{project}/locations/{location}/endpoints/{endpoint}

http_body

HttpBody

L'input di previsione. Supporta le intestazioni HTTP e il payload di dati arbitrario.

Un modello di cui è stato eseguito il deployment potrebbe avere un limite superiore al numero di istanze supportate per richiesta. Quando questo limite viene superato per un modello AutoML, il metodo RawPredict restituisce un errore. Quando questo limite viene superato per un modello addestrato personalizzato, il comportamento varia a seconda del modello.

Puoi specificare lo schema per ogni istanza nel campo PredictSchemata quando crei un modello. Questo schema viene applicato quando esegui il deployment di Model come DeployedModel in un endpoint e utilizzi il metodo RawPredict.