在 Vertex AI 上取得推論結果的總覽

推論是訓練完成的機器學習模型輸出內容。本頁面概略說明在 Vertex AI 中從模型取得推論結果的工作流程。

Vertex AI 提供兩種方法來取得推論:

  • 線上推論是指對部署至 Endpoint 的模型發出的同步要求。因此,您必須先將 Model 資源部署至端點,才能傳送要求。這麼做可將運算資源與模型建立關聯,讓模型以低延遲的方式提供線上推論結果。如要依據應用程式輸入內容發出要求,或是需要及時進行推論,您可以選用「線上推論」模式。
  • 批次推論是對未部署至端點的模型提出的非同步要求。您可以將要求 (以 BatchPredictionJob 資源的形式) 直接傳送至 Model 資源。如果您不需要立即取得回應,並想透過單一要求處理累積的資料,就適合使用批次推論功能。

透過自訂訓練模型取得推論結果

如要取得推論結果,您必須先匯入模型。匯入後,這項資源就會成為 Model 資源,並顯示在 Vertex AI Model Registry 中。

接著,請參閱下列說明文件,瞭解如何取得推論結果:

透過 AutoML 模型取得推論結果

與自訂訓練模型不同,AutoML 模型會在訓練完成後自動匯入 Vertex AI Model Registry。

除此之外,AutoML 模型的工作流程大致相同,但會因資料類型和模型目標而略有不同。取得 AutoML 推論的說明文件會與其他 AutoML 說明文件一併提供。以下是說明文件的連結:

圖片

瞭解如何從下列類型的圖像 AutoML 模型取得推論結果:

表格

瞭解如何從下列類型的 AutoML 表格模型取得推論:

文字

瞭解如何從下列類型的文字 AutoML 模型取得推論結果:

影片

瞭解如何從下列類型的影片 AutoML 模型取得推論結果:

從 BigQuery ML 模型取得推論

您可以透過兩種方式從 BigQuery ML 模型取得推論結果:

  • 您可以直接在 BigQuery ML 中,向模型要求批次推論。
  • 您可以直接透過 Model Registry 註冊模型,無須從 BigQuery ML 匯出或匯入 Model Registry。