本頁說明 Vertex AI 的 TensorFlow 整合功能,並提供相關資源,協助您瞭解如何在 Vertex AI 上使用 TensorFlow。Vertex AI 的 TensorFlow 整合功能可讓您更輕鬆地在正式環境中訓練、部署及自動化調度 TensorFlow 模型。
在筆記本中執行程式碼
Vertex AI 提供兩種在筆記本中執行程式碼的選項:Colab Enterprise 和 Vertex AI Workbench。如要進一步瞭解這些選項,請參閱選擇筆記本解決方案。
用於訓練的預先建構容器
Vertex AI 提供預建的 Docker 容器映像檔,用於模型訓練。這些容器是依據機器學習架構和架構版本來分類,其中包含您可能會想在訓練程式碼中使用的常見依附元件。
如要瞭解哪些 TensorFlow 版本有預先建構的訓練容器,以及如何使用預先建構的訓練容器訓練模型,請參閱「用於自訂訓練作業的預先建構容器」。
分散式訓練
您可以在 Vertex AI 上執行 TensorFlow 模型的分散式訓練。對於多工作人員訓練,您可以使用 Reduction Server,進一步最佳化所有縮減集體作業的效能。如要進一步瞭解 Vertex AI 中的分散式訓練,請參閱「分散式訓練」。
用於推論的預先建構容器
與訓練用的預建容器類似,Vertex AI 也提供預建容器映像檔,可從您在 Vertex AI 內外建立的 TensorFlow 模型,提供推論和說明。這些映像檔提供 HTTP 推論伺服器,您可以使用這些伺服器放送推論,且設定作業極為簡單。
如要瞭解哪些 TensorFlow 版本有預先建構的訓練容器,以及如何使用預先建構的訓練容器訓練模型,請參閱「用於自訂訓練作業的預先建構容器」。
最佳化 TensorFlow 執行階段
最佳化 TensorFlow 執行階段採用模型最佳化和 Google 全新專有技術,與 Vertex AI 的標準預建 TensorFlow 推論容器相比,可提升推論速度並降低成本。
整合 TensorFlow Cloud Profiler
透過 Vertex AI 的 TensorFlow Cloud Profiler 整合功能,監控及最佳化訓練作業的效能,以更便宜且快速的方式訓練模型。TensorFlow Cloud Profiler 可協助您瞭解訓練作業的資源消耗情形,找出並解決效能瓶頸。
如要進一步瞭解 Vertex AI TensorFlow Cloud Profiler,請參閱「使用 Profiler 分析模型訓練效能」。
在 Vertex AI 上使用 TensorFlow 的資源
如要進一步瞭解如何在 Vertex AI 中使用 TensorFlow,請參閱下列資源。
從設計原型到投入實際工作環境: 這個系列影片提供端對端範例,說明如何在 Vertex AI 上開發及部署自訂 TensorFlow 模型。
利用 Vertex AI 上的縮減伺服器最佳化訓練效能: 這篇網誌文章說明如何使用縮減伺服器,在 Vertex AI 上最佳化分散式訓練。
如何使用 Vertex AI 上的 TensorFlow Cloud Profiler 提升訓練效能:這篇網誌文章說明如何使用 Vertex AI TensorFlow Cloud Profiler,找出訓練工作中的效能瓶頸。
使用特徵篩選功能進行自訂模型批次預測: 這個筆記本教學課程說明如何使用 Vertex AI SDK for Python 訓練自訂表格分類模型,以及如何使用特徵篩選功能執行批次推論。
Vertex AI Pipelines:使用預先建構的管道元件進行自訂訓練 Google Cloud: 這份筆記本教學課程說明如何搭配使用 Vertex AI Pipelines 與預先建構的管道元件,進行自訂訓練。 Google Cloud
在同一部 VM 上共同代管 TensorFlow 模型以進行預測: 本程式碼研究室說明如何使用 Vertex AI 的共同代管模型功能,在同一部 VM 上代管多個模型,以進行線上推論。