本頁面說明如何使用 Vertex AI 將圖片和影片 AutoML Edge 模型匯出至 Cloud Storage。
如要瞭解如何匯出表格型模型,請參閱「匯出 AutoML 表格型模型」。
簡介
訓練 AutoML Edge 模型後,在某些情況下,您可以根據使用方式,以不同格式匯出模型。匯出的模型檔案會儲存在 Cloud Storage 值區中,並可用於您選擇的環境進行預測。
您無法在 Vertex AI 中使用 Edge 模型提供預測結果,必須將 Edge 模型部署至外部裝置才能取得預測結果。
匯出模型
請使用下列程式碼範例找出 AutoML Edge 模型、指定輸出檔案儲存位置,然後傳送匯出模型要求。
圖片
請選取下方目標的分頁標籤:
分類
訓練完成的 AutoML Edge 圖片分類模型可匯出為下列格式:
- TF Lite:將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。
- Edge TPU TF Lite:將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。
- 容器:將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。
- Core ML:匯出 .mlmodel 檔案,以便在 iOS 和 macOS 裝置上執行模型。
- Tensorflow.js:將模型匯出為 TensorFlow.js 套件,以便在瀏覽器和 Node.js 中執行模型。
請選取下方對應您語言或環境的分頁:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「Export model」側邊視窗中,指定 Cloud Storage 中儲存 Edge 模型匯出輸出內容的位置。
- 按一下 [匯出]。
- 按一下「Done」關閉「Export model」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案的位置。
- PROJECT:您的專案 ID。
- MODEL_ID:您要匯出的已訓練 AutoML Edge 模型的 ID 編號。
- EXPORT_FORMAT:您要匯出的 Edge 模型類型。針對這個目標,您可以選擇:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。edgetpu-tflite
(Edge TPU TF Lite):將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。core-ml
(Core ML) - 匯出 .mlmodel 檔案,以便在 iOS 和 macOS 裝置上執行模型。tf-js
(Tensorflow.js):將模型匯出為 TensorFlow.js 套件,以便在瀏覽器和 Node.js 中執行模型。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage 值區目錄路徑。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回應內容包含規格和 OPERATION_ID 相關資訊。
您可以取得匯出作業的狀態,查看匯出作業何時完成。
Java
在試用這個範例之前,請先按照 Vertex AI 快速入門:使用用戶端程式庫中的操作說明設定 Java。詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。詳情請參閱「為本機開發環境設定驗證機制」。
Node.js
在試用這個範例之前,請先按照 Vertex AI 快速入門:使用用戶端程式庫中的操作說明設定 Node.js。詳情請參閱 Vertex AI Node.js API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。詳情請參閱「為本機開發環境設定驗證機制」。
Python 適用的 Vertex AI SDK
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Vertex AI SDK for Python API 參考說明文件。
分類
訓練完成的 AutoML Edge 圖片分類模型可匯出為下列格式:
- TF Lite:將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。
- Edge TPU TF Lite:將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。
- 容器:將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。
- Core ML:匯出 .mlmodel 檔案,以便在 iOS 和 macOS 裝置上執行模型。
- Tensorflow.js:將模型匯出為 TensorFlow.js 套件,以便在瀏覽器和 Node.js 中執行模型。
請選取下方對應您語言或環境的分頁:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「Export model」側邊視窗中,指定 Cloud Storage 中儲存 Edge 模型匯出輸出內容的位置。
- 按一下 [匯出]。
- 按一下「Done」關閉「Export model」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案的位置。
- PROJECT:您的專案 ID。
- MODEL_ID:您要匯出的已訓練 AutoML Edge 模型的 ID 編號。
- EXPORT_FORMAT:您要匯出的 Edge 模型類型。針對這個目標,您可以選擇:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。edgetpu-tflite
(Edge TPU TF Lite):將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。core-ml
(Core ML) - 匯出 .mlmodel 檔案,以便在 iOS 和 macOS 裝置上執行模型。tf-js
(Tensorflow.js):將模型匯出為 TensorFlow.js 套件,以便在瀏覽器和 Node.js 中執行模型。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage 值區目錄路徑。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回應內容包含規格和 OPERATION_ID 相關資訊。
您可以取得匯出作業的狀態,查看匯出作業何時完成。
Java
在試用這個範例之前,請先按照 Vertex AI 快速入門:使用用戶端程式庫中的操作說明設定 Java。詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。詳情請參閱「為本機開發環境設定驗證機制」。
Node.js
在試用這個範例之前,請先按照 Vertex AI 快速入門:使用用戶端程式庫中的操作說明設定 Node.js。詳情請參閱 Vertex AI Node.js API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。詳情請參閱「為本機開發環境設定驗證機制」。
Python 適用的 Vertex AI SDK
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Vertex AI SDK for Python API 參考說明文件。
物件偵測
訓練好的 AutoML Edge 圖片物件偵測模型可匯出為下列格式:
- TF Lite:將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。
- 容器:將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。
- Tensorflow.js:將模型匯出為 TensorFlow.js 套件,以便在瀏覽器和 Node.js 中執行模型。
請選取下方對應您語言或環境的分頁:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 選取「Deploy & Test」分頁標籤,即可查看可用的匯出格式。
- 在「使用邊緣最佳化模型」部分,選取所需的匯出模型格式。
- 在「Export model」側邊視窗中,指定 Cloud Storage 中儲存 Edge 模型匯出輸出內容的位置。
- 按一下 [匯出]。
- 按一下「Done」關閉「Export model」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案的位置。
- PROJECT:您的專案 ID。
- MODEL_ID:您要匯出的已訓練 AutoML Edge 模型的 ID 編號。
- EXPORT_FORMAT:您要匯出的 Edge 模型類型。針對這個目標,您可以選擇:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。tf-js
(Tensorflow.js):將模型匯出為 TensorFlow.js 套件,以便在瀏覽器和 Node.js 中執行模型。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage 值區目錄路徑。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回應內容包含規格和 OPERATION_ID 相關資訊。
您可以取得匯出作業的狀態,查看匯出作業何時完成。
Java
在試用這個範例之前,請先按照 Vertex AI 快速入門:使用用戶端程式庫中的操作說明設定 Java。詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。詳情請參閱「為本機開發環境設定驗證機制」。
Node.js
在試用這個範例之前,請先按照 Vertex AI 快速入門:使用用戶端程式庫中的操作說明設定 Node.js。詳情請參閱 Vertex AI Node.js API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。詳情請參閱「為本機開發環境設定驗證機制」。
Python 適用的 Vertex AI SDK
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Vertex AI SDK for Python API 參考說明文件。
影片
請選取下方目標的分頁標籤:
動作識別
訓練完成的 AutoML Edge 影片動作辨識模型可以儲存的模型格式匯出。
請選取下方對應您語言或環境的分頁:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「Export model」側邊視窗中,指定 Cloud Storage 中儲存 Edge 模型匯出輸出內容的位置。
- 按一下 [匯出]。
- 按一下「Done」關閉「Export model」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:模型儲存的區域。例如:
us-central1
。 - MODEL_ID:您要匯出的已訓練 AutoML Edge 模型的 ID 編號。
- EXPORT_FORMAT:您要匯出的 Edge 模型類型。如要進行影片動作辨識,模型選項如下:
tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage 值區目錄路徑。
- PROJECT_NUMBER:系統自動產生的專案編號。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回應內容包含規格和 OPERATION_ID 相關資訊。
您可以取得匯出作業的狀態,查看匯出作業何時完成。
Java
在試用這個範例之前,請先按照 Vertex AI 快速入門:使用用戶端程式庫中的操作說明設定 Java。詳情請參閱 Vertex AI Java API 參考說明文件。
如要向 Vertex AI 進行驗證,請設定應用程式預設憑證。詳情請參閱「為本機開發環境設定驗證機制」。
Python 適用的 Vertex AI SDK
如要瞭解如何安裝或更新 Python 適用的 Vertex AI SDK,請參閱「安裝 Python 適用的 Vertex AI SDK」。 詳情請參閱 Vertex AI SDK for Python API 參考說明文件。
分類
訓練完成的 AutoML Edge 影片分類模型只能以儲存的模型格式匯出。
請選取下方對應您語言或環境的分頁:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「Export model」側邊視窗中,指定 Cloud Storage 中儲存 Edge 模型匯出輸出內容的位置。
- 按一下 [匯出]。
- 按一下「Done」關閉「Export model」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:模型儲存的區域。例如:
us-central1
。 - MODEL_ID:您要匯出的已訓練 AutoML Edge 模型的 ID 編號。
- EXPORT_FORMAT:您要匯出的 Edge 模型類型。如為影片分類,模型選項如下:
tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage 值區目錄路徑。
- PROJECT_NUMBER:系統自動產生的專案編號。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回應內容包含規格和 OPERATION_ID 相關資訊。
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
您可以取得匯出作業的狀態,查看匯出作業何時完成。
物件追蹤
訓練好的 AutoML Edge 影片物件追蹤模型可匯出以下格式:
- TF Lite:將模型匯出為 TensorFlow Lite 套件,以便在邊緣或行動裝置上執行模型。
- 容器:將模型匯出為 TensorFlow SavedModel,以便在 Docker 容器中執行。
請選取下方對應您語言或環境的分頁:
控制台
- 在 Google Cloud 控制台的 Vertex AI 專區中,前往「Models」頁面。
- 按一下要匯出的 AutoML Edge 模型版本號碼,開啟詳細資料頁面。
- 按一下 [匯出]。
- 在「Export model」側邊視窗中,指定 Cloud Storage 中儲存 Edge 模型匯出輸出內容的位置。
- 按一下 [匯出]。
- 按一下「Done」關閉「Export model」側邊視窗。
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:模型儲存的區域。例如:
us-central1
。 - MODEL_ID:您要匯出的已訓練 AutoML Edge 模型的 ID 編號。
- EXPORT_FORMAT:您要匯出的 Edge 模型類型。如為影片物件追蹤模型,則可選擇以下選項:
tflite
(TF Lite) - 將模型匯出為 TF Lite 套件,以在邊緣或行動裝置上執行模型。edgetpu-tflite
(Edge TPU TF Lite):將模型匯出為 TF Lite 套件,以在 Edge TPU 裝置上執行模型。tf-saved-model
(容器) - 將模型匯出為 TF Saved Model,以便在 Docker 容器中執行。
- OUTPUT_BUCKET:您要儲存 Edge 模型檔案的 Cloud Storage 值區目錄路徑。
- PROJECT_NUMBER:系統自動產生的專案編號。
HTTP 方法和網址:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
JSON 要求主體:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
如要傳送要求,請選擇以下其中一個選項:
curl
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
將要求主體儲存在名為 request.json
的檔案中,然後執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
回應內容包含規格和 OPERATION_ID 相關資訊。
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
您可以取得匯出作業的狀態,查看匯出作業何時完成。
取得作業狀態
圖片
請使用下列程式碼取得匯出作業的狀態。此代碼適用於所有目標:
REST
使用任何要求資料之前,請先替換以下項目:
- LOCATION:專案的位置。
- PROJECT:您的專案 ID。
- OPERATION_ID:目標作業的 ID。這個 ID 通常包含在原始要求的回應中。
HTTP 方法和網址:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
如要傳送要求,請選擇以下其中一個選項:
curl
執行下列指令:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
影片
REST
使用任何要求資料之前,請先替換以下項目:
- PROJECT_NUMBER:系統自動產生的專案編號。
- LOCATION:模型儲存的區域。例如:
us-central1
。 - OPERATION_ID:作業 ID。
HTTP 方法和網址:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
如要傳送要求,請選擇以下其中一個選項:
curl
執行下列指令:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
執行下列指令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
您應該會收到如下的 JSON 回應:
輸出檔案
圖片
請選取下方對應模型格式的分頁:
TF Lite
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
model.tflite
:包含可與 TensorFlow Lite 搭配使用的模型版本的檔案。
Edge TPU
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
edgetpu_model.tflite
:包含 TensorFlow Lite 模型版本的檔案,經過 Edge TPU 編譯器傳遞,以便與 Edge TPU 相容。
容器
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
saved_model.pb
:通訊協定緩衝區檔案,其中包含圖表定義和模型的權重。
Core ML
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
dict.txt
:標籤檔案。標籤檔案dict.txt
中的每一行都代表模型傳回預測的標籤,並按照要求的順序排列。範例
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
:指定 Core ML 模型的檔案。
Tensorflow.js
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
dict.txt
:標籤檔案。標籤檔案dict.txt
中的每一行都代表模型傳回預測的標籤,並按照要求的順序排列。範例
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
:二進位檔案。group1-shard2of3.bin
:二進位檔案。group1-shard3of3.bin
:二進位檔案。model.json
:模型的 JSON 檔案表示法。範例
model.json
(為了方便說明而縮短){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }
影片
請選取下方對應模型格式的分頁:
TF Lite
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
model.tflite
:包含可與 TensorFlow Lite 搭配使用的模型版本的檔案。frozen_inference_graph.pb
:序列化的通訊協定緩衝區檔案,其中包含圖表定義和模型的權重。label_map.pbtxt
:標籤對應檔案,可將每個已使用的標籤對應至整數值。
Edge TPU
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
edgetpu_model.tflite
:包含 TensorFlow Lite 模型版本的檔案,經過 Edge TPU 編譯器傳遞,以便與 Edge TPU 相容。label_map.pbtxt
:標籤對應檔案,可將每個已使用的標籤對應至整數值。
容器
您在要求中指定的 OUTPUT_BUCKET
會決定輸出檔案的儲存位置。輸出檔案的儲存目錄格式如下:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
檔案:
frozen_inference_graph.pb
:序列化的通訊協定緩衝區檔案,其中包含圖表定義和模型的權重。label_map.pbtxt
:標籤對應檔案,可將每個已使用的標籤對應至整數值。saved_model/saved_model.pb
:此檔案會儲存實際的 TensorFlow 程式或模型,以及一組命名簽章,每個簽章都會標示可接受張量輸入內容並產生張量輸出的函式。saved_model/variables/
:變數目錄包含標準訓練檢查點。