AutoML トレーニングの概要

Vertex AI の AutoML(自動 ML)を使用すると、最小限の労力と ML の専門知識で高品質の ML モデルをトレーニングできます。このページでは、Vertex AI で独自のモデルをトレーニングして使用するためのワークフローの概要について説明します。

AutoML で作成できるモデルの種類

構築できるモデルの種類はデータのタイプによって異なります。Vertex AI は、次のデータ型とモデルの目的に対応する AutoML ソリューションを提供します。

データ型 サポートされる目的
画像データ 分類、オブジェクト検出
動画データ 動作認識、分類、オブジェクト トラッキング
表形式データ 分類 / 回帰、予測。

AutoML モデルのトレーニングと使用のワークフローは、データ型や目的に関係なく同じです。

  1. トレーニング データを準備する。
  2. データセットを作成します。
  3. モデルをトレーニングする。
  4. モデルの評価と反復処理を行う。
  5. モデルから予測を取得する。
  6. 予測結果を解釈する。

画像データ

AutoML は、機械学習を使用して画像データのコンテンツを分析します。AutoML を使用すると、画像データを分類する ML モデルをトレーニングできます。また、画像データ内のオブジェクトを検索することもできます。

Vertex AI を使用すると、画像ベースのモデルからオンライン予測とバッチ予測を行えます。オンライン予測は、モデルのエンドポイントに対して行われる同期リクエストです。アプリケーションの入力に応じてリクエストを行う場合や、タイムリーな推論が必要な場合は、オンライン予測を使用します。バッチ予測は非同期リクエストです。エンドポイントにモデルをデプロイすることなく、モデルリソースからバッチ予測を直接リクエストします。画像データで、すぐにレスポンスを必要とせず 1 回のリクエストで累積データを処理したい場合は、バッチ予測を使用します。

画像の分類

分類モデルは、画像データを分析し、画像に適用されるコンテンツ カテゴリのリストを返します。たとえば、猫を含むかどうかで画像を分類するモデルをトレーニングできます。または、犬の品種で犬の画像を分類するようにモデルをトレーニングすることもできます。

ドキュメント: データの準備 | データセットの作成 | モデルのトレーニング | モデルの評価 | 予測の取得 | 結果の解釈

画像のオブジェクト検出

オブジェクト検出モデルは、画像データを分析し、画像内で見つかったすべてのオブジェクトに関するアノテーションを返します。このアノテーションは、各オブジェクトのラベルと境界ボックスの位置で構成されています。たとえば、画像データ内で猫がいる場所を見つけるモデルをトレーニングできます。

ドキュメント: データの準備 | データセットの作成 | モデルのトレーニング | モデルの評価 | 予測の取得 | 結果の解釈

表形式データ

Vertex AI では、簡単なプロセスとインターフェースを使用して、表形式データの ML を実行できます。表形式データの問題に対し、次のモデルタイプを作成できます。

  • バイナリ分類モデルは、バイナリの結果(2 つのクラスのうちのいずれか)を予測します。「はい」か「いいえ」で答える質問には、このモデルタイプを使用します。たとえば、バイナリ分類モデルを構築して利用者がサブスクリプションを購入するかどうかを予測できます。通常、バイナリ分類問題に必要となるデータは、他のモデルタイプよりも少なくなります。
  • マルチクラス分類モデルは、1 つのクラスを 3 つ以上の個別クラスから予測します。このモデルタイプは分類に使用します。たとえば、小売業者がマルチクラス分類モデルを構築して、買物客をさまざまなペルソナにセグメント分けすることが考えられます。
  • 回帰モデルは、連続値を予測します。たとえば、小売業者は回帰モデルを構築して、顧客が来月使用する金額を予測できます。
  • 予測モデルは、一連の値を予測します。たとえば、小売店では、商品の在庫を前もって適切に確保できるように、今後 3 か月にわたる商品の日々の需要を予測することが考えられます。

詳細については、表形式データの概要をご覧ください。

表形式データが BigQuery ML に保存されている場合は、AutoML 表形式モデルを BigQuery ML で直接トレーニングできます。詳細については、AutoML 表形式のリファレンス ドキュメントをご覧ください。

テキストデータ

動画データ

AutoML は、機械学習を使用して動画データを分析し、ショットやセグメントの分類を行います。動画データ内の複数のオブジェクトを検出して追跡することもできます。

動画の動作認識

動作認識モデルは、動画データを分析し、動作の発生時点で動作を分類してリストを返します。たとえば、動画データを分析してサッカーのゴール、ゴルフのスウィング、タッチダウン、ハイタッチなどの動作の瞬間を特定するモデルをトレーニングできます。

ドキュメント: データの準備 | データセットの作成 | モデルのトレーニング | モデルの評価 | 予測の取得 | 結果の解釈

動画の分類

分類モデルは、動画データを分析し、分類されたショットとセグメントのリストを返します。たとえば、動画データを分析するモデルをトレーニングし、動画が野球、サッカー、バスケットボール、フットボールのどれに該当するかを識別できます。

ドキュメント: データの準備 | データセットの作成 | モデルのトレーニング | モデルの評価 | 予測の取得 | 結果の解釈

動画のオブジェクト トラッキング

オブジェクト トラッキング モデルでは、動画データを分析し、これらのオブジェクトが検出されたショットとセグメントのリストを返します。たとえば、サッカーの動画データを分析してボールを識別し、追跡するモデルをトレーニングできます。

ドキュメント: データの準備 | データセットの作成 | モデルのトレーニング | モデルの評価 | 予測の取得 | 結果の解釈

次のステップ