-
エージェント
- 生成 AI のコンテキストでは、エージェントは、新しい状況での目標を達成するために一連のアクションを自律的に計画して実行するソフトウェアです。エージェントは、自然言語処理、機械学習、ロボット工学などのさまざまなアプリケーションで使用できます。たとえば、LLM エージェントは言語モデルを使用して環境を評価し、目標達成に役立つアクションを選択します。LLM エージェントは、テキストの生成、言語の翻訳、質問への回答に使用できます。
-
API エンドポイント
- API エンドポイントは、ネットワーク アドレスを指定するサービス構成要素であり、サービス エンドポイントとも呼ばれます(例: aiplatform.googleapis.com)。
-
アプリケーションのデフォルト認証情報(ADC)
- アプリケーションのデフォルト認証情報(ADC)を使用すると、Google API の呼び出しに使われる認証情報を簡単に取得できます。これはユーザーに関係なく、アプリケーションで API を呼び出す際に同じ ID と認証レベルを使用する必要があるケースに最適です。これは Google Cloud APIs の呼び出しを認証する際の推奨アプローチで、Google App Engine(GAE)または Compute Engine の仮想マシンにデプロイされるアプリケーションをビルドしている場合には特に推奨されます。詳細については、アプリケーションのデフォルト認証情報の仕組みをご覧ください。
-
近似最近傍探索(ANN)
- 近似最近傍探索(ANN)サービスは、大規模なコーパスで類似したベクトル(より具体的には「エンべディング」)を見つけるための大規模で低レイテンシのソリューションです。詳細については、セマンティック マッチングにベクトル検索を使用する方法をご覧ください。
-
アーティファクト
- アーティファクトは、ML ワークフローによって生成、使用される個別のエンティティまたはデータです。アーティファクトの例としては、データセット、モデル、入力ファイル、トレーニング ログなどがあります。
-
Artifact Registry
- Artifact Registry は、汎用的なアーティファクト管理サービスです。これは、Google Cloud でコンテナやその他のアーティファクトを管理する場合に推奨されるサービスです。詳細については、Artifact Registry をご覧ください。
-
人工知能(AI)
- AI とは、「知的」な特徴が観察されるマシンの研究と設計です。つまり、機械的な動き、推論、問題解決など、人間や知的機能を模倣するマシンのことです。AI の最も一般的な分野の一つが ML です。ML では、統計的かつデータドリブンなアプローチを使用して AI を作成します。ただし、この 2 つの用語を同じ意味で使用する人もいます。
-
拡張現実(AR)
- レンダリングされたデジタル コンテンツを現実世界のコンテンツと融合します。スマートフォンなどのディスプレイを介して、またはグラスなどの光学機器を通して見ている世界にオーバーレイとして表示します。デジタル コンテンツが、現実世界の一部であるかのように見えるように、(シーンのレンダリング方法に応じて)カメラまたはグラスの動きに合わせてトラッキングする必要があります。
-
認証
- 保護されたシステムにアクセスするために、クライアント(ユーザーまたは別のプロセス)の ID を確認するプロセス。身元を証明したクライアントは、認証済みであるとみなされます。詳しくは、Google での認証方法をご覧ください。
-
Automatic side-by-side(AutoSxS)
- Automatic side-by-side(AutoSxS)は、2 つの大規模言語モデル(LLM)を並べて比較するモデル支援型評価ツールです。Vertex AI Model Registry 内の生成 AI モデルや事前生成された推論のパフォーマンスを評価できます。AutoSxS は自動評価を使用して、プロンプトに対して優れた回答をしたモデルを決定します。AutoSxS はオンデマンドでの利用が可能で、人間の評価者に匹敵するパフォーマンスで言語モデルを評価します。
-
自動音声認識(ASR、音声入力)
- 音声言語(スピーチ)からテキストへの自動的な音声文字変換。
-
AutoML
- ブラック ボックス最適化を通じて「学習方法を学習する」ML アルゴリズム。詳細については、ML 用語集をご覧ください。
-
自動評価
- 自動評価は、元の推論プロンプトを踏まえてモデル レスポンスの品質を評価する言語モデルです。これは、AutoSxS パイプラインで 2 つのモデルの推論を比較し、どちらのモデルがより高いパフォーマンスを発揮するかを判定するのに使用されます。詳細については、自動評価をご覧ください。
-
ベースライン
- 別のモデル(通常はより複雑なモデル)のパフォーマンスを比較評価するための基準点として使用されるモデル。たとえば、ロジスティック回帰モデルは、ディープ ラーニング モデルの優れたベースラインとして機能します。特定の問題に関して、ベースラインは、新しいモデルが有用であるために新しいモデルが達成する必要があるパフォーマンスの最小期待値をモデル デベロッパーが定量化するのに役立ちます。詳細については、ベースライン データセットとターゲット データセットをご覧ください。
-
バッチ
- 1 回のトレーニング イテレーションで使用されるサンプルのセット。バッチサイズは、バッチ内のサンプル数を決定します。
-
バッチサイズ
- バッチ内のサンプルの数。たとえば、SGD のバッチサイズは 1 ですが、ミニバッチのバッチサイズは通常 10~1,000 です。トレーニングと推論中には、バッチサイズは通常固定されますが、TensorFlow ではバッチサイズを動的に設定できます。
-
バッチ推論
- バッチ推論は、推論リクエストのグループを受け取り、結果を 1 つのファイルに出力します。詳細については、Vertex AI での推論の取得の概要をご覧ください。
-
バイアス
- 1. 特定のこと、人、グループに対する固定観念、偏見、またはえこひいき。こうしたバイアスは、データの収集と解釈、システムの設計、ユーザーがシステムを操作する方法に影響する可能性があります。2. サンプリングや報告の手順で体系的に生じたエラー。
-
双方向
- 対象のテキスト セクションの前後にあるテキストの両方を評価するシステムを表す用語。一方、単方向のシステムは、対象のテキスト セクションの前にあるテキストのみを評価します。
-
Bidirectional Encoder Representations from Transformers(BERT)
- BERT は言語表現の事前トレーニングの方法です。つまり、大規模なテキスト コーパス(ウィキペディアなど)で汎用の「言語理解」モデルをトレーニングし、そのモデルを関心のあるダウンストリーム NLP タスク(質問応答など)に使用します。BERT は、NLP の事前トレーニング用の初の双方向型教師なし深層学習システムであることから、従来の方法よりも優れています。
-
Bilingual Evaluation Understudy(BLEU)
- 機械翻訳アルゴリズムの品質を評価するための一般的な指標で、その出力を 1 つ以上の人間による翻訳と比較して評価します。
-
ブースティング
- モデル トレーニングにおいて、ブースティングは、トレーニング データセットのサイズと多様性を増強するために使用されるデータ拡張手法を指す場合があります。これは、既存の例を変換して、追加のさまざまな例を作成することによって行われます。これにより、特に元のデータセットが限られている場合に、モデルのパフォーマンスを向上させることができます。
-
境界ボックス
- 動画フレーム内のオブジェクトの境界ボックスは 2 つの形式、つまり(i)長方形の対角線上の点の場合、x 座標と y 座標のセットで構成される 2 つの頂点を使用する形式(x_relative_min、y_relative_min、x_relative_max、y_relative_max など)か(ii)4 つの頂点すべてを使用する形式のいずれかで指定できます。詳細については、動画データを準備するをご覧ください。
-
バケット
- Cloud Storage の最上位フォルダ。バケット名は、Cloud Storage のすべてのユーザー間で一意である必要があります。バケットにはファイルが保存されます。詳細については、Cloud Storage のプロダクト概要をご覧ください。
-
Chain-of-Thought
- 生成 AI における Chain-of-Thought(CoT)は、大規模言語モデル(LLM)に結論に至る前の推論プロセスを明示的に列挙するように促すプロンプティング手法です。これには、最終的な回答の提示だけでなく、問題解決に向けた中間ステップも示すようにモデルにプロンプトを出すことが含まれます。この方法により、複雑な推論タスクでの LLM のパフォーマンスを大幅に向上させることができます。
-
チャット
- ML システム(通常は大規模言語モデル)とのやり取りの内容。チャットでの以前のやり取り(入力した内容と大規模言語モデルの回答)が、チャットの後続部分のコンテキストになります。chatbot は大規模言語モデルのアプリケーションです。
-
checkpoint
- トレーニング中またはトレーニング完了後にモデルのパラメータの状態をキャプチャするデータ。たとえば、トレーニング中に、次のことが可能です。1. トレーニングを停止します。これは、意図的に行う場合もあれば、特定のエラーの結果としてそうなる場合もあります。2. チェックポイントをキャプチャします。3. 後で、別のハードウェアでチェックポイントを再読み込みします。4. トレーニングを再開します。Gemini では、チェックポイントは特定のデータセットでトレーニングされた Gemini モデルの特定のバージョンを指します。
-
分類モデル
- 推論がクラスであるモデル。たとえば、次のモデルはすべて分類モデルです。入力文の言語を予測するモデル(フランス語か、スペイン語か、イタリア語か、など)。樹木の種類を予測するモデル(メープルか、オークか、バオバブか、など)。特定の病状について、陽性クラスか陰性クラスかを予測するモデル。
-
分類指標
- Vertex AI SDK for Python でサポートされている分類指標は、混同行列と ROC 曲線です。
-
Cloud TPU
- Google Cloud での ML ワークロードの高速化を目的として設計された特殊なハードウェア アクセラレータ。
-
クラスタリング
- 生成 AI の文脈では、クラスタリングは、類似したデータポイントをその特性に基づいてグループ化するために使用される教師なし ML 手法です。これは、データポイントを比較するための類似度測定(または指標)を定義し、類似性の高いものを同じクラスタにグループ化することで達成されます。生成 AI アプリケーションでは、ここに、検索、分類、外れ値検出などのタスクを実行するためのエンベディング(テキスト、画像、その他のデータの数値表現)のクラスタリングが含まれる場合があります。たとえば、顧客データをクラスタリングして行動や特性が類似するグループを特定することで、顧客セグメンテーションを行うことができます。詳細については、クラスタリングとはをご覧ください。
-
コンテナ イメージ
- コンテナ イメージとは、コンポーネントの実行可能コードと、コードが実行される環境の定義が含まれるパッケージのことです。詳細については、カスタム トレーニングの概要をご覧ください。
-
コンテキスト
- コンテキストは、アーティファクトと実行を単一のクエリ可能なタイプ付きカテゴリにグループ化するために使用されます。コンテキストを使用してメタデータのセットを表すことができます。コンテキストの例としては、機械学習パイプラインの実行があります。
-
コンテキスト キャッシュ
- Vertex AI のコンテキスト キャッシュは、Gemini モデルへの複数のリクエストで使用できる大量のデータです。キャッシュに保存されたコンテンツは、キャッシュの作成をリクエストしたリージョンに保存されます。テキスト、音声、動画など、Gemini マルチモーダル モデルでサポートされている任意の MIME タイプを使用できます。詳細については、コンテキスト キャッシュ保存の概要をご覧ください。
-
コンテキスト ウィンドウ
- モデルが特定のプロンプトで処理できるトークン数。コンテキスト ウィンドウが大きいほど、モデルはより多くの情報を使用して、プロンプトに明解で一貫性のある回答を提供できます。
-
顧客管理の暗号鍵(CMEK)
- 顧客管理の暗号鍵(CMEK)は、お客様が Cloud KMS(別名 Storky)で管理する鍵を使用して既存の Google サービスのデータを暗号化できるようにするインテグレーションです。Cloud KMS の鍵は、データを保護する鍵暗号鍵です。詳細については、顧客管理の暗号鍵(CMEK)をご覧ください。
-
データ分析
- サンプル、測定、可視化を考慮したデータの理解。データ分析は特に、最初のモデルを構築する前に、データセットを初めて受け取ったときに役立ちます。また、テストの理解やシステムの問題のデバッグにも不可欠です。
-
データの拡張
- 既存のサンプルを変換して追加のサンプルを作成することにより、トレーニング サンプルの範囲と数を人為的に増やすこと。たとえば、画像が特徴の 1 つであるのに、データセットにはモデルが有用な関連性を学習するのに十分な画像サンプルが含まれていないとします。理想的なのは、モデルを適切にトレーニングできるように、データセットにラベル付けされた画像を十分に追加することです。それが不可能な場合は、データ拡張によって各画像を回転、伸縮、反射して元の画像の多くのバリエーションを生成し、優れたトレーニングを可能にする十分なラベル付きデータを得ることができます。
-
DataFrame
- メモリ内のデータセットを表す一般的な Pandas データ型。DataFrame は、テーブルやスプレッドシートに似ています。DataFrame の各列には名前(ヘッダー)があり、各行は一意の数値で識別されます。DataFrame の各列は 2 次元配列のように構造化されていますが、各列に独自のデータ型を割り当てられる点が特徴です。
-
データのインデックス作成
- 生成 AI のコンテキストでは、データ インデックスとは、検索と取得を最適化するためにナレッジベースを構造化して整理するプロセスです。これには、コーパスとも呼ばれるインデックスの作成が含まれ、これによりデータを効率的に検索できるようになります。このプロセスはコーパスの作成とは異なり、インデックス化されたデータを使用することで大規模言語モデル(LLM)のコンテキストを強化し、ハルシネーションを減らし、回答の精度を高めることができます。たとえば、ウェブサイトのコンテキストでは、datePublished や dateModified などのメタデータの追加による検索機能の向上もデータのインデックス作成に含めることができます。データのインデックス作成にはさまざまな手法があります。たとえば、アプリケーションでベクトル検索を使用して類似検索を行う(クエリ時に LLM の関連情報を取得するなど)というような手法があります。詳細については、RAG Engine の概要をご覧ください。
-
データの取り込み
- データの取り込みは、さまざまなソースからデータを抽出し、それを追加的な処理と分析を行うための一元的な場所に統合するプロセスです。生成 AI の文脈において、データの取り込みとは、生成 AI モデルのトレーニングとファインチューニングを行うために臨床フォーム、患者記録、非構造化テキストなど、さまざまなデータソースから情報を抽出することを指します。取り込まれたデータは通常、生成 AI モデルのトレーニングに使用される前に、品質と整合性を確保するための処理と変換が行われます。このプロセスには、モデルのパフォーマンスと汎化性能を向上させるためのデータ クリーニング、特徴量エンジニアリング、データ拡張手法などを含めることができます。詳細については、利用管理に生成 AI を活用するをご覧ください。
-
データ並列処理
- トレーニングまたは推論をスケーリングする方法の 1 つで、モデル全体を複数のデバイスに複製し、入力データのサブセットを各デバイスに渡します。データ並列処理では、非常に大きなバッチサイズでのトレーニングと推論が可能になります。ただし、モデルはすべてのデバイスに収まるほど小さくする必要があります。通常、データ並列処理によりトレーニングと推論の速度が上がります。
-
データセット
- データセットは、おおまかに構造化データレコード群または非構造化データレコード群と定義されています。通常は(ただし限定されない)スプレッドシートまたは CSV(カンマ区切り値)形式のファイルのいずれかの形式で整理された、未加工データのコレクションです。詳細については、データセットの作成をご覧ください。
-
データ変換
- 検索拡張生成(RAG)のコンテキストでは、データ変換とは、LLM によるインデックス登録と処理に適した形式にデータを変換することを指します。多くの場合、データはエンベディングとインデックス登録がしやすくなるように小さなチャンクに分割されます。その他の変換として、データ品質を確保するためのクリーニングと検証のステップを含めることができます。詳細については、RAG Engine の概要をご覧ください。
-
デコーダ
- 一般に、処理済み、密、内部の表現から、より未加工な、疎、外部の表現に変換する ML システム。デコーダは多くの場合、大規模なモデルのコンポーネントであり、エンコーダと対になっています。sequence-to-sequence(Seq2Seq)タスクでは、デコーダはエンコーダによって生成された内部状態から開始して、次のシーケンスを予測します。
-
ディープ ニューラル ネットワーク(DNN)
- 隠れ層が複数あるニューラル ネットワークで、通常はディープラーニング手法でプログラムされます。
-
depth
- ニューラル ネットワーク内の次の合計: 1. 隠れ層の数 2. 出力層の数(通常は 1)3. 埋め込み層の数。たとえば、隠れ層が 5 つ、出力層が 1 つのニューラル ネットワークの depth は 6 です。入力層は depth に影響しないことに注意してください。
-
DevOps
- DevOps は Artifact Registry、Cloud Deploy などの Google Cloud Platform プロダクトのスイートです。
-
早期停止
- トレーニングの損失が減少を終える前にトレーニングを終了する正則化の手法。早期停止では、検証データセットの損失が上昇し始めたとき、つまり汎化性能が低下したときに、モデルのトレーニングを意図的に停止します。
-
エンベディング
- 単語やテキストの断片の数値表現。これらの数値は、テキストの意味論的意味とコンテキストを表しています。類似または関連する単語やテキストは、エンベディングが類似する傾向があります。つまり、高次元ベクトル空間内で近接します。
-
エンベディング空間(潜在空間)
- 生成 AI では、エンベディング空間とは、入力間の関係性を捉えたテキスト、画像、動画の数値表現を指します。ML モデル(特に生成 AI モデル)は、大規模なデータセット内のパターンを識別してこうしたエンベディングを作成することに長けています。アプリケーションでは、エンベディングを使用して言語を処理および生成し、コンテンツに固有の複雑な意味とセマンティックな関係を認識できます。
-
エンベディング ベクトル
- アイテムの密ベクトル表現(多くの場合、低次元)。2 つのアイテムが意味的に類似している場合、それらのエンベディングはエンベディング ベクトル空間内で互いに近接した場所に配置されます。
-
エンコーダ
- 一般に、未加工な、疎、外部の表現から、より加工された、密、内部の表現に変換する ML システム。エンコーダは、多くの場合、大規模なモデルのコンポーネントであり、デコーダと対になっています。変換ツールにはエンコーダとデコーダを対で使用するものと、エンコーダまたはデコーダのみを単独で使用するものがあります。一部のシステムでは、エンコーダの出力を分類ネットワークや回帰ネットワークへの入力として使用します。sequence-to-sequence(Seq2Seq)タスクでは、エンコーダは入力シーケンスを受け取り、内部状態(ベクトル)を返します。デコーダは、その内部状態を使用して次のシーケンスを予測します。
-
アンサンブル
- 個別にトレーニングされたモデルのコレクション。ここでの推論は平均化または集約されています。多くの場合、アンサンブルは単一モデルよりも優れた推論結果をもたらします。たとえば、ランダム フォレストは、複数のディシジョン ツリーから構築されたアンサンブルです。複数のディシジョン ツリーで構成されるモデルがすべてアンサンブルだとは限らないことに注意してください。
-
environment
- 強化学習では、エージェントを含む世界であり、エージェントがその世界の状態を観察できるようになっているものです。たとえば、表現された世界は、チェスのようなゲームや、迷路のような物理的な世界などです。エージェントが環境にアクションを適用すると、環境は状態間を遷移します。
-
評価
- 評価は、ログに記録されたクエリまたは合成クエリを 2 つの検索スタック(変更を含む実験的スタックと変更を含まないベーススタック)に送信するテストの一種です。差分と指標が生成され、これにより、検索結果や Google のユーザー エクスペリエンスの他の部分に対する変更の影響や品質、さまざまな効果などを評価できます。評価は、変更のチューニング(反復処理)中に使用されます。また、ライブ ユーザー トラフィックへの変更をリリースする際にも使用されます。
-
実行
- 実行とは、個々の ML ワークフロー ステップのレコードで、通常はランタイムのパラメータでアノテーションが付けられています。実行の例としては、データの取り込み、データの検証、モデルのトレーニング、モデルの評価、モデルのデプロイなどがあります。
-
F1 スコア
- F1 スコアは、モデルの出力の精度を評価するために使用される指標です。これは、情報抽出など、適合率と再現率の両方が重要なタスクでのモデルのパフォーマンスを評価する場合に特に役立ちます。生成 AI モデルの場合、モデルの推論と実際のデータを比較し、モデルの精度を判断することに F1 スコアを使用できます。ただし、要約やテキスト生成などの生成タスクの場合は、Rough-L スコアなどの他の指標が適している場合があります。
-
特徴
- 機械学習(ML)において、特徴とは、ML モデルのトレーニングや推論の入力として使用されるインスタンスまたはエンティティの特性(属性)のことです。
-
特徴抽出
- 生成 AI のコンテキストにおいて、特徴抽出とはモデルのトレーニングで使用される入力データから関連する特徴を特定して選択するプロセスを指します。これらの特徴を使用して、元の入力に類似した新しいデータを生成します。たとえば、画像生成では、特徴抽出にエッジ、テクスチャ、色の識別などが含まれます。自然言語処理では、キーワード、フレーズ、文法構造の抽出などが含まれます。抽出された特徴は、生成モデルによって新しいコンテンツの作成に使用されます。
-
特徴のサービング
- 特徴のサービングは、トレーニングまたは推論のために保存されている特徴値をエクスポートまたは取得するプロセスです。Vertex AI には、オンライン サービングとオフライン サービングの 2 種類の特徴のサービングがあります。オンライン サービングでは、オンライン推論用に特徴データソースのサブセットの最新の特徴値を取得します。オフラインまたはバッチ サービングでは、ML モデルのトレーニングなどのオフライン処理用に大量の特徴データ(履歴データを含む)をエクスポートします。
-
特徴ビュー
- 特徴ビューは、BigQuery データソースからオンライン ストア インスタンスに具体化された特徴の論理的なコレクションです。特徴ビューは、顧客の特徴データを保存し、定期的に更新します。この特徴データは、BigQuery ソースから定期的に更新されます。特徴ビューは、直接、または特徴レジストリ リソースとの関連付けを通じて特徴データ ストレージに関連付けられます。
-
少数ショット プロンプト(少数ショット)
- 生成 AI では、「少数ショット」とは、モデルの回答を導くための少数の例を含むプロンプトの一種を指します。これらの例は、回答の望ましい出力形式、表現、範囲、一般的なパターンをモデルに理解させるのに役立ちます。少数ショット プロンプトは多くの場合、言語モデルの出力を制御して、正確かつ高品質で、ユーザーの期待に沿った回答を生成するように使用されます。いくつかの適切な例をモデルに提供することで、モデルの動作に影響を与え、より満足のいく結果を得ることができます。詳細については、少数ショットの例を含めるをご覧ください。
-
基盤モデル(FM)
- 幅広いデータでトレーニングされ、幅広い下流タスクに(ファイン チューニングなどによって)適応可能なモデル。
-
基盤モデル運用(FMOps)
- FMOps は MLOps の機能を拡張し、事前トレーニング済み(ゼロからトレーニング)またはカスタマイズ済み(ファインチューニング済み)の FM を効率的に本番環境に導入することに重点を置いています。
-
Gemini
- Gemini は、Google の大規模なシーケンスベースのマルチモーダル モデルのセットです。つまり、テキスト、音声、映像メディアなど、複数のメディアで同時に入力を受け取り、出力を生成できます。さまざまなタスクを実行できるエージェントと連携するように設計されています。詳細については、Google モデルをご覧ください。
-
汎化
- 新しい未知のデータに対して正しい推論を行えるモデルの能力。汎化性能が高いモデルは、過学習しているモデルとは正反対の状態です。
-
生成
- 生成 AI の文脈において、「生成」とは既存のデータや情報から新しいデータやコンテンツを作成するプロセスを指します。生成 AI モデルは、大規模なデータセットでトレーニングされ、データ内のパターンと関係を学習できます。この知識を使用して、トレーニング データに類似しているものの同一のレプリカではない、新しい独自のコンテンツを生成できます。詳細については、生成 AI と従来の AI の使い分けをご覧ください。
-
生成モデル
- トレーニング データに基づいて新しい出力を作成できる ML モデルの一種。最も単純なモデルでは、トレーニングに使用した特定のカテゴリセットに似た新しいデータを生成します。通常は大規模言語モデルに関連付けられますが、他のタイプの生成モデルも可能です。
-
Google Embedded Modem System(GEMS)
- GEMS は、モデムを対象とした組み込みソフトウェア フレームワークと、それに付随する一連の開発ワークフローおよびインフラストラクチャです。GEMS のコア ビジョンは、モデムを内蔵する多くの Google デバイス間での高い再利用性を備えた高品質なモデム システム コードを提供することです。この幅広いビジョンを実現するため、GEMS は、以下に示す主要な構成要素から成る包括的な環境をデベロッパーに提供します。
-
勾配
- すべての独立変数に対する偏微分の導関数のベクトル。ML では、勾配はモデル関数の偏導関数のベクトルです。勾配は最も急な上昇方向を指し示しています。
-
グラフ
- 生成 AI の文脈において、グラフとは、データをノードとエッジのネットワークとして整理して接続する、情報の構造化表現を指します。これらのグラフは、エンティティ間の情報や関係を表すためによく使用され、データ内のコンテキストと関係を深く理解する必要がある生成 AI システムで特に役立ちます。ナレッジグラフを活用する生成 AI システムでは、ナレッジグラフを使って検索モデルのパフォーマンスを強化することができます。ナレッジグラフをシステムに組み込むことで、生成 AI はコンテキストリッチなデータにアクセスし、グラフを走査してユーザーのクエリに基づいて関連するサブグラフを取得できます。これにより、システムはコンテキストに沿ったコンテンツを生成することで、より正確で有益な回答を提供できるようになります。
-
グラウンド トゥルース(GT)
- グラウンド トゥルースは、システムの推定値とは対照的に、なんらかの決定や測定の問題における絶対的な真実を指すものとしてさまざまな分野で使用される用語です。ML では、「グラウンド トゥルース」という用語は、教師あり学習手法のトレーニング セットを指します。
-
ハルシネーション
- 生成 AI におけるハルシネーションとは、トレーニング データでは裏付けることのできない AI による確信に満ちた回答です。ハルシネーションは、事実と異なる可能性があります。テキスト生成の文脈では、生成されたテキスト コンテンツ内の、ランダムなもっともらしい嘘のことです。
-
ヒューリスティック
- 問題に対してシンプルかつ迅速に実行できる解決策。例:「ヒューリスティクスでは 86% の精度を達成しました。ディープ ニューラル ネットワークに切り替えると、精度は 98% に向上しました」
-
隠れ層
- 入力層(特徴)と出力層(推論)の間にあるニューラル ネットワークの層。各隠れ層は 1 つ以上のニューロンで構成されます。ディープ ニューラル ネットワークには複数の隠れ層が含まれています。
-
ヒストグラム
- 一連のデータの変化を棒グラフで表したものです。ヒストグラムでは、単純な数値表では検出が困難なパターンを可視化できます。
-
ハイパーパラメータ
- ハイパーパラメータとは、ML モデルのトレーニング プロセスを管理する変数を指します。これらの変数には、学習率、最適化ツールのモーメンタム値、モデルの最終隠れ層のユニット数などがあります。詳細については、ハイパーパラメータ チューニングの概要をご覧ください。
-
ハイパーパラメータ チューニング
- Vertex AI のハイパーパラメータ チューニングでは、選択した各ハイパーパラメータの値を指定された制限内で変更し、トレーニング アプリケーションのトライアルを複数回実行します。ハイパーパラメータ設定を最適化して、モデルの予測精度を最大化することが目標です。詳細については、ハイパーパラメータ チューニングの概要をご覧ください。
-
Identity and Access Management(IAM)権限
- Identity and Access Management(IAM)権限は、どの Google Cloud リソースに対して、どのユーザーがどの処理を実行できるかを定義する特定のきめ細かい機能です。ロールを通じてプリンシパル(ユーザー、グループ、サービス アカウントなど)に割り当てられ、Google Cloud プロジェクトまたは組織内のサービスとデータへのアクセスを正確に制御できます。詳しくは、IAM によるアクセス制御をご覧ください。
-
Imagen
- Imagen は、Vertex AI プラットフォームで利用できるテキスト画像変換の生成 AI サービスです。ユーザーは、新しい画像の生成、画像の編集、スタイルや被写体モデルのファインチューニング、画像のキャプション付け、画像コンテンツに関する質問への回答の取得を行うことができます。詳細については、Vertex AI の Imagen の概要をご覧ください。
-
画像認識
- 画像認識とは、画像内のオブジェクト、パターン、コンセプトを分類するプロセスです。これは画像分類とも呼ばれます。画像認識は、ML およびコンピュータ ビジョンのサブフィールドです。
-
インデックス
- 類似度検索でまとめてデプロイされるベクトルの集合。ベクトルはインデックスに追加することも、インデックスから削除することもできます。類似性検索クエリは特定のインデックスに対して発行され、そのインデックス内のベクトルが検索されます。
-
推論
- Vertex AI プラットフォームの文脈では、推論とは、データポイントを ML モデルに入力して、単一の数値スコアなどの出力を計算するプロセスを指します。このプロセスは、「ML モデルの運用」または「本番環境への ML モデルのデプロイ」とも呼ばれます。モデルを使用して新しいデータの推論を行うことができるという点で、推論は、ML ワークフローの重要なステップです。Vertex AI では、バッチ推論やオンライン推論など、さまざまな方法で推論を実行できます。バッチ推論では、推論リクエストのグループを実行して、結果を 1 つのファイルに出力します。一方、オンライン推論では、個々のデータポイントに対してリアルタイムの推論を行えます。
-
情報検索(IR)
- 情報検索(IR)は Vertex AI Search の重要なコンポーネントです。大量のデータから関連情報を検索して取得するプロセスです。Vertex AI の文脈では、IR はユーザーのクエリに基づいてコーパスからドキュメントを取得することに使われます。Vertex AI には、独自の検索拡張生成(RAG)アプリケーションや独自の検索エンジンの構築に役立つ API スイートが用意されています。詳細については、RAG Engine を使用して Vertex AI Search を検索バックエンドとして使用するをご覧ください。
-
Infrastructure as Code(IaC)
- Infrastructure as Code。チームがコードを通じてサービスを管理およびプロビジョニングできる IT インフラストラクチャを管理するアプローチ。IaC では、インフラストラクチャの仕様を含む構成ファイルが作成されるため、大規模なインフラストラクチャの作成と編集が容易になります。
-
学習率(ステップサイズ)
- 学習率は、ML モデルの最適化プロセスを調整するために使用されるハイパーパラメータです。トレーニング中にモデルが重みを更新するステップサイズを決定します。学習率が高いほど収束が早くなりますが、不安定化や過学習につながる可能性があります。逆に、学習率を下げると収束が遅くなるとしても、過学習を防げる可能性があります。詳細については、ハイパーパラメータ チューニングの概要をご覧ください。
-
損失(コスト)
- 教師ありモデルのトレーニングで、モデルの推論がラベルからどのくらい離れているかを表す指標。損失関数では損失が計算されます。
-
マネージド データセット
- Vertex AI で作成、ホストされるデータセット オブジェクト。
-
モデル
- 事前トレーニング済みか否かを問わない、あらゆるモデル。一般に、入力データを処理して出力を返す数学的構造を指します。別の言い方をすれば、モデルとは、システムが推論を行うために必要なパラメータと構造のセットです。
-
モデル蒸留(知識蒸留、教師 / 生徒モデル)
- モデル蒸留は、小規模な生徒モデルが大規模な教師モデルから学習できるようにする手法です。教師モデルの出力を模倣するようにトレーニングされた生徒モデルは、新しいデータの生成や推論に使用できます。モデル蒸留は、大規模モデルの効率化や、リソースが限られたデバイスでのアクセスを容易にするためによく使用されます。また、過学習を減らしてモデルの汎化性能を向上させるためにも利用できます。
-
モデル モニタリング
- Vertex AI Model Monitoring は、予測リクエストの特徴のスキューとドリフトを検出して、デプロイされたモデルのパフォーマンスを継続的に評価するサービスです。これにより、モデルの品質を長期にわたって維持できます。詳細については、Vertex AI Model Monitoring の概要をご覧ください。
-
モデルリソース名
model
のリソース名はprojects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
です。モデルの ID は、Cloud コンソールの [Model Registry] ページで確認できます。
-
ネットワーク ファイル システム(NFS)
- ユーザーがネットワーク経由でファイルにアクセスし、ファイルをローカル ファイル ディレクトリにあるかのように扱えるクライアント/サーバー システム。詳細については、カスタム トレーニング用の NFS 共有をマウントするをご覧ください。
-
ワンホット エンコード
- ワンホット エンコードでは、各カテゴリが N 個の要素(N はカテゴリの数)のベクトルとして表されます。このベクトルでは、1 つの要素の値が 1.0 で、残りの要素の値が 0.0 になります。詳細については、ワンホット エンコードをご覧ください。
-
ワンショット プロンプト
- 大規模言語モデルにどのように回答すればよいかを示す例を 1 つ含むプロンプト。詳細については、ワンショット プロンプトをご覧ください。
-
パラメータ
- パラメータは、実行を構成し、実行の動作を調整して、実行の結果に影響を与えるキー付きの入力値です。例としては、学習率、ドロップアウト率、トレーニングの手順の数などがあります。
-
パープレキシティ
- パープレキシティは、言語モデルのパフォーマンスを評価するのに使用される指標です。これにより、トレーニングに使用したテキストの分布に基づいて、モデルが特定のテキスト シーケンスを生成する確率を測定します。パープレキシティは、言語モデルの評価によく使用される指標であり、多くの場合、さまざまなモデルのパフォーマンスの比較や、トレーニング中のモデルの進捗状況の追跡に使用されます。
-
パイプライン
- ML パイプラインは移植可能でスケーラブルなコンテナベースの ML ワークフローです。 詳細については、Vertex AI Pipelines の概要をご覧ください。
-
パイプライン ジョブ
- パイプライン ジョブやパイプライン実行は、Vertex AI API の PipelineJob リソースに対応しています。これは、ML パイプライン定義の実行インスタンスです。ML パイプライン定義は、入出力の依存関係で相互接続された一連の ML タスクとして定義されます。
-
パイプライン実行
- 1 つのテストに 1 つ以上の Vertex PipelineJob を関連付けることができ、各 PipelineJob は単一の実行として表されます。このコンテキストで、実行のパラメータは PipelineJob のパラメータによって推定されます。指標は、その PipelineJob によって生成された system.Metric アーティファクトから推定されます。実行のアーティファクトは、その PipelineJob によって生成されたアーティファクトから推定されます。
-
プライベート サービス アクセス
- プライベート サービス アクセスは、Virtual Private Cloud(VPC)ネットワークと Google またはサードパーティ サービス プロバイダが所有するネットワークとのプライベート接続です。これにより、VPC ネットワーク内の仮想マシン(VM)インスタンスは、内部 IP アドレスを使用してこれらのサービスと通信できるため、公共のインターネットに公開する必要がなくなります。詳細については、プライベート サービス アクセスをご覧ください。
-
プロンプト
- プロンプトとは、回答を受け取るために言語モデルに送信する自然言語のリクエストを指します。プロンプトには、質問、指示、コンテキスト情報、少数ショットの例、さらにはモデルが完了または続行する部分入力を含めることができます。モデルはプロンプトを受け取った後、そのモデルのタイプに応じて、テキスト、エンベディング、コード、画像、動画、音楽などを生成できます。詳細については、プロンプト戦略の概要をご覧ください。
-
プロンプト エンジニアリング(プロンプト設計)
- 生成 AI のプロンプト エンジニアリングは、大規模言語モデル(LLM)から望ましい出力を引き出すのに効果的なプロンプトを作成するプロセスです。これは、特定の結果を得るために入力を調整することに重点を置いた、反復的なテスト主導型のプロセスです。これには、正確で質の高い回答を確保するために、プロンプトのコンテンツと構造の両方を検討することが含まれます。単純なタスクでは必要のない場合があるとしても、複雑なタスクでは効果的なプロンプト エンジニアリングが大変重要です。目標は、LLM ベースのアプリケーションのプロトタイプをすばやく作成することです。詳細については、プロンプト エンジニアリングの概要をご覧ください。
-
プロンプト チューニング
- プロンプト チューニングは、特定のタスクにおける生成 AI モデルのパフォーマンスを改善するために使用される、パラメータ エフィシエント ファインチューニング手法です。実際のプロンプトの先頭に追加される「接頭辞」を学習することなどが含まれます。場合によっては、すべてのレイヤで学習します。この方法は、他のチューニング手法よりも費用と時間をかけずに、多くの場合、良好な結果が得られると考えられています。プロンプト チューニングは、特定のタスクがあり、モデルにそのタスクを特定の方法で実行させたい場合に特に効果的です。プロンプト学習や パラメータ エフィシエント(ファイン)チューニングとも呼ばれます。詳細については、プロンプト エンジニアリングの概要をご覧ください。
-
プロビジョンド スループット(PT)
- プロビジョンド スループット(PT)は、Vertex AI の生成 AI モデル向けのプレミアム サービスです。容量保証と予測可能な料金により、保証型のエクスペリエンスを提供します。従量課金制(オンデマンド)オプションとは異なり、PT では専用の割り当てを購入できるため、モデル容量についてのリクエストが他者のリクエストと競合することはありません。PT は、指定したモデルとロケーションのスループットを予約する、固定月額料金または週単位のサブスクリプションです。詳細については、プロビジョンド スループットの概要をご覧ください。
-
量子化
- 量子化は、モデルのパラメータを表すのに使用される数値の精度を落とすために使用されるモデル最適化手法です。これにより、モデルのサイズが小さくなり、消費電力が低下し、推論レイテンシが短縮されます。
-
ランダム フォレスト
- ランダム フォレストは、分類と回帰の両方に使用される ML アルゴリズムです。これは、生成 AI モデル自体ではありませんが、大規模な生成 AI システム内で使用できるコンポーネントです。ランダム フォレストは複数のディシジョン ツリーで構成され、その推論は個々のディシジョン ツリーの推論を集約したものです。たとえば、分類タスクでは、各ツリーがクラスに「投票」し、投票数が最も多いクラスが最終的な推論になります。詳細については、デシジョン フォレストをご覧ください。
-
Vertex AI の Ray クラスタ
- Vertex AI の Ray クラスタは、分散 ML と Python アプリケーションの実行に使用できるコンピューティング ノードのマネージド クラスタです。ML ワークフローの分散コンピューティングと並列処理を実行するためのインフラストラクチャを提供します。Ray クラスタは、重要な ML ワークロードやピークシーズンに十分な容量を確保するために Vertex AI に組み込まれています。ジョブが完了するとトレーニング サービスからリソースが解放されるカスタムジョブとは異なり、Ray クラスタは削除されるまで使用できます。詳細については、Ray on Vertex AI の概要をご覧ください。
-
Ray on Vertex AI(RoV)
- Ray on Vertex AI は、同じオープンソースの Ray コードを使用して、最小限の変更でプログラムを作成し、Vertex AI でアプリケーションを開発できるように設計されています。詳細については、Ray on Vertex AI の概要をご覧ください。
-
Ray on Vertex AI SDK for Python
- Ray on Vertex AI SDK for Python は、Ray Client、Ray BigQuery コネクタ、Vertex AI での Ray クラスタ管理、Vertex AI での推論の機能が含まれているバージョンの Vertex AI SDK for Python です。詳細については、Vertex AI SDK for Python の概要をご覧ください。
-
再現率
- インデックスによって返された正しい最近傍の割合。たとえば、20 個の最近傍に対する最近傍のクエリで、グラウンド トゥルースの最近傍が 19 個返された場合、再現率は 19÷20×100 = 95% となります。
-
レコメンデーション システム
- レコメンデーション システムは、ユーザーが大量のコーパスの中から魅力的なコンテンツを見つけるのをサポートする ML ベースのシステムです。膨大なコーパスの中から候補の小規模なサブセットを生成し、その候補を採点してランク付けを行います。さらに追加の制約を考慮に入れて再ランク付けを行い、最終的なランキングを作成します。詳細については、レコメンデーション システムの概要をご覧ください。
-
正則化
- 正則化は、ML モデルの過学習を防ぐために使用される手法です。過学習は、モデルがトレーニング データを学習しすぎたために、未知のデータに対するパフォーマンスが低下するときに発生します。前述した、正則化の 1 つのタイプが早期停止です。早期停止では、汎化性能の低下を示す、検証データセットの損失が増加し始める前にトレーニングを停止します。詳細については、過学習: L2 正則化をご覧ください。
-
サービス アカウント
- サービス アカウントは、アプリケーションや仮想マシンが Google Cloud サービスに対して承認済みの API 呼び出しを行うために使用する特別な Google Cloud アカウントです。ユーザー アカウントとは異なり、個々のユーザーに関連付けられていませんが、コードの ID として機能し、ユーザーの認証情報を必要とせずにリソースへの安全なプログラムによるアクセスを可能にします。詳細については、サービス アカウントの概要をご覧ください。
-
サービス エージェント
- サービス エージェントは、Google が管理するサービス アカウントを指します。これは、サービスが別のサービスによって作成されたリソースにアクセスする必要がある場合に使用されます。たとえば、Dataflow サービスや Dataproc サービスが実行中にインスタンスを作成する必要がある場合や、Cloud Functions が Key Management Service(KMS)を使用して Cloud Functions の保護を行う場合などです。サービス エージェントは、サービスで必要になると Google Cloud によって自動的に作成されます。通常、リソースへのアクセス管理や、サービスに代わってさまざまなタスクを実行するために使用されます。詳細については、サービス エージェントをご覧ください。
-
サマリー指標
- サマリー指標はテスト実行の各指標キーの単一の値です。たとえば、テストのテスト精度は、トレーニング終了時にテスト データセットに対して計算された精度であり、単一の値のサマリー指標として捕捉できます。
-
TensorBoard
- TensorBoard は、TensorFlow の実行とモデルを可視化して理解するための一連のウェブ アプリケーションです。詳細については、TensorBoard をご覧ください。
-
TensorBoard インスタンス
- TensorBoard インスタンスは、プロジェクトに関連付けられた Vertex AI TensorBoard テストを保存するリージョン リソースです。たとえば、CMEK 対応インスタンスを複数希望する場合は、プロジェクトに複数の TensorBoard インスタンスを作成できます。これは、API の TensorBoard リソースと同じです。
-
TensorBoard リソース名
- TensorBoard リソース名は、Vertex AI TensorBoard インスタンスを完全に識別するために使用されます。形式は projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID です。
-
時間オフセット
- 時間オフセットは、動画の先頭を基準とします。
-
時系列指標
- 時系列指標は長期的な指標値であり、各値は実行のトレーニング ルーチンの部分の手順を表します。時系列指標は Vertex AI TensorBoard に保存されます。Vertex AI Experiments には、Vertex TensorBoard リソースへの参照が保存されます。
-
トークン
- 言語モデルのトークンは、モデルがトレーニングと推論を行う場合の原子単位、つまり単語、形態素、文字です。言語モデル以外のドメインでは、トークンは他の種類の原子単位を表すことができます。たとえば、コンピュータ ビジョンでは、トークンは画像のサブセットとなる場合があります。 詳細については、トークンの一覧表示とカウントをご覧ください。
-
軌跡
- 「軌跡」とは、エージェントまたはモデルがたどった一連のステップまたはアクションを指します。生成モデルの評価でよく使用され、テキスト、コード、その他のコンテンツを生成するモデルの能力が評価されます。生成モデルの評価に使用できる軌跡評価指標には、軌跡の完全一致、軌跡の順序一致、軌跡の順序を問わない一致、軌跡の適合率など、いくつかのタイプがあります。これらの指標では、モデルの出力と人間が生成した参照出力のセットとの類似性が測定されます。
-
Transformer
- 「Transformer」は、ほとんどの最先端の生成モデルの基盤となるニューラル ネットワーク アーキテクチャです。翻訳など、さまざまな言語モデル アプリケーションで使用されています。Transformer はエンコーダとデコーダで構成されています。エンコーダは入力テキストを中間表現に変換し、デコーダはこれを有用な出力に変換します。セルフアテンション機構を使用して、処理対象の単語の周囲の単語からコンテキストを収集します。Transformer のトレーニングには膨大なリソースが必要であり、特定のアプリケーション用に事前トレーニング済みの Transformer をファインチューニングする方が効率的です。
-
Transformer Reinforcement Learning
- Transformer Reinforcement Learning(TRL)とは、強化学習(RL)手法で生成タスク用の Transformer ベースのモデルをトレーニングするアプリケーションを指します。このアプローチは、一貫性、安全性、感度などの望ましい品質を明示的に最適化せずに、次のトークンの推論をトレーニングされることの多い、従来の生成モデルの限界に対処しています。TRL では、RL を使用して複雑な目標に基づいて言語モデルを直接最適化します。多くの場合、学習プロセスの支援に人間のフィードバック(RLHF)が取り入れられています。たとえば、報酬モデルを使用して有害なコンテンツの生成を減らすようにモデルをファインチューニングしたり、TRL を使用して生成モデルの Gemma をファインチューニングしたりします。詳細については、Hugging Face DLC: Vertex AI で Transformer Reinforcement Learning(TRL)を使用して Gemma をファインチューニングするをご覧ください。
-
真陽性
- 「真陽性」とは、モデルが陽性のクラスを正しく識別した推論を指します。たとえば、ジャケットを購入する顧客を特定するようにモデルをトレーニングした場合、真陽性は、顧客がそのような購入を行うことを正しく予測することです。
-
検証
- 検証では、検証セットと比較してモデルの推論の品質を検査します。これには、生成されたコンテンツの品質、速度、指示への準拠、安全性を測定する指標を定義することが含まれます。検証では多くの場合、ラベル付きデータ(入力プロンプトと期待される出力)を使用して、モデルの推論とグラウンド トゥルースとの比較を行います。F1 スコア(分類用)や ROUGE-L スコア(要約用)などの指標を使用できます。このプロセスには、堅牢性を確保するために、エッジケースと異常なシナリオをテストすることも含まれます。デプロイされたモデルで、一般的なデータポイントとエッジケースを継続的にモニタリングしてキャプチャすることで、将来の検証作業を改善できます。
-
ベクトル
- ベクトルとは、テキスト、画像、動画の数値表現であり、入力間の関係を表します。ML モデルは、大規模なデータセット内のパターンを識別してエンベディングを作成することに適しています。アプリケーションでは、言語の処理と生成にエンベディングを使用して、コンテンツに固有の複雑な意味とセマンティックな関係を認識します。詳細については、エンベディング API の概要をご覧ください。
-
Vertex AI Experiments
- Vertex AI Experiments では、次のものを追跡できます。1. テスト実行の手順(前処理、トレーニングなど)。2. 入力(アルゴリズム、パラメータ、データセットなど)。3. それらの手順の出力(モデル、チェックポイント、指標など)。
-
Vertex AI Model Registry
- Vertex AI Model Registry は、ML モデルのライフサイクルを管理できる中央リポジトリです。Vertex AI Model Registry ではモデルの概要を確認できるため、新しいバージョンの整理、追跡、トレーニングの向上が実現します。デプロイするモデル バージョンがある場合は、レジストリから直接エンドポイントに割り当てるか、エイリアスを使用してモデルをエンドポイントにデプロイできます。詳細については、Vertex AI Model Registry の概要をご覧ください。
-
動画セグメント
- 動画セグメントは、動画の開始時間と終了時間のオフセットで識別されます。
-
Virtual Private Cloud(VPC)
- Virtual Private Cloud は、パブリック クラウド環境に割り当てられた共有コンピューティング リソースのオンデマンド形式の構成可能なプールであり、リソースを使用してさまざまな組織を分離できます。
-
ワード エンベディング
- ワード エンベディングは、単語を浮動小数点値の密なベクトルとして表現する方法です。これにより、類似した単語に類似したエンコードを割り当てることができます。ワード エンベディングは、生成 AI で単語間の関係を捉えて新しいテキストやコードを生成するためによく使用されます。生成 AI では、ワード エンベディングを使用して、新しいテキストやコードを生成できるモデルをトレーニングできます。生成 AI モデルは単語間の関係を把握することで、一貫性と関連性を兼ね備えた新しいコンテンツを生成できます。
-
ゼロショット プロンプト(直接プロンプト)
- 生成 AI におけるゼロショット プロンプトは、追加のトレーニングや例なしに、大規模言語モデル(LLM)がタスクを実行できるようにするプロンプトです。これは、モデルに入力と出力の例を提供する少数ショット プロンプトなどの手法とは対照的です。ゼロショット プロンプトでは、モデルの事前知識のみを使用して回答を生成します。詳細については、ゼロショット プロンプトをご覧ください。