Vertex AI で生成 AI のモデルの根拠づけを行うには、いくつかの前提条件を満たす必要があります。その条件とは、Vertex AI Search データソースを作成すること、データストアの Enterprise エディションを有効にすること、Vertex AI Search でデータストアとアプリを紐付けることなどです。データソースは、Vertex AI で text-bison
と chat-bison
を根拠づけるための基盤として機能します。
Vertex AI Search を使用すると、指定するデータに基づく高品質の検索やレコメンデーションを簡単に開始できます。Vertex AI Search に関するつづきは、Vertex AI Search の概要をご覧ください。
Vertex AI Search を有効にする
Google Cloud コンソールで、[検索と会話] ページに移動します。
利用規約を読んで同意し、[続行して API を有効にする] をクリックします。
Vertex AI Search でデータストアを作成する
モデルをソースデータにグラウンディングするには、データを準備して Vertex AI Search に保存する必要があります。これを行うには、Vertex AI Search でデータストアを作成する必要があります。
ゼロから始める場合は、Vertex AI Search への取り込み用にデータを準備する必要があります。開始するには、取り込むデータを準備するをご覧ください。取り込みには、データのサイズに応じて、数分から数時間かかることがあります。根拠づけには、非構造化データストアのみサポートされています。取り込むデータを準備したら、検索データストアを作成できます。データストアが正常に作成されたら、それに結びつけるる検索アプリを作成し、Enterprise エディションを有効にします。
text-bison
モデルを根拠づける
根拠づけは text-bison
モデルと chat-bison
モデルで使用できます。次の例では、text-bison
基盤モデルを使用します。
API を使用する場合は、predict の呼び出し時に text-bison
を根拠づけします。これを行うには、オプションの groundingConfig
を追加し、データストアの場所とデータストア ID を参照します。
データストア ID がわからない場合は、次の操作を行います。
- Google Cloud コンソールで [Vertex AI Search] ページに移動し、ナビゲーション メニューで [データストア] をクリックします。[データストア] ページに移動
- データストアの名前をクリックします。
- データストアの [データ] ページで、データストア ID を取得します。
REST
Vertex AI API を使用してテキスト プロンプトをテストするには、パブリッシャー モデル エンドポイントに POST リクエストを送信します。
リクエストのデータを使用する前に、次のように置き換えます。
- PROJECT_ID: 実際のプロジェクト ID。
- PROMPT: プロンプトとは、レスポンスを受け取るために言語モデルに送信される自然言語リクエストのことです。プロンプトには、モデルを完了または続行するための質問、手順、コンテキスト情報、例、テキストを含めることができます(ここでは、プロンプトを引用符で囲まないでください)。
- TEMPERATURE: 温度は、
topP
とtopK
が適用された場合に発生するレスポンス生成時のサンプリングに使用されます。温度は、トークン選択のランダム性の度合いを制御します。温度が低いほど、確定的で自由度や創造性を抑えたレスポンスが求められるプロンプトに適しています。一方、温度が高いと、より多様で創造的な結果を導くことができます。温度が0
の場合、確率が最も高いトークンが常に選択されます。この場合、特定のプロンプトに対するレスポンスはほとんど確定的ですが、わずかに変動する可能性は残ります。モデルが返すレスポンスが一般的すぎる、短すぎる、あるいはフォールバック(代替)レスポンスが返ってくる場合は、温度を高く設定してみてください。
- MAX_OUTPUT_TOKENS: レスポンスで生成できるトークンの最大数。1 トークンは約 4 文字です。100 トークンは約 60~80 語に相当します。
レスポンスを短くしたい場合は小さい値を、長くしたい場合は大きい値を指定します。
- TOP_P: Top-P は、モデルが出力用にトークンを選択する方法を変更します。トークンは、確率の合計が Top-P 値に等しくなるまで、確率の高いもの(Top-K を参照)から低いものへと選択されます。たとえば、トークン A、B、C の確率が 0.3、0.2、0.1 であり、トップ P 値が
0.5
であるとします。この場合、モデルは温度を使用して A または B を次のトークンとして選択し、C は候補から除外します。ランダムなレスポンスを減らしたい場合は小さい値を、ランダムなレスポンスを増やしたい場合は大きい値を指定します。
- TOP_K: Top-K は、モデルが出力用にトークンを選択する方法を変更します。Top-K が
1
の場合、次に選択されるトークンは、モデルの語彙内のすべてのトークンで最も確率の高いものであることになります(グリーディ デコードとも呼ばれます)。Top-K が3
の場合は、最も確率が高い上位 3 つのトークンから次のトークン選択されることになります(温度を使用します)。トークン選択のそれぞれのステップで、最も高い確率を持つ Top-K のトークンがサンプリングされます。その後、トークンはトップ P に基づいてさらにフィルタリングされ、最終的なトークンは温度サンプリングを用いて選択されます。
ランダムなレスポンスを減らしたい場合は小さい値を、ランダムなレスポンスを増やしたい場合は大きい値を指定します。
- SOURCE_TYPE: モデルの根拠となるデータソースのタイプ。Vertex AI Search のみがサポートされています。
- VERTEX_AI_SEARCH_DATA_STORE: Vertex AI Search データストア ID パス。
VERTEX_AI_SEARCH_DATA_STORE は次の形式を使用する必要があります。ロケーションとコレクションには、指定された値を使用します:
projects/{project_id}/locations/global/collections/default_collection/dataStores/{data_store_id}
注: このデータストア ID パスのプロジェクト ID は、Vertex AI Search のプロジェクト ID です。
HTTP メソッドと URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/text-bison:predict
リクエストの本文(JSON):
{ "instances": [ { "prompt": "PROMPT"} ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "topP": TOP_P, "topK": TOP_K, "groundingConfig": { "sources": [ { "type": "VERTEX_AI_SEARCH", "vertexAiSearchDatastore": "VERTEX_AI_SEARCH_DATA_STORE" } ] } } }
リクエストを送信するには、次のいずれかのオプションを選択します。
curl
リクエスト本文を request.json
という名前のファイルに保存して、次のコマンドを実行します。
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/text-bison:predict"
PowerShell
リクエスト本文を request.json
という名前のファイルに保存して、次のコマンドを実行します。
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/text-bison:predict" | Select-Object -Expand Content
次のような JSON レスポンスが返されます。
コンソール
Vertex AI Studio からモデルを根拠づけするには、次の手順に沿って操作します。
- Model Garden で [PaLM 2 for Text Bison] または [PaLM 2 for Chat Bison] モデルカードを選択します。 Model Garden に移動
- モデルカードから、[プロンプト デザインを開く] をクリックします。Vertex AI Studio が開きます。
- パラメータ パネルから、[詳細] を選択します。
- [根拠づけを有効にする] オプションを切り替え、[カスタマイズ] を選択します。
- 根拠づけ元のプルダウンから、[Vertex AI Search] を選択します。
- Vertex AI Search データストア パスを入力します。パスは
projects/{project_id}/locations/global/collections/default_collection/dataStores/{data_store_id}
の形式にする必要があります。 - プロンプトを入力して、[Submit] をクリックします。
Python
Vertex AI SDK for Python のインストールまたは更新の方法については、Vertex AI SDK for Python をインストールするをご覧ください。 詳細については、Python API リファレンス ドキュメントをご覧ください。
次のステップ
- チャット プロンプト リクエストの送信方法を学習する。
- 責任ある AI のベスト プラクティスと Vertex AI の安全フィルタについて学習する。
- Gemini モデルをグラウンディングする方法については、Gemini モデルのレスポンスの根拠づけを行うをご覧ください。