Vertex AI の Imagen は、Google の最先端の生成 AI 機能をアプリケーション デベロッパーに提供します。Vertex AI の Imagen は初期段階のテクノロジーで、機能が進化し続けているため、誤適用、不正使用、意図しない結果、予期しない結果が起きる可能性があります。たとえば、Vertex AI の Imagen では、不適切な画像、配慮に欠ける画像、コンテキスト上正しくない画像など、予期しない出力が生成される可能性があります。
こうしたリスクと複雑さを考慮して、Vertex AI の Imagen は Google の AI の原則を念頭に置いて設計されています。ただし、デベロッパーがモデルを理解し、テストして、安全かつ責任を持ってデプロイすることが重要です。デベロッパーを支援するため、Vertex AI の Imagen には、お客様がユースケース内で有害な可能性がある出力をブロックできるように、安全フィルタが組み込まれています。詳細については、安全フィルタのセクションをご覧ください。
Vertex AI の Imagen をお客様固有のユースケースやコンテキストに統合するときは、責任ある AI に関する追加の考慮事項とモデルの制限を考慮する必要があります。お客様には、公平性、解釈可能性、プライバシー、セキュリティの推奨プラクティスを促進することをおすすめします。
Imagen の使用上のガイドライン
Vertex AI で Imagen を使用する前に、次のプロダクトの一般的な属性と法律上の考慮事項をお読みください。
- 画像およびテキストのフィルタと出力: Vertex AI の Imagen で生成またはアップロードされた画像が、安全フィルタと照らし合わせて評価されます。Imagen は、Google の利用規定(AUP)または生成 AI のその他のプロダクトに関する制限に違反する(生成またはアップロードされた)ものを除外することを目的としています。また、Google の画像生成モデルは、独自のコンテンツを生成することを目的としており、既存のコンテンツを複製するものではありません。Google のシステムは、このような問題が発生する可能性を抑えるように設計されており、今後もこれらのシステムの動作は改善されます。すべてのクラウド サービス プロバイダと同様に、Google は利用規定を設け、第三者の知的財産権を侵害するような方法で Google のサービスを使用することを禁止しています。
- 人物生成のサポート開始: この機能では、フォトリアリスティックな合成された顔を生成できますが、有名人の生成はサポートしていません。合成された顔が個人に似ている場合があるため、ご注意ください。この機能による出力内容が不適切であると思われる場合は、Vertex AI での生成 AI の概要に記載されている不正行為報告メカニズムを使用して報告してください。
- 子どもの顔の生成: この機能を使用すると、承認された一部のユーザーは、写真のようにリアルな合成された子どもの顔を生成できます。この機能を使用可能にすることをリクエストするには、Google Cloud アカウント チームにお問い合わせください。
- 構成可能な安全フィルタのしきい値: Google は、特定の安全性属性に対して指定された信頼スコアを超えるモデルの応答をブロックします。安全性のしきい値を変更可能にすることをリクエストするには、Google Cloud アカウント チームにお問い合わせください。
- 特定のモデル バージョンでサポートされているテキスト追加: Imagen で
imagegeneration@004
以前のモデル バージョンを使用する場合、テキスト プロンプトを使用した(アップロードまたは生成された)画像にテキストを追加することはできません。 - 不正使用の疑いを報告: Vertex AI での Imagen の不正使用の疑いがある場合や、生成された出力に不適切な内容や不正確な情報が含まれている場合は、不正行為が疑われる Google Cloud の報告フォームを使用して報告できます。
- Trusted Tester プログラムのオプトアウト: Trusted Tester プログラムの利用規約の一環として、一般提供前の AI / ML サービスの改善を目的としてお客様のデータの使用を Google に許可されていた場合は、Trusted Tester プログラム - オプトアウト リクエスト フォームを使用してオプトアウトできます。
安全フィルタ
Vertex AI の Imagen で入力および画像(生成またはアップロードされたもの)として提供されるテキスト プロンプトは、「有害なカテゴリ」(たとえば、violence
、sexual
、derogatory
、toxic
など)を含む安全フィルタのリストと照らし合わせて評価されます。これらの安全フィルタは、Google の利用規定(AUP)、生成 AI の不正使用に関するポリシー、AI に関する原則に違反する(生成またはアップロードされた)コンテンツを除外することを目的としています。
リクエストに対して「プロンプトを送信できませんでした」や「ポリシーに違反している可能性があります」などのエラー メッセージが返された場合は、入力に対して安全フィルタがトリガーされています。リクエストした画像より少ない画像が返された場合、安全性要件を満たしていないため、生成された一部の出力がブロックされています。
safetySetting
パラメータを調整することで、機密コンテンツのフィルタの強度を選択できます。
安全性属性
安全性属性と安全フィルタは 1 対 1 の対応になっていません。安全性属性は、includeSafetyAttributes
が設定されている場合にユーザーに返される属性のセットです。安全フィルタは、コンテンツをフィルタリングするために使用されるフィルタのセットです。すべての安全性属性カテゴリでフィルタリングされるわけではありません。たとえば、安全性属性カテゴリが「健康」でも、健康に関する信頼スコアに基づいてコンテンツのフィルタリングは行われません。また、機密性に関する内部安全フィルタの中には、信頼スコアが公開されないものもあります。
安全フィルタを構成する
画像生成モデルで使用できる安全フィルタリング パラメータは複数あります。たとえば、ブロックされたコンテンツの安全性フィルタコードをモデルに報告させることができます。また、人や顔の生成を無効にしたり、コンテンツ フィルタリングの感度を調整したり、入出力の安全性属性リストの四捨五入された安全性スコアを返すこともできます。個々のフィールドに関する技術的な詳細については、画像生成モデル API リファレンスをご覧ください。
レスポンスは、設定したパラメータによって異なります。パラメータによっては、生成されるコンテンツに影響するものもあれば、コンテンツのフィルタリングやフィルタリングが報告される方法に影響するものもあります。出力形式は、入力データをフィルタするのか、生成された画像出力をフィルタするのかによって変わります。
コンテンツをフィルタするパラメータ
次のオプション パラメータは、コンテンツのフィルタリングまたはフィルタリングの結果の報告方法に影響します。
safetySetting
* - 機密情報を含む可能性のある出力コンテンツをフィルタする際の積極性を設定できます。includeRaiReason
- フィルタされた出力に関する詳細情報を提供します。personGeneration
- 人物、顔、子供の画像生成をより細かく制御できる設定。disablePersonFace
- 非推奨。人物と顔の生成を許可するかどうかの選択。代わりにpersonGeneration
を設定してください。includeSafetyAttributes
- 入力テキスト、入力画像(編集用)、生成されたすべての画像の完全な安全性属性情報を提供します。この情報には、安全性カテゴリ("Firearms & Weapons"
、"Illicit Drugs"
、"Violence"
など)と信頼スコアが含まれます。
* imagegeneration@006
モデルでのみ利用できます。
フィルタされた入力
テキスト入力または入力画像(編集用)がフィルタされると、400
エラーコードを含むレスポンスが返されます。includeRaiReason
または includeSafetyAttributes
を設定した場合、RAI でフィルタされた入力を含むリクエストは、この出力形式を返します。
出力は、使用するモデル バージョンによって異なります。以下に、フィルタリングされた場合の出力をモデル バージョンごとに示します。
モデル
{ "error": { "code": 400, "message": "Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback." "status": "INVALID_ARGUMENT", "details": [ { "@type": "type.googleapis.com/google.rpc.DebugInfo", "detail": "[ORIGINAL ERROR] generic::invalid_argument: Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback. [google.rpc.error_details_ext] { message: \"Image editing failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback. Support codes: 42876398\" }" } ] } }
モデル
{ "error": { "code": 400, "message": "Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback.", "status": "INVALID_ARGUMENT", "details": [ { "@type": "type.googleapis.com/google.rpc.DebugInfo", "detail": "[ORIGINAL ERROR] generic::invalid_argument: Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback. [google.rpc.error_details_ext] { message: \"Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google\\'s Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback.\" }" } ] } }
フィルタされた出力
フィルタされた出力の内容は、設定した RAI パラメータによって異なります。次の出力例は、includeRaiReason
パラメータと includeSafetyAttributes
パラメータを使用した場合の結果を示しています。
includeRaiReason
でフィルタリングされた出力
includeRaiReason
を追加しない場合、または includeRaiReason: false
を設定しない場合、レスポンスにはフィルタされていない生成された画像オブジェクトのみが含まれます。フィルタされたイメージ オブジェクトは、"predictions": []
配列から除外されます。たとえば、"sampleCount": 4
を含むリクエストに対するレスポンスは次のようになりますが、2 つの画像はフィルタされた結果、省略されます。
{ "predictions": [ { "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]Ct+F+1SLLH/2+SJ4ZLdOvg//Z" } ], "deployedModelId": "MODEL_ID" }
includeRaiReason: true
を設定していくつかの出力画像をフィルタすると、レスポンスには、生成された出力オブジェクトとフィルタされた出力画像用の raiFilteredReason
オブジェクトが含まれます。たとえば、"sampleCount": 4
と includeRaiReason: true
を含むリクエストに対するレスポンスは次のようになりますが、2 つの画像がフィルタされています。したがって、2 つのオブジェクトには生成された画像情報が含まれ、もう 1 つのオブジェクトにはエラー メッセージが含まれます。
モデル
{ "predictions": [ { "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]Ct+F+1SLLH/2+SJ4ZLdOvg//Z" }, { "raiFilteredReason": "Your current safety filter threshold filtered out 2 generated images. You will not be charged for blocked images. Try rephrasing the prompt. If you think this was an error, send feedback." }, ], "deployedModelId": "MODEL_ID" }
モデル
{ "predictions": [ { "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]Ct+F+1SLLH/2+SJ4ZLdOvg//Z" }, { "raiFilteredReason": "56562880" }, { "raiFilteredReason": "56562880" } ], "deployedModelId": "MODEL_ID" }
includeSafetyAttributes
でフィルタリングされた出力
"includeSafetyAttributes": true
を設定した場合、レスポンスの "predictions": []
配列には、肯定的なプロンプトのテキスト安全性属性の RAI スコア(小数点第 1 位に四捨五入される)が含まれます。画像の安全性属性も、フィルタされていない各出力に追加されます。出力画像がフィルタリングされた場合、その安全性属性は返されません。たとえば、フィルタされていないリクエストに対するレスポンスは次のようになり、1 つの画像が返されます。
{
"predictions": [
{
"bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=",
"mimeType": "image/png",
"safetyAttributes": {
"categories": [
"Porn",
"Violence"
],
"scores": [
0.1,
0.2
]
}
},
{
"contentType": "Positive Prompt",
"safetyAttributes": {
"categories": [
"Death, Harm & Tragedy",
"Firearms & Weapons",
"Hate",
"Health",
"Illicit Drugs",
"Politics",
"Porn",
"Religion & Belief",
"Toxic",
"Violence",
"Vulgarity",
"War & Conflict"
],
"scores": [
0,
0,
0,
0,
0,
0,
0.2,
0,
0.1,
0,
0.1,
0
]
}
},
],
"deployedModelId": "MODEL_ID"
}
安全フィルタのコードカテゴリ
構成する安全フィルタによっては、出力に次のような安全理由コードが含まれる場合があります。
{ "raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"" }
表示されるコードは、特定の有害なカテゴリに対応しています。コードとカテゴリのマッピングは次のとおりです。
エラーコード | 安全性のカテゴリ | 説明 | コンテンツがフィルタされた: プロンプトの入力または画像の出力 |
---|---|---|---|
58061214 17301594 |
子ども向け | API リクエストの設定または許可リストにより許可されていない場合、子ども向けコンテンツを検出します。 | 入力(プロンプト): 58061214 出力(画像): 17301594 |
29310472 15236754 |
有名人 | リクエストで指定された有名人のフォトリアリスティックな表現を検出します。 | 入力(プロンプト): 29310472 出力(画像): 15236754 |
62263041 | 危険なコンテンツ | 本質的に危険な可能性のあるコンテンツを検出します。 | 入力プロンプト |
57734940 22137204 |
悪意のあるコンテンツ | ヘイト関連のトピックやコンテンツを検出します。 | 入力(プロンプト): 57734940 出力(画像): 22137204 |
74803281 29578790 42876398 |
その他 | リクエストに関するその他の安全性に関する問題を検出します。 | 入力(プロンプト): 42876398、出力(画像): 29578790、74803281 |
39322892 | 人物 / 顔 | リクエストの安全性設定で許可されていないときに、人物や顔を検出します。 | 出力(画像) |
92201652 | 個人情報 | テキスト内の個人情報(PII)を検出します。たとえば、クレジット カード番号、自宅の住所、その他の個人情報の記載を検出します。 | 入力プロンプト |
89371032 49114662 72817394 |
禁止コンテンツ | リクエストで禁止コンテンツのリクエストを検出します。 | 入力(プロンプト): 89371032 出力(画像): 49114662、72817394 |
90789179 63429089 43188360 |
性的 | 性的なコンテンツを検出します。 | 入力(プロンプト): 90789179 出力(画像): 63429089、43188360 |
78610348 | 有害 | テキスト内の有害なトピックやコンテンツを検出します。 | 入力プロンプト |
61493863 56562880 |
暴力 | 画像またはテキストから暴力関連のコンテンツを検出します。 | 入力(プロンプト): 61493863 出力(画像): 56562880 |
32635315 | 下品 | テキストから下品なトピックやコンテンツを検出します。 | 入力プロンプト |
制限事項
タスクごとに次の上限が適用されます。
画像生成の制限事項
- バイアス増幅: Vertex AI の Imagen は高品質の画像を生成できますが、生成されたコンテンツには潜在的なバイアスが含まれる可能性があります。生成される画像は、商品のトレーニング データに依存します。このデータには、固定観念を助長したり、特定のグループに対する差別を助長したりする可能性があるバイアスが意図せずに含まれている可能性があります。出力が Google の利用規定とユースケースに沿っていることを確認するには、慎重なモニタリングと評価が必要です。
- 透明性と開示: AI が生成した画像と、AI 以外が生成した画像とを、ユーザーが区別するのは難しい場合があります。ユースケースで AI 生成画像を使用するときは、透明性を確保し、プロセスの信頼性を維持するため、画像が AI システムによって生成されたことをユーザーに対して明確に開示することが重要です。Google は、誤った情報のリスクに対処するために、また AI に対する責任あるアプローチの一環として、AI が生成した画像にメタデータのラベル付けを適用しています。
- 不十分なコンテキスト: Vertex AI の Imagen が、ユースケース内のすべての状況や対象オーディエンスに適した画像を生成するために必要なコンテキストを理解していないことがあります。生成された画像が、選択したコンテキスト、目的、対象ユーザーに沿っていることを確認してください。
画像編集の制限事項
- 不実表示と真正性: Vertex AI で Imagen を使用して画像を編集すると、画像の不実表示や操作が行われ、虚偽のコンテンツや誤解を招くコンテンツが作成される可能性があります。編集プロセスは、編集される画像の真正性と信頼性を損なわないよう、責任を持って使用することが重要です。Google は、誤った情報のリスクに対処するために、また AI に対する責任あるアプローチの一環として、AI で編集した画像にメタデータのラベル付けを適用しています。
映像字幕の制限事項
- 精度とコンテキスト感度: 映像字幕では、複雑な画像やあいまいな画像を正確に記述することが難しい場合があります。生成される説明は、常に映像コンテンツの完全なコンテキストやニュアンスを反映しているとは限りません。自動字幕起こしシステムには、複雑さの程度が異なる画像を理解するうえで限界があるため、特に批判的またはデリケートな状況では、説明の使用に注意する必要があります。
- あいまいさと主観的な解釈: 画像にはさまざまな解釈が可能なことが多く、生成される字幕は人間の理解や期待と一致しないこともあります。画像について受け止め方や説明は、個人の主観的な経験や文化的背景によって異なる可能性があります。画像の説明では、あいまいさや主観の可能性を考慮し、必要に応じてコンテキストや別の解釈を追加することが重要です。
- ユーザー補助に関する考慮事項: 画像の自動字幕起こしによって、視覚障がいのある方向けの説明を提供することでユーザー補助をサポートできますが、特定のユーザー補助のニーズに合わせてカスタマイズされた、人間による代替テキストや説明の代わりにはならないこともある点に注意してください。自動字幕起こしには、特定のユーザー補助のユースケースに必要な、詳細レベルやコンテキストへの理解が欠けていることがあります。
視覚的な質問応答(VQA)の制限事項
- 過度の信頼度と不確実性: VQA モデルは、正解が不確実またはあいまいな場合でも、根拠のない信頼を基に回答することがあります。あいまいな部分があるときは、回答が確実だという虚偽を伝えるのではなく、モデルが不確実であることを明確に伝え、適切な信頼スコアや代替の回答を提供する必要があります。
おすすめのヒント
このテクノロジーを安全かつ責任を持って利用するには、組み込まれている技術的な安全保護対策に加えて、ユースケース、ユーザー、ビジネス コンテキストに固有の他のリスクも考慮することが重要です。
次の手順を行うことをおすすめします。
- アプリケーションのセキュリティ リスクを評価する。
- 安全性のリスクを軽減するための調整を検討する。
- ユースケースに適した安全性テストを実施する。
- ユーザーからのフィードバックを求め、コンテンツをモニタリングする
責任ある AI に関するその他のリソース
- 大規模言語モデル(LLM)用の責任ある AI について学ぶ。
- 責任ある AI への取り組みに関する Google の推奨事項について学ぶ。
- Google のブログ、責任ある AI の進展に関する共有アジェンダを読む。
Vertex AI の Imagen についてフィードバックを返す
受け取った出力やレスポンスが不正確、または安全でないと思われる場合は、フィードバックを送信して Google にお知らせください。お寄せいただいたフィードバックは、Vertex AI の Imagen と AI に関する Google の広範な取り組みの改善に活用させていただきます。
フィードバックは人が読む可能性があるため、個人情報や機密情報を含むデータは送信しないでください。