Vertex AI 中的 Imagen 具備 Google 最先進的生成式 AI 功能,Imagen on Vertex AI 仍處於早期階段,隨著功能和用途不斷演進,可能會出現誤用、濫用,以及意料之外或無法預測的後果。舉例來說,Vertex AI 中的 Imagen 可能會生成非預期的輸出內容,例如令人反感、不恰當或內容不正確的圖片。
考量到這些風險和複雜性,Vertex AI 中的 Imagen 是依據 Google 的 AI 原則設計。不過,開發人員必須瞭解及測試模型,才能安全且負責任地部署模型。為協助開發人員,Vertex AI 中的 Imagen 內建安全篩選器,可協助客戶在目標用途中封鎖可能有害的輸出內容。詳情請參閱「安全篩選機制」一節。
將 Vertex AI 中的 Imagen 整合至客戶的專屬用途和情境時,可能需要考量其他負責任的 AI 考量事項和模型限制。我們建議客戶採用公平性、可解釋性、隱私權和安全性建議做法。
查看 Imagen for Generation 模型資訊卡
查看「Imagen for Editing and Customization」模型資訊卡
Imagen 使用指南
使用 Vertex AI 的 Imagen 前,請先閱讀下列一般產品屬性和法律注意事項。
- 圖片和文字篩選器與輸出內容:系統會根據安全篩選器評估透過 Vertex AI 的 Imagen 生成或上傳的圖片。Imagen 會盡量篩除違反使用限制政策或生成式 AI 產品限制的圖片 (生成或上傳)。此外,我們的生成式圖像模型旨在生成原創內容,而不是複製既有的內容。我們的系統經過特別設計,可降低這類情況發生的機率,運作方式也會持續改善。與所有雲端服務供應商一樣,Google 制定了《可接受的使用政策》,禁止客戶以侵犯第三方智慧財產權的方式使用我們的服務。
- 可設定的安全篩選器門檻:如果特定安全屬性的可信度分數超過指定門檻,Google 就會封鎖模型回覆。如要要求修改安全門檻的權限,請與Google Cloud 帳戶團隊聯絡。
- 特定模型版本支援新增文字:
使用
imagegeneration@004
或更低模型版本時,Imagen 不支援使用文字提示詞,在圖片 (上傳或生成) 中新增文字。 - 檢舉疑似濫用行為: 如果懷疑有人濫用 Vertex AI 的 Imagen,或生成含有不當內容或不實資訊的輸出內容,請使用「檢舉疑似濫用行為 Google Cloud 」表單提出檢舉。
- 退出「信任的測試人員」計畫:如果您先前選擇加入「信任的測試人員」計畫,並允許 Google 依據計畫條款,使用您的資料改善 AI/ML 服務的搶先版,可以填寫這份表單退出計畫。
安全篩選機制
系統會根據安全篩選器清單,評估透過 Vertex AI 上的 Imagen 輸入的文字提示和圖片 (生成或上傳),包括「有害類別」(例如 violence
、sexual
、derogatory
和 toxic
)。這些安全篩選器旨在濾除違反《可接受的使用政策》、《生成式 AI 禁用政策》或《AI 原則》的 (生成或上傳) 內容。
如果模型對要求的回應是錯誤訊息,例如「無法提交提示」或「可能違反政策」,表示輸入內容觸發了安全篩選器。如果系統傳回的圖片數量少於要求,表示部分生成的輸出內容因不符合安全規定而遭到封鎖。
您可以調整 safetySetting
參數,選擇要以多嚴格的方式篩除敏感內容。
安全屬性
安全屬性和安全篩選器並非一對一對應關係。安全屬性是我們在設定 includeSafetyAttributes
時傳回給使用者的一組屬性。安全篩選器是我們用來篩選內容的一組篩選器。我們不會針對所有安全屬性類別進行篩選。舉例來說,針對「健康」安全屬性類別,我們不會根據健康信心分數篩選內容。此外,我們不會公開部分內部敏感安全篩選器的信賴分數。
設定安全篩選機制
您可以使用多個安全篩選參數搭配圖片生成模型。舉例來說,您可以讓模型回報遭封鎖內容的安全過濾器代碼、停用人物或臉孔生成功能、調整內容過濾的敏感度,或是針對輸入和輸出內容,傳回安全屬性清單的四捨五入安全分數。如要進一步瞭解個別欄位的技術資訊,請參閱圖片生成模型 API 參考資料。
回覆內容會因您設定的參數而異;部分參數會影響產生的內容,其他參數則會影響內容篩選和篩選結果的報告方式。此外,輸出格式取決於輸入資料是否經過篩選,或是產生的圖片輸出內容是否經過篩選。
用於篩選內容的參數
下列選用參數會影響內容篩選或篩選結果的顯示方式:
safetySetting
:可設定篩選疑似敏感輸出內容的嚴格程度。includeRaiReason
- 提供篩選輸出內容的詳細資訊。personGeneration
- 這項設定可讓您進一步控管人物、臉部和兒童的生成作業。disablePersonFace
- 已淘汰。選擇是否允許生成人物和臉部。使用者應改為設定personGeneration
。includeSafetyAttributes
- 提供輸入文字、輸入圖片 (用於編輯) 和所有生成圖片的完整安全屬性資訊。這類資訊包括安全類別 (例如"Firearms & Weapons"
、"Illicit Drugs"
或"Violence"
) 和信賴度分數。
篩選後的輸入內容
如果系統篩除您輸入的文字或圖片 (用於編輯),您會收到含有 400
錯誤代碼的回覆。如果您設定 includeRaiReason
或 includeSafetyAttributes
,使用 RAI 篩選輸入內容的要求就會傳回這個輸出格式。
輸出內容取決於您使用的模型版本。以下顯示針對不同模型版本篩選輸入內容時的輸出內容:
模型
{ "error": { "code": 400, "message": "Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback." "status": "INVALID_ARGUMENT", "details": [ { "@type": "type.googleapis.com/google.rpc.DebugInfo", "detail": "[ORIGINAL ERROR] generic::invalid_argument: Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback. [google.rpc.error_details_ext] { message: \"Image editing failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback. Support codes: 42876398\" }" } ] } }
模型
{ "error": { "code": 400, "message": "Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback.", "status": "INVALID_ARGUMENT", "details": [ { "@type": "type.googleapis.com/google.rpc.DebugInfo", "detail": "[ORIGINAL ERROR] generic::invalid_argument: Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google's Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback. [google.rpc.error_details_ext] { message: \"Image generation failed with the following error: The prompt could not be submitted. This prompt contains sensitive words that violate Google\\'s Responsible AI practices. Try rephrasing the prompt. If you think this was an error, send feedback.\" }" } ] } }
篩選後的輸出內容
篩選後的輸出內容會因您設定的 RAI 參數而異。下列輸出範例顯示使用 includeRaiReason
和 includeSafetyAttributes
參數的結果。
使用 includeRaiReason
篩選輸出內容
如未新增 includeRaiReason
或設定 includeRaiReason: false
,回應就只會包含未經過濾的生成圖片物件。系統會從 "predictions": []
陣列中省略所有經過濾的圖片物件。舉例來說,以下是含有 "sampleCount": 4
的要求的回應,但其中兩張圖片遭到篩除,因此省略:
{ "predictions": [ { "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]Ct+F+1SLLH/2+SJ4ZLdOvg//Z" } ], "deployedModelId": "MODEL_ID" }
如果您設定 includeRaiReason: true
,且系統篩除多張輸出圖片,則回應會包含生成的圖片物件,以及所有遭篩除輸出圖片的 raiFilteredReason
物件。舉例來說,以下是針對含有 "sampleCount": 4
和 includeRaiReason: true
的要求所傳回的回應,但有兩張圖片遭到篩除。因此,一個物件包含生成的圖片資訊,另一個物件則包含錯誤訊息。
模型
{ "predictions": [ { "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]Ct+F+1SLLH/2+SJ4ZLdOvg//Z" }, { "raiFilteredReason": "Your current safety filter threshold filtered out 2 generated images. You will not be charged for blocked images. Try rephrasing the prompt. If you think this was an error, send feedback." }, ], "deployedModelId": "MODEL_ID" }
模型
{ "predictions": [ { "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]Ct+F+1SLLH/2+SJ4ZLdOvg//Z" }, { "raiFilteredReason": "56562880" }, { "raiFilteredReason": "56562880" } ], "deployedModelId": "MODEL_ID" }
使用 includeSafetyAttributes
篩選輸出內容
如果設定 "includeSafetyAttributes": true
,回應 "predictions": []
陣列會包含正向提示的文字安全屬性 RAI 分數 (四捨五入至小數點後一位)。此外,每個未經過濾的輸出內容也會加入圖片安全屬性。如果輸出圖片經過濾,系統不會傳回安全屬性。舉例來說,以下是未經過濾的要求的回應,並傳回一張圖片:
{
"predictions": [
{
"bytesBase64Encoded": "/9j/4AAQSkZJRgABA[...]bdsdgD2PLbZQfW96HEFE/9k=",
"mimeType": "image/png",
"safetyAttributes": {
"categories": [
"Porn",
"Violence"
],
"scores": [
0.1,
0.2
]
}
},
{
"contentType": "Positive Prompt",
"safetyAttributes": {
"categories": [
"Death, Harm & Tragedy",
"Firearms & Weapons",
"Hate",
"Health",
"Illicit Drugs",
"Politics",
"Porn",
"Religion & Belief",
"Toxic",
"Violence",
"Vulgarity",
"War & Conflict"
],
"scores": [
0,
0,
0,
0,
0,
0,
0.2,
0,
0.1,
0,
0.1,
0
]
}
},
],
"deployedModelId": "MODEL_ID"
}
安全篩選器代碼類別
視您設定的安全篩選機制而定,輸出內容可能包含類似下列內容的安全原因代碼:
{ "raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"" }
列出的代碼對應至特定有害類別。這些代碼與類別的對應關係如下:
錯誤代碼 | 安全類別 | 說明 | 已篩除的內容:提示輸入內容或圖片輸出內容 |
---|---|---|---|
58061214 17301594 |
子項 | 偵測因 API 要求設定或許可清單而不得出現的兒童內容。 | 輸入內容 (提示):58061214 輸出內容 (圖片):17301594 |
29310472 15236754 |
名人 | 偵測要求中是否包含名人的逼真圖像。 | 輸入 (提示):29310472 輸出 (圖片):15236754 |
62263041 | 危險內容 | 偵測本質上可能危險的內容。 | 輸入內容 (提示) |
57734940 22137204 |
仇恨 | 偵測仇恨相關主題或內容。 | 輸入 (提示):57734940 輸出 (圖片):22137204 |
74803281 29578790 42876398 |
其他 | 偵測要求中的其他雜項安全問題 | 輸入 (提示):42876398,輸出 (圖片):29578790、74803281 |
39322892 | 人物/臉部 | 由於要求安全設定不允許,因此偵測到人或臉孔。 | 輸出內容 (圖片) |
92201652 | 個人資訊 | 偵測文字中的個人識別資訊 (PII),例如提及信用卡號碼、住家地址或其他類似資訊。 | 輸入內容 (提示) |
89371032 49114662 72817394 |
禁止宣傳的內容 | 偵測要求中是否含有違禁內容。 | 輸入內容 (提示):89371032 輸出內容 (圖片):49114662、72817394 |
90789179 63429089 43188360 |
色情內容 | 偵測色情內容。 | 輸入 (提示):90789179 輸出 (圖片):63429089、43188360 |
78610348 | 惡意言論 | 偵測文字中的惡意主題或內容。 | 輸入內容 (提示) |
61493863 56562880 |
暴力 | 偵測圖片或文字中與暴力相關的內容。 | 輸入 (提示):61493863 輸出 (圖片):56562880 |
32635315 | 粗俗 | 從文字中偵測粗俗的主題或內容。 | 輸入內容 (提示) |
限制
下列限制適用於不同工作:
圖像生成和編輯限制
- 偏誤放大:雖然 Vertex AI 中的 Imagen 可以生成高品質圖片,但生成內容可能存在偏誤。生成圖片時會使用產品的訓練資料,但這些資料可能無意間包含偏誤,導致圖片延續刻板印象或歧視特定群體。請務必仔細監控及評估輸出內容,確保符合 Google 的《合理使用政策》和您的用途。
- 資訊公開和揭露:使用者可能難以分辨 AI 生成圖像和非 AI 生成圖像。在您的用途中使用 AI 生成圖像時,請務必向使用者清楚揭露圖像是由 AI 系統生成,以確保透明度並維持信任感。我們已為 AI 生成圖像加上中繼資料標籤,以防範錯誤資訊的風險,並落實負責任的 AI 技術做法。
- 情境資訊不足:Imagen on Vertex AI 可能缺乏情境理解能力,無法生成適合您用途中所有情境或對象的圖片。請務必檢查生成圖片是否符合所選情境、用途和目標對象。
- 誤導和真實性:使用 Vertex AI 中的 Imagen 編輯圖片可能會導致圖片遭到誤導或操弄,進而產生誤導或具欺騙性的內容。請務必以負責任的態度使用編輯程序,確保編輯後的圖片真實性與準確性不受影響。我們已為 AI 編輯的圖片加上中繼資料標籤,以防範錯誤資訊的風險,並落實負責任的 AI 技術做法。
- 誤植和真實性:編輯成人或兒童的圖像時請務必謹慎,因為使用 Vertex AI 中的 Imagen 編輯圖像可能會導致圖像誤植或遭人為操弄。這可能會導致建立詐騙或誤導性內容。請務必以負責任的態度使用編輯程序,確保編輯後的圖片真實性不受影響。我們已為 AI 編輯的圖片加上中繼資料標籤,以防錯誤資訊流傳,並落實負責任的 AI 技術做法。
圖像說明生成功能限制
- 準確度和情境敏感度:視覺說明功能在準確描述複雜或模稜兩可的圖片時,可能會遇到困難。生成的說明可能無法完全掌握視覺內容的完整脈絡或細微差異。請務必瞭解,自動字幕系統在解讀不同複雜程度的圖片時會受到限制,因此使用這類系統提供的說明時請務必謹慎,尤其是在重要或敏感的情境下。
- 模稜兩可和主觀解讀:圖片通常可以有多種解讀方式,而生成的說明文字不一定符合人類的理解或期望。不同的人可能會根據主觀體驗和文化背景,以不同的方式解讀及描述圖片。請務必考量圖片說明可能出現的模稜兩可和主觀性,並視需要提供額外背景資訊或替代解讀。
- 無障礙考量:自動產生的圖片說明可為視障人士提供描述,有助於提升無障礙體驗,但請注意,這類說明可能無法完全取代人工產生的替代文字或說明,也無法滿足特定無障礙需求。自動生成的字幕可能無法提供特定無障礙用途所需的詳細程度或背景脈絡。
圖像問題回答 (VQA) 功能的限制
- 過度自信和不確定性:有時 VQA 模型會提供過於自信的答案,即使正確答案不確定或模稜兩可也是如此。如果模型無法確定答案,請務必如實告知,並提供適當的可信度分數或替代答案,而不是傳達錯誤的確定感。
建議做法
為安全且負責任地運用這項技術,除了內建的技術防護措施外,也請務必考量特定用途、使用者和業務環境的其他風險。
建議採取下列步驟:
- 評估應用程式的安全風險。
- 考慮調整設定,降低安全風險。
- 根據您的用途執行適當的安全測試。
- 徵求使用者意見回饋並監控內容。
其他負責任的 AI 資源
- 瞭解大型語言模型 (LLM) 的負責任 AI。
- 進一步瞭解 Google 對負責任的 AI 做法的建議。
- 請參閱「在發展負責任的 AI 技術方面達成共識」網誌,
針對 Vertex AI 的 Imagen 提供意見
如果覺得生成的回覆內容不正確或有安全疑慮,可以提交意見回饋給我們。您的意見回饋可協助改善 Vertex AI 的 Imagen,以及 Google 在其他領域中的 AI 應用。
我們可能會交由專人查看意見回饋,因此提交的資料請勿包含個人、機密或私密資訊。