本文說明使用 Sensitive Data Protection 時的目前限制及用量限制。如需定價相關資訊,請參閱價格頁面。
這些限制適用於每項 Google Cloud 控制台專案,而且使用該專案的所有應用程式和 IP 位址必須共用這些額度。
您可以在Google Cloud 控制台中設定較低的配額。
要求配額
下表列出各項專案中,Sensitive Data Protection 要求的配額上限。如需其他配額,請前往 Google Cloud 控制台的「配額與系統限制」頁面。
要求配額 | 值 | 說明 |
---|---|---|
每分鐘要求數 | 10,000 | 所有位置的機密資料保護服務,對所有全球和區域端點 (REP) 的要求總數 |
每個區域每分鐘傳送至區域端點的要求數量 | 600 | 向全域端點 (dlp.googleapis.com ) 發出的要求(指定位置) |
每個區域每分鐘傳送至區域 REP 端點的要求數 | 100 | 向區域端點 (dlp.REP_REGION.rep.googleapis.com ) 提出的要求 |
資源限制
針對每個專案儲存的資源,Sensitive Data Protection 會強制執行下列限制。
資源 | 上限 |
---|---|
範本數的上限 | 1000 |
工作觸發條件數的上限 | 1000 |
執行中工作數的上限 | 1000 |
儲存 infoType 數的上限 | 30 |
探索設定數量上限 | 100 |
內容檢查和去識別化限制
針對檢查及去識別化直接傳送至 DLP API 的文字或圖片內容,Sensitive Data Protection 會強制執行下列使用限制:
限制類型 | 用量限制 |
---|---|
每個要求的一般自訂字典數上限 | 10 |
每個引文的大小上限 (系統傳回的相符文字內容摘要,與調查結果一併提供) | 4 KB |
資料表值數上限 | 50,000 |
每個要求的轉換數上限 | 100 |
每個「規則集」的「檢查規則」數量上限 | 10 |
每個檢查設定的檢查規則集數量上限 | 10 |
每個要求的調查結果數量上限 | 3,000 |
每項要求的大小上限 (projects.image.redact 除外) |
0.5 MB |
每個 projects.image.redact 要求的最大大小 |
4 MB |
如需檢查超出這些限制的檔案,請將檔案儲存在 Cloud Storage 中,然後執行檢查工作。
儲存空間檢查限制
針對檢查Google Cloud 儲存空間存放區,Sensitive Data Protection 會強制執行下列使用限制:
限制類型 | 用量限制 |
---|---|
總掃描大小上限 | 2 TB |
每個引文的大小上限 (系統傳回的相符文字內容摘要,與調查結果一併提供) | 4 KB |
儲存空間去識別化限制
當您對儲存空間中的資料去識別化時,Sensitive Data Protection 會強制執行下列用量限制:
限制類型 | 用量限制 |
---|---|
檔案大小上限 | 60,000 KB |
資料剖析限制
Sensitive Data Protection 會強制實行下列剖析資料的用量限制。
這些限制適用於機構和專案層級的所有資料設定。
限制類型 | 用量限制 |
---|---|
每個探索掃描作業設定的排程數量上限 | 100 |
每個時間表的篩選器數量上限 | 100 |
用於剖析作業的訂閱方案運算資源 | 請參閱本頁的「用於設定檔的訂閱容量」。 |
用於剖析作業的訂閱方案運算資源用量
這個值取決於您購買的訂閱單位數。舉例來說,如果您購買 5 個訂閱單元,整個月就能獲得 50,000 個權杖。因此,您每天約可使用 1,667 個權杖 (50,000 個權杖除以 30 天)。
如要查看訂閱方案的容量用量,請前往「Subscriptions」(訂閱項目) 頁面,然後按一下「Review capacity usage」(查看容量用量)。
如要瞭解如何計算權杖可產生的設定檔數量,請參閱「每個訂閱單位的剖析資料資源」。
BigQuery 剖析限制
限制類型 | 用量限制 |
---|---|
BigQuery 資料表數量上限 | 200,000 |
要剖析的所有 BigQuery 資料表中的資料欄總數上限 | 20,000,000 |
範例:機構層級限制
假設您有一個機構,其中有兩個資料夾,且您為每個資料夾建立掃描設定。兩種設定要剖析的資料表總數不得超過 20 萬張。所有表格的欄總數不得超過 20,000,000。
範例:專案層級限制
如果您在專案層級設定資料剖析,該專案中的資料表總數不得超過 20 萬張。所有這些資料表中的欄總數不得超過 20,000,000。
Cloud SQL 剖析限制
限制類型 | 用量限制 |
---|---|
每個執行個體的資料庫數量上限 | 1,000 |
每個資料庫的資料表數量上限 | 20,000 |
自訂 infoType 限制
Sensitive Data Protection 會對自訂 infoType 強制執行下列限制。
限制類型 | 用量限制 |
---|---|
每個一般自訂字典在要求訊息中直接傳送的字詞清單大小上限 | 128 KB |
每個一般自訂字典指定為 Cloud Storage 檔案的字詞清單大小上限 | 512 KB |
每個一般自訂字典詞組的元件數上限 (包含僅有字母、僅有數字、僅有非字母字元或僅有非數字字元的連續順序) | 40 |
每個要求的所有儲存自訂字典總計大小上限 | 5 MB |
每個要求的內建和自訂 infoType 數上限 | 150 |
每個自訂 infoType 的偵測規則數上限 | 5 |
每個要求的自訂 infoType 數上限 | 30 |
每個要求的一般自訂字典數上限 | 10 |
規則運算式的長度上限 | 1000 |
儲存的 infoType 限制
針對建立儲存的 infoType,Sensitive Data Protection 會強制執行下列使用限制。
限制類型 | 用量限制 |
---|---|
儲存在 Cloud Storage 中的單一輸入檔案大小上限 | 200 MB |
儲存在 Cloud Storage 中的所有輸入檔案總計大小上限 | 1 GB |
儲存在 Cloud Storage 中的輸入檔案數上限 | 100 |
BigQuery 中的輸入資料欄大小上限 | 1 GB |
BigQuery 中的輸入資料表列數上限 | 5,000,000 |
輸入檔案的大小上限 | 500 MB |
Avro 掃描限制
一般來說,Avro 檔案在機密資料保護和 BigQuery 方面有相同的限制。如果達到這些限制,系統會改用二進位掃描。以下限制適用於檢查內容要求,以及檢查 Avro 檔案的儲存空間工作:
限制類型 | 用量限制 |
---|---|
單一 Avro 區塊的大小上限 | 100 MB |
單一 Avro 檔案的大小上限 | 1 TB |
Avro 檔案中的欄數上限 | 10,000 |
巢狀欄位層級上限 | 15 |
PDF 和 Microsoft 產品的掃描限制
掃描下列類型的檔案時,適用這些限制:
- Microsoft Word
- Microsoft Excel
- Microsoft PowerPoint
如果達到這些限制,系統會改用二進位檔掃描。
限制類型 | 用量限制 |
---|---|
Cloud Storage 中單一 PDF 的大小上限。如果檔案超出這項限制,系統會進行二進位掃描。 | 150 MB,最多 10,000 頁 |
Cloud Storage 中單一 Word 檔案的大小上限。如果檔案超出這項限制,系統會進行二進位掃描。 | 30 MB |
Cloud Storage 中單一 Excel 檔案的大小上限。如果檔案超出這項限制,系統會進行二進位掃描。 | 30 MB |
Cloud Storage 中單一 PowerPoint 檔案的大小上限。如果檔案超出這項限制,系統會進行二進位掃描。 | 30 MB |
即使您設定每個檔案的位元組大小上限,這些限制仍適用於上述檔案類型。
增加配額
如要編輯配額,請前往專案的「配額與系統限制」頁面,但不得超過配額上限。如要提高配額,只要在編輯配額時指定想要提高的配額量,並說明需要提高配額的理由,然後提交新的配額設定即可。我們會在收到您的要求後通知您,並有可能與您聯絡,以進一步詢問相關細節。審核完成後,我們會通知您要求是否獲得核准。
配額依附元件
視您使用的功能而定,您可能會需要額外的配額。
- Pub/Sub:如果您使用 Pub/Sub,可能需要額外的配額。
- BigQuery:
- 串流 API 的用途為保存檢查工作的發現項目,必須遵守相關的配額規定和其他限制。
google.cloud.bigquery.storage.v1beta1.BigQueryStorage
:列出資料表中的資料列內容,受配額限制。
瞭解服務中斷
Sensitive Data Protection 的部分功能相依於其他Google Cloud 服務。由於有這些相依關係,您可以預期 Sensitive Data Protection 的可靠性會與這些相關產品不相上下。
我們盡力重試,讓所有重複發生的錯誤均消失不見,但如果那些服務遭到中斷,我們提供的服務品質也會下降。
如需所有已知服務中斷的相關資訊,請查閱Google Cloud 狀態資訊主頁。您也可以訂閱Google Cloud 狀態資訊主頁更新JSON 動態饋給或 RSS 動態消息來取得推送更新。