配額與限制

本頁面說明 Cloud Storage 的配額與要求限制。您可以要求提高配額,但無法調整限制。

配額和限制隨時可能變動。

值區

限制 附註
值區名稱大小上限 63 個字元

如果名稱包含半形句號 (.),則上限為 222 個字元。

每項專案建立及刪除值區的速率上限 每兩秒約發出一次要求

在大多數情況下,我們會建議少用值區,多用物件。舉例來說,一般的設計原則是每位專案使用者僅使用一個值區。不過,如果您設計的系統每秒會加入多位使用者,則可將多位使用者歸入同一個值區,並授予他們合適的權限,以免受到值區建立頻率的限制。

如為高可用性應用程式,請避免在運作的關鍵路徑中建立或刪除值區。值區名稱隸屬於全域集中型命名空間,如果應用程式使用了這個命名空間,就會產生單點故障。基於這個原因和 bucket 建立/刪除限制,我們會建議您為 Cloud Storage 中的高可用性服務預先建立所有必要 bucket。

每個專案的值區還原速率上限 每兩秒約發出一次要求
每個值區的值區中繼資料更新頻率上限 每秒更新一次 如果快速更新單一值區 (例如變更 CORS 設定),可能會導致節流錯誤。
每個值區可授予 IAM 角色的主體數量上限

所有 IAM 角色的主體數量上限為 1,500 個

100 個主體 (舊版 IAM 角色)

詳情請參閱「主體類型」。
每個值區的 Pub/Sub 通知設定數量上限 100 項通知設定
專案中相同位置支援的並行 bucket 搬遷作業數量上限 5 個值區 詳情請參閱「值區搬遷」。
針對特定事件觸發通知所設定的Pub/Sub 通知設定數量上限 10 項通知設定
Pub/Sub 通知設定中的自訂屬性數量上限 10 個自訂屬性
可為 Bucket Lock 設定的保留期限上限 3,155,760,000 秒 (100 年)
虛刪除保留時間長度上限 90 天
在 bucket 的所有規則中,使用 matchesPrefixmatchesSuffix 生命週期條件時,前置字串和後置字串的總數上限。 1000 如要瞭解物件生命週期管理,請參閱「物件生命週期管理」。

物件

限制 附註
最大物件大小 5 TiB

無論寫入方法為何,包括物件組合可續傳的上傳作業多部分上傳作業,都適用這項限制。

每個物件的所有自訂中繼資料鍵和值總計大小上限 8 KiB
扁平命名空間值區中物件的物件名稱大小上限 1024 個位元組 (UTF-8 編碼)
啟用階層命名空間的 bucket 中,物件名稱大小上限 資料夾名稱:512 個位元組 (UTF-8 編碼)
基本名稱:512 個位元組 (UTF-8 編碼)。
寫入相同物件名稱的最高速率 每秒一次寫入 如果以高於限制的速率寫入相同物件名稱,可能會導致節流錯誤。詳情請參閱「物件不變原則」。
單一物件的中繼資料更新速度上限 每秒更新一次 如果更新物件中繼資料的速率超過上限,可能會導致節流錯誤。
值區中的物件寫入速度上限 無限制 包括上傳、更新及刪除物件。值區一開始即可支援每秒約 1,000 次的寫入作業,之後則會視需求彈性調整
值區中物件的讀取速度上限 無限制 包括讀取物件資料、讀取物件中繼資料,以及列出物件。值區一開始即可支援每秒約 5,000 次的物件讀取作業,之後則會視需求彈性調整。不過請注意,頻寬有限
存取控制清單 (ACL) 項目數量上限 每個物件 100 個 ACL 詳情請參閱 ACL 範圍
物件組合中的來源物件數量上限 單一撰寫要求中的 32 個物件
組成複合式物件的元件數量上限 無限制 雖然複合物件沒有組成元件的數量限制,但與複合物件相關聯的 componentCount 中繼資料上限為 2,147,483,647,且最終複合物件必須遵守 Cloud Storage 中所有物件的 5 TiB 大小限制。
可為 Object Retention Lock 設定的保留時間上限 從目前日期與時間起 3,155,760,000 秒 (100 年)
啟用階層式命名空間的 bucket 中讀取及寫入物件時,每秒查詢次數 (QPS) 的初始上限。 與未啟用階層命名空間的 bucket 相比,QPS 最多可提高 8 倍。 如要瞭解如何在使用資料夾時提升效能,請參閱資料夾管理

「任何位置」快取

限制 附註
Anywhere Cache 快取大小上限 1 PiB

快取大小會自動調整,以配合快取中儲存的資料量。快取大小等於擷取至快取的資料量,減去剔除的資料量。舉例來說,如果工作負載擷取 100 GiB 的資料,快取大小就會增加到 100 GiB。如果後續有 50 GiB 的資料遭到清除,快取大小就會縮減為 50 GiB。

根據專案的帳單帳戶記錄,快取大小上限可能會較低。如果資源有限,快取建立作業可能會停止,現有快取也可能停止成長,並根據最近最少使用 (LRU) 演算法撤銷資料,為新資料騰出空間。

每個專案和每個區域的「Anywhere Cache」資料用量頻寬上限 20 Tbps

快取頻寬上限會根據快取中儲存的資料量自動調整,每 1 TiB 資料為 20 Gbps,基本值為 100 Gbps。

由於快取頻寬限制是依專案和區域套用,因此即使快取是為不同 bucket 建立,來自同一專案和區域內快取的流量,仍會計入共同的快取頻寬限制。舉例來說,假設在專案 my-project 中,為值區 example-bucket-1 建立的快取 A 位於 us-east1-a 區域。快取 B 是在 us-east1-a 中為 example-bucket-2 建立,而 example-bucket-2 也位於 my-project。由於快取 A 和快取 B 都位於 us-east1-amy-project,因此兩個快取的流量都會計入相同的快取頻寬限制。

如要增加快取頻寬總量,可以增加快取中儲存的資料量,或在更多區域中填入快取,藉此增加快取數量。

快取頻寬限制與專案的頻寬配額上限不同。從快取讀取資料會計入快取頻寬上限,直到達到上限為止。達到上限後,資料讀取作業就會開始計入專案的頻寬配額。快取失敗不會計入快取頻寬限制。

代管資料夾

限制 附註
受管理資料夾名稱大小上限 1024 個位元組 (UTF-8 編碼)
Cloud Storage 值區中的代管資料夾數量上限 無限制
代管資料夾巢狀結構深度上限 15
每個代管資料夾的 IAM 政策更新頻率上限 每秒更新一次

JSON API 要求

限制 附註
批次要求的酬載總大小上限 小於 10 MiB 單一要求中最多只能包含 100 個呼叫。
物件清單 glob 模式大小上限 UTF-8 編碼的 1024 個位元組

XML API 要求

限制 附註
要求網址和 HTTP 標頭的總大小上限 16 KiB
列出 bucket 時可傳回的 bucket 數量上限 1,000 個 bucket XML API 會依名稱的字典順序傳回 bucket。
多部分上傳作業的零件數量上限 10,000 個部分 由這些部分組成的物件必須遵守 5 TiB 的大小限制,這項限制適用於 Cloud Storage 中的所有物件。
多部分上傳中個別部分的大小上限 5 GiB
多部分上傳作業中每個部分的最小大小 5 MiB 多部分上傳的最後一部分沒有大小下限。因此,系統不會在您上傳部分內容時強制執行這項限制,而是在您嘗試 完成上傳時強制執行。
多部分上傳作業及其上傳部分在儲存空間中維持未完成或閒置狀態的時間長度上限 無限制
可同時對物件進行的不同多部分上傳作業數量上限 無限制
完成可續傳上傳工作階段的時間上限 7 天 時間長度是從啟動支援續傳的上傳作業開始計算。

服務帳戶的 HMAC 金鑰

每個服務帳戶最多只能有 10 個 HMAC 金鑰。不過,已刪除的金鑰不會計入這項限制配額。

廣告空間報表

每個來源值區最多只能有 100 個資產盤點清單報告設定

Storage 批次作業工作

本節說明使用儲存空間批次作業工作的現行 API 限制和用量配額。

並行儲存空間批次作業工作

下表說明執行中的並行 jobs 限制:

執行中的「jobs」上限 套用對象
100 每個值區位置每項專案

頻率配額

儲存空間批次作業會對所有要求強制執行速率配額。

下表列出各項配額的指標、API 方法和預設限制:

指標 API 方法 預設限制
storagebatchoperations.googleapis.com/create_requests storagebatchoperations.jobs.create 每專案每分鐘 1,200 個要求
storagebatchoperations.googleapis.com/read_requests
  • storagebatchoperations.jobs.get
  • storagebatchoperations.jobs.list
每專案每分鐘 1,200 個要求
storagebatchoperations.googleapis.com/cancel_requests storagebatchoperations.jobs.cancel 每專案每分鐘 1,200 個要求
storagebatchoperations.googleapis.com/delete_requests storagebatchoperations.jobs.delete 每專案每分鐘 1,200 個要求

頻寬

配額 附註
每個區域的頻寬上限,這些區域的資料會從 Cloud Storage 傳輸至 Google 服務 大多數專案的預設配額為每個區域 200 Gbps,但可能會根據專案的帳單帳戶記錄而降低

輸出至 Cloud CDN 和 Media CDN 的流量不計入這項配額。

您可以要求增加配額,但須以專案為單位。

如要瞭解如何查看專案的 Google 輸出限制,請參閱「查看及管理配額」。

如要瞭解如何查看專案的 Google 輸出用量,請參閱「頻寬監控」。

每個雙區域的頻寬上限,這些雙區域的資料會從 Cloud Storage 輸出至 Google 服務 大多數專案的雙區域中,每個區域的預設配額為 200 Gbps,但可能會根據專案的帳單帳戶記錄而降低

輸出至 Cloud CDN 和 Media CDN 的流量不計入這項配額。

您可以要求增加每個專案的配額

如要瞭解如何查看專案的 Google 輸出限制,請參閱「查看及管理配額」。

如要瞭解如何查看專案的 Google 輸出用量,請參閱「頻寬監控」。

每個多區域從 Cloud Storage 將資料傳出至 Google 服務時,可用的最大頻寬 大多數專案的每個區域預設配額為 200 Gbps,但可能會根據專案的帳單帳戶記錄而降低

輸出至 Cloud CDN 和 Media CDN 的流量不計入這項配額。

特定多區域中的各區域有各自的配額。舉例來說,假設專案 my-project 的多區域 Google 輸出頻寬配額為 200 Gbps,適用於專案內的所有區域。在這個情境中,us-east1 區域支援從 us 多區域的值區輸出資料至 Google 服務時,頻寬為 200 Gbps;us-west1 區域支援從 us 多區域的值區輸出資料至 Google 服務時,頻寬也為 200 Gbps。

如要瞭解如何查看專案的 Google 輸出限制,請參閱「查看及管理配額」。

如要瞭解如何查看專案的 Google 輸出用量,請參閱「頻寬監控」。

您可以要求增加配額,但須以專案為單位。請注意,一般來說,對於輸出至 Google 服務的頻寬用量較高的工作負載,您應使用位於區域或雙區域的值區。如果多區域中現有的 bucket 在 Google 服務中執行大量工作負載,您可以使用 Storage 移轉服務將資料移至單一或雙區域的 bucket

區域中的值區存取資料時,網際網路要求可用的輸出頻寬上限 大多數專案的預設配額為每個區域 200 Gbps,但可能會根據專案的帳單帳戶記錄而降低

快取未命中而輸出至 Cloud CDN 和 Media CDN 的流量,也計入這項配額。

如要瞭解如何查看專案的網際網路輸出限制,請參閱「查看及管理配額」。

如要瞭解如何查看專案的網際網路輸出用量,請參閱「頻寬監控」。

您可以要求增加配額,但須以專案為單位。

雙區域值區存取資料的網際網路要求,其傳出頻寬上限 大多數專案的雙區域中,每個區域的預設配額為 200 Gbps,但可能會根據專案的帳單帳戶記錄而降低

快取未命中而輸出至 Cloud CDN 和 Media CDN 的流量,也計入這項配額。

如要瞭解如何查看專案的網際網路輸出限制,請參閱「查看及管理配額」。

如要瞭解如何依區域查看專案的網際網路輸出用量,請參閱「頻寬監控」一文。

您可以要求增加每個專案的配額

從特定多區域中的值區存取資料時,網際網路要求可用的頻寬上限 大多數專案的每個區域預設配額為 200 Gbps,但可能會根據專案的帳單帳戶記錄而降低

快取未命中而輸出至 Cloud CDN 和 Media CDN 的流量,也計入這項配額。

多區域中的各個區域有各自的多區域網際網路輸出配額。舉例來說,假設 my-projectus 多地區的值區傳送資料給全球各地的客戶。在這種情況下,us 多區域內的不同區域會使用自己的網際網路輸出配額,因為資料會從值區傳送至世界各地。一般來說,系統會根據地理位置最接近資料目的地的區域,計算網際網路輸出配額。

如要瞭解如何查看專案的網際網路輸出限制,請參閱「查看及管理配額」。

如要瞭解如何依區域查看專案的網際網路輸出用量,請參閱「頻寬監控」一文。

您可以要求增加每個專案的配額

如果專案頻寬超過特定配額,對受影響值區發出要求時,可能會遭到限縮或拒絕 (並顯示可重試的錯誤),錯誤訊息會包含超過配額的詳細資料。429 - rateLimitExceeded如要瞭解如何監控頻寬,請參閱「頻寬用量」。