Gemini Code Assist 僅支援 VS Code,且須搭配 Gemini Code Assist + Cloud Code 擴充功能 version+。
本頁列出 Eventarc Standard 的已知問題。
您也可以在公開問題追蹤工具中查看現有問題或開啟新問題。
新建立的觸發條件最多可能需要兩分鐘才能運作。
如果更新觸發條件 ,且更新時間早於系統傳送產生的事件,
系統會根據先前的篩選條件轉送事件,並在事件產生後三天內,將事件傳送至原始目的地。新篩選條件會套用至更新後產生的事件。 已知部分事件來源會重複傳輸 Cloud 稽核記錄Google Cloud 。如果發布重複的記錄,系統會將重複的事件傳送至目的地。為避免重複事件,請為確保事件不重複的欄位建立觸發條件。這適用於下列事件類型:
- Cloud Storage (serviceName:
storage.googleapis.com
),methodName:storage.buckets.list
- Compute Engine (serviceName:
compute.googleapis.com
),methodName:beta.compute.instances.insert
- BigQuery (serviceName:
bigquery.googleapis.com
)
請注意,由於工作流程會處理事件重複資料刪除作業,因此為工作流程建立觸發條件時,不必確保事件不重複。
- Cloud Storage (serviceName:
目前不支援跨專案觸發條件。接收觸發條件事件的服務必須與觸發條件位於同一 Google Cloud 專案。如果服務要求是由發布至 Pub/Sub 主題的訊息觸發,則主題也必須與觸發程序位於相同專案。請參閱「跨 Google Cloud 專案的路線事件」。
無論虛擬機器執行個體的實際位置為何,Cloud Audit Logs 觸發的 Compute Engine 相關事件,都會來自單一區域:
us-central1
。建立觸發條件時,請務必將觸發條件位置設為us-central1
或global
。直接 Pub/Sub 事件不包含
delivery_attempt
欄位,除非事件目的地是 Cloud Run 或 Cloud Run 函式。這可能會影響您處理傳送失敗的訊息。對於部分活動供應商,您可以選擇將活動酬載編碼為
application/json
或application/protobuf
。不過,以 JSON 格式設定的事件酬載會比以 Protobuf 格式設定的事件酬載大,這可能會影響可靠性,具體取決於事件目的地及其事件大小限制。達到這個上限後,系統會根據 Eventarc 傳輸層 (Pub/Sub) 的重試特性重試事件。如果達到重試次數上限,請參閱這篇文章,瞭解如何處理 Pub/Sub 訊息失敗情形。使用 Workflows 做為 Eventarc 觸發條件的目的地時,如果事件大小超過 Workflows 引數大小上限,工作流程執行作業就會無法觸發。詳情請參閱配額與限制。
使用 Cloud 稽核記錄的觸發程序,每個結構化記錄項目的巢狀深度上限為 64 層。超過這項限制的記錄事件會遭到捨棄,Eventarc 不會傳送這類事件。
在Google Cloud 專案中首次建立 Eventarc 觸發條件時,Eventarc 服務代理程式的佈建作業可能會延遲。通常只要再次嘗試建立觸發條件,就能解決這個問題。詳情請參閱「權限遭拒錯誤」。