Eventarc Standard 的已知問題

Gemini Code Assist 僅支援 VS Code,且須搭配 Gemini Code Assist + Cloud Code 擴充功能 version+。

本頁列出 Eventarc Standard 的已知問題。

您也可以在公開問題追蹤工具中查看現有問題或開啟新問題。

  • 新建立的觸發條件最多可能需要兩分鐘才能運作。

  • 如果更新觸發條件 ,且更新時間早於系統傳送產生的事件, 系統會根據先前的篩選條件轉送事件,並在事件產生後三天內,將事件傳送至原始目的地。新篩選條件會套用至更新產生的事件。

  • 已知部分事件來源會重複傳輸 Cloud 稽核記錄Google Cloud 。如果發布重複的記錄,系統會將重複的事件傳送至目的地。為避免重複事件,請為確保事件不重複的欄位建立觸發條件。這適用於下列事件類型:

    • Cloud Storage (serviceName: storage.googleapis.com),methodName:storage.buckets.list
    • Compute Engine (serviceName: compute.googleapis.com),methodName:beta.compute.instances.insert
    • BigQuery (serviceName:bigquery.googleapis.com)

    請注意,由於工作流程會處理事件重複資料刪除作業,因此為工作流程建立觸發條件時,不必確保事件不重複。

  • 目前不支援跨專案觸發條件。接收觸發條件事件的服務必須與觸發條件位於同一 Google Cloud 專案。如果服務要求是由發布至 Pub/Sub 主題的訊息觸發,則主題也必須與觸發程序位於相同專案。請參閱「跨 Google Cloud 專案的路線事件」。

  • 無論虛擬機器執行個體的實際位置為何,Cloud Audit Logs 觸發的 Compute Engine 相關事件,都會來自單一區域us-central1建立觸發條件時,請務必將觸發條件位置設為 us-central1global

  • 直接 Pub/Sub 事件不包含 delivery_attempt 欄位,除非事件目的地是 Cloud Run 或 Cloud Run 函式。這可能會影響您處理傳送失敗的訊息

  • 對於部分活動供應商,您可以選擇將活動酬載編碼為 application/jsonapplication/protobuf。不過,以 JSON 格式設定的事件酬載會比以 Protobuf 格式設定的事件酬載大,這可能會影響可靠性,具體取決於事件目的地及其事件大小限制。達到這個上限後,系統會根據 Eventarc 傳輸層 (Pub/Sub) 的重試特性重試事件。如果達到重試次數上限,請參閱這篇文章,瞭解如何處理 Pub/Sub 訊息失敗情形。

  • 使用 Workflows 做為 Eventarc 觸發條件的目的地時,如果事件大小超過 Workflows 引數大小上限,工作流程執行作業就會無法觸發。詳情請參閱配額與限制

  • 使用 Cloud 稽核記錄的觸發程序,每個結構化記錄項目的巢狀深度上限為 64 層。超過這項限制的記錄事件會遭到捨棄,Eventarc 不會傳送這類事件。

  • 在Google Cloud 專案中首次建立 Eventarc 觸發條件時,Eventarc 服務代理程式的佈建作業可能會延遲。通常只要再次嘗試建立觸發條件,就能解決這個問題。詳情請參閱「權限遭拒錯誤」。