Gemini Code Assist hanya didukung di
VS Code dengan ekstensi Gemini Code Assist + Cloud Code version+.
Halaman ini mencantumkan masalah umum untuk Eventarc Standar.
Anda juga dapat memeriksa masalah yang ada atau membuka masalah baru di
issue tracker publik.
Pemicu yang baru dibuat dapat memerlukan waktu hingga dua menit untuk mulai beroperasi.
Jika Anda memperbarui pemicu
sebelum peristiwa yang dibuatnya dikirimkan,peristiwa akan dirutekan sesuai dengan pemfilteran sebelumnya dan dikirimkan ke tujuan
asli dalam waktu tiga hari setelah pembuatan peristiwa. Pemfilteran baru diterapkan ke peristiwa yang dihasilkan setelah pembaruan Anda.
Ada transmisi duplikat Cloud Audit Logs yang diketahui dari beberapa
Google Cloud sumber peristiwa. Saat log duplikat dipublikasikan, peristiwa
duplikat akan dikirim ke tujuan. Untuk menghindari peristiwa duplikat ini, Anda
harus membuat pemicu untuk kolom yang memastikan peristiwa tersebut unik.
Hal ini berlaku untuk jenis peristiwa berikut:
Perhatikan bahwa karena Workflows menangani penghapusan duplikat peristiwa, Anda tidak perlu memastikan bahwa peristiwa tersebut unik saat membuat pemicu untuk Workflows.
Pemicu lintas project belum didukung. Layanan yang menerima
peristiwa untuk pemicu harus berada dalam Google Cloud project
yang sama dengan pemicu. Jika permintaan ke layanan Anda dipicu oleh pesan yang dipublikasikan ke topik Pub/Sub, topik tersebut juga harus berada dalam project yang sama dengan pemicu. Lihat bagian
Merutekan peristiwa di seluruh project Google Cloud .
Terlepas dari lokasi sebenarnya instance virtual machine, pemicu Log Audit Cloud untuk Compute Engine menghasilkan peristiwa yang berasal dari satu region: us-central1. Saat
membuat pemicu,
pastikan lokasi pemicu ditetapkan ke us-central1 atau global.
Untuk beberapa penyedia acara, Anda dapat memilih untuk mengenkode payload acara sebagai
application/json atau application/protobuf. Namun,
payload peristiwa yang diformat dalam JSON lebih besar daripada yang diformat dalam Protobuf,
dan hal ini dapat memengaruhi keandalan, bergantung pada tujuan peristiwa Anda, dan batas ukuran peristiwa. Jika batas ini tercapai, peristiwa akan dicoba lagi
sesuai dengan karakteristik percobaan ulang lapisan transpor Eventarc, Pub/Sub.
Pelajari cara
menangani kegagalan pesan Pub/Sub
jika jumlah percobaan ulang maksimum telah dilakukan.
Saat menggunakan Workflows sebagai tujuan untuk
pemicu Eventarc, peristiwa yang lebih besar dari ukuran
argumen Workflows maksimum akan gagal memicu eksekusi
alur kerja. Untuk mengetahui informasi selengkapnya, lihat Kuota dan batas.
Batas kedalaman bertingkat maksimum pada setiap entri log terstruktur untuk pemicu yang menggunakan Cloud Audit Logs adalah 64 tingkat. Peristiwa log yang melebihi batas ini akan dihapus dan tidak dikirimkan oleh Eventarc.
Saat membuat pemicu Eventarc untuk pertama kalinya dalam project
Google Cloud , mungkin ada penundaan dalam penyediaan agen layanan
Eventarc. Masalah ini biasanya dapat diatasi dengan
mencoba membuat ulang pemicu. Untuk mengetahui informasi selengkapnya, lihat
Error izin ditolak.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-18 UTC."],[[["\u003cp\u003eNewly created triggers may take up to two minutes to become fully operational.\u003c/p\u003e\n"],["\u003cp\u003eDuplicate transmission of Cloud Audit Logs from certain Google Cloud sources can occur, resulting in duplicate events, so you should create triggers for fields ensuring event uniqueness.\u003c/p\u003e\n"],["\u003cp\u003eCross-project triggers are currently not supported, so the event-receiving service and the trigger must reside within the same Google Cloud project.\u003c/p\u003e\n"],["\u003cp\u003eEvents formatted in JSON are larger than those in Protobuf, potentially impacting reliability due to event size limits at the destination, and log events exceeding 64 levels are dropped when using Cloud Audit logs.\u003c/p\u003e\n"],["\u003cp\u003eProvisioning the Eventarc service agent can sometimes be delayed when creating an Eventarc trigger for the first time, which usually can be solved by reattempting the creation.\u003c/p\u003e\n"]]],[],null,["# Known issues for Eventarc Standard\n\n[Standard](/eventarc/standard/docs/overview)\n\nGemini Code Assist is only supported in\nVS Code with Gemini Code Assist + Cloud Code extension \u003cvar translate=\"no\"\u003eversion\u003c/var\u003e+.\n\nThis page lists known issues for Eventarc Standard.\n\nYou can also check for existing issues or open new issues in the\n[public issue trackers](/support/docs/issue-trackers).\n\n- **Newly created triggers can take up to two minutes to become operational.**\n\n- **If you [update a trigger](/eventarc/docs/managing-triggers#trigger-update)\n before its generated event is delivered,**\n\n the event is routed according to the previous filtering and delivered to the original destination within three days of the event generation. The new filtering is applied to events generated *after* your update.\n\n- There is known **duplicate transmission of Cloud Audit Logs from some\n Google Cloud event sources**. When duplicate logs are published, duplicate\n events are delivered to destinations. To avoid these duplicate events, you\n should create triggers for fields that ensure the event is unique.\n This applies to the following event types:\n\n - Cloud Storage (serviceName: `storage.googleapis.com`), methodName: `storage.buckets.list`\n - Compute Engine (serviceName: `compute.googleapis.com`), methodName: `beta.compute.instances.insert`\n - BigQuery (serviceName: `bigquery.googleapis.com`)\n\n Note that since Workflows handles event deduplication, you don't\n have to ensure that the event is unique when you create a trigger for\n Workflows.\n- **Cross-project triggers are not yet supported.** The service that receives\n the events for the trigger must be in the same Google Cloud project\n as the trigger. If requests to your service are triggered by messages published\n to a Pub/Sub topic, the topic must also be in the same project as the\n trigger. See\n [Route events across Google Cloud projects](/eventarc/docs/cross-project-triggers).\n\n- Regardless of where the virtual machine instance is actually located,\n **Cloud Audit Logs triggers for [Compute Engine](/eventarc/docs/reference/supported-events#compute-engine)\n result in events that originate from a single region** : `us-central1`. When\n [creating your trigger](/eventarc/standard/docs/event-providers-targets#triggers),\n ensure that the trigger location is set to either `us-central1` or `global`.\n\n- **[Direct Pub/Sub events](/eventarc/standard/docs/event-types#cloud-pubsub)\n don't include a\n [`delivery_attempt`](https://github.com/googleapis/google-cloudevents/blob/main/proto/google/events/cloud/pubsub/v1/data.proto#L45)\n field** unless the event destination is Cloud Run or\n Cloud Run functions. This might impact your\n [handling of message failures](/pubsub/docs/handling-failures).\n\n- For some event providers, you can choose to encode the event payload as\n `application/json` or `application/protobuf`. However,\n **an event payload formatted in JSON is larger than one formatted in Protobuf** ,\n and this might impact reliability depending on your event destination, and its\n limits on event size. When this limit is reached, the event is retried\n according to the [retry characteristics of Eventarc's transport\n layer, Pub/Sub](/eventarc/standard/docs/overview#event-retry-policy).\n Learn how to\n [handle Pub/Sub message failures](/pubsub/docs/handling-failures)\n if the maximum number of retries is made.\n\n- While using Workflows as a destination for an\n Eventarc trigger, **events larger than the maximum\n Workflows arguments size will fail to trigger workflow\n executions** . For more information, see\n [Quotas and limits](/workflows/quotas#resource_limit).\n\n- The maximum nested depth limit on each structured log entry for triggers\n that use Cloud Audit Logs is 64 levels. **Log events that exceed this\n limit are dropped** and not delivered by Eventarc.\n\n- When creating an Eventarc trigger for the first time in a\n Google Cloud project, there might be **a delay in provisioning the\n Eventarc service agent** . This issue can usually be resolved by\n attempting to create the trigger again. For more information, see\n [Permission denied errors](/eventarc/docs/troubleshooting#trigger-error)."]]