Mulai 29 April 2025, model Gemini 1.5 Pro dan Gemini 1.5 Flash tidak tersedia di project yang belum pernah menggunakan model ini, termasuk project baru. Untuk mengetahui detailnya, lihat Versi dan siklus proses model.
Deteksi otomatis: Google menggunakan pengklasifikasi keamanan otomatis untuk mendeteksi potensi penyalahgunaan dan pelanggaran. Untuk mengetahui detail teknis tentang cara kerja pengklasifikasi keamanan, lihat artikel
Mengonfigurasi filter keamanan.
Logging perintah: Jika pengklasifikasi keamanan otomatis mendeteksi aktivitas mencurigakan yang memerlukan penyelidikan lebih lanjut untuk mengetahui apakah pelanggan telah melanggar kebijakan kami, Google dapat mencatat perintah pelanggan semata-mata untuk tujuan memeriksa apakah telah terjadi pelanggaran terhadap AUP atau Kebijakan Penggunaan yang Dilarang. Data ini tidak akan digunakan untuk melatih atau menyesuaikan model AI/ML apa pun. Data ini disimpan dengan aman hingga 30 hari di region atau multi-region yang sama yang dipilih oleh pelanggan untuk projectnya dan mematuhi jaminan, seperti Residensi Data, Transparansi Akses, dan Kontrol Layanan VPC. Google Cloud Pelanggan juga memiliki opsi untuk meminta penonaktifan logging penyalahgunaan (lihat di bawah).
Tindakan: Karyawan Google yang berwenang dapat menilai perintah yang ditandai dan dapat menghubungi pelanggan untuk meminta klarifikasi. Kegagalan untuk mengatasi perilaku tersebut—atau penyalahgunaan yang berulang atau berat—dapat mengakibatkan penangguhan atau penghentian akses pelanggan ke layanan Vertex AI atau Google Cloud .
Layanan dalam cakupan: Vertex AI API, saat digunakan dengan model bahasa besar Google.
Pembatalan persetujuan pelanggan: Pelanggan dapat meminta
pengecualian dengan mengisi formulir ini. Jika disetujui, Google tidak akan menyimpan perintah apa pun yang terkait dengan akunGoogle Cloud yang disetujui.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-25 UTC."],[],[],null,["# Abuse monitoring\n\nAs outlined in Section 4.3 \"Generative AI Safety and Abuse\" of [Google Cloud Platform Terms of Service](/terms), Google uses the following process to detect potential abuse and violations of its\n[Acceptable Use Policy](/terms/aup) and\n[Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy) as part of providing Generative AI Services to customers.\n\n- **Automated detection** : Google uses automated safety classifiers to detect potential abuse and violations. For technical details on how safety classifiers work, see [Configure safety filters](/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters).\n- **Prompt logging**: If automated safety classifiers detect suspicious activity that requires further investigation into whether a customer has violated our policies, then Google may log customer prompts solely for the purpose of examining whether a violation of the AUP or Prohibited Use Policy has occurred. This data won't be used to train or fine-tune any AI/ML models. This data is stored securely for up to 30 days in the same region or multi-region selected by the customer for their project and adheres to Google Cloud assurances, such as Data Residency, Access Transparency and VPC Service Controls. Customers also have the option to request an opt-out from abuse logging (see below).\n- **Action**: Authorized Google employees may assess the flagged prompts and may reach out to the customer for clarification. Failure to address the behavior---or recurring or severe abuse---may result in suspension or termination of the customer's access to Vertex AI or Google Cloud services.\n- **Services in scope**: Vertex AI API, when used with Google's large language models.\n- **Customers in scope** : Only customers whose use of Google Cloud is governed by the [Google Cloud Platform Terms of Service](/terms) and who don't have an [invoiced (offline) Cloud Billing account](/billing/docs/concepts#billing_account_types) are subject to prompt logging for abuse monitoring.\n- **Customer opt-out** : Customers may request for an exception by filling out this [form](https://forms.gle/mtjKKas8a82grYN6A). If approved, Google won't store any prompts associated with the approved Google Cloud account.\n\nWhat's next\n-----------\n\n- Learn about [Responsible AI](/vertex-ai/generative-ai/docs/learn/responsible-ai)."]]