Automatisierte Erkennung: Google verwendet automatisierte Sicherheitsklassifizierer, um potenziellen Missbrauch und Verstöße zu erkennen. Technische Details zur Funktionsweise von Sicherheitsklassifizierern finden Sie unter Sicherheitsfilter konfigurieren.
Protokollierung von Prompts: Wenn automatisierte Sicherheitsklassifizierer verdächtige Aktivitäten erkennen, die eine weitere Untersuchung erfordern, um festzustellen, ob ein Kunde gegen unsere Richtlinien verstoßen hat, kann Google Kunden-Prompts ausschließlich zu dem Zweck protokollieren, um zu prüfen, ob ein Verstoß gegen die Richtlinie zur zulässigen Nutzung oder die Richtlinie zur unzulässigen Nutzung vorliegt. Diese Daten werden nicht zum Trainieren oder Optimieren von KI‑/ML‑Modellen verwendet. Diese Daten werden bis zu 30 Tage lang sicher in derselben Region oder Mehrfachregion gespeichert, die der Kunde für sein Projekt ausgewählt hat. Dabei werden die Google Cloud Zusicherungen wie Datenstandort, Access Transparency und VPC Service Controls eingehalten. Kunden haben auch die Möglichkeit, die Deaktivierung der Protokollierung von Missbrauch zu beantragen (siehe unten).
Aktion: Autorisierte Google-Mitarbeiter können die gemeldeten Prompts prüfen und sich zur Klärung an den Kunden wenden. Wenn das Verhalten nicht behoben wird oder es zu wiederholtem oder schwerwiegendem Missbrauch kommt, kann dies zur Sperrung oder Kündigung des Zugriffs des Kunden auf Vertex AI oder Google Cloud -Dienste führen.
Betroffene Dienste: Vertex AI API, wenn sie mit den Large Language Models von Google verwendet wird.
Kunden können die Einwilligung widerrufen: Kunden können eine Ausnahme beantragen, indem sie dieses Formular ausfüllen. Wenn der Antrag genehmigt wird, speichert Google keine Prompts, die mit dem genehmigtenGoogle Cloud -Konto verknüpft sind.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-02 (UTC)."],[],[],null,["# Abuse monitoring\n\nAs outlined in Section 4.3 \"Generative AI Safety and Abuse\" of [Google Cloud Platform Terms of Service](/terms), Google uses the following process to detect potential abuse and violations of its\n[Acceptable Use Policy](/terms/aup) and\n[Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy) as part of providing Generative AI Services to customers.\n\n- **Automated detection** : Google uses automated safety classifiers to detect potential abuse and violations. For technical details on how safety classifiers work, see [Configure safety filters](/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters).\n- **Prompt logging**: If automated safety classifiers detect suspicious activity that requires further investigation into whether a customer has violated our policies, then Google may log customer prompts solely for the purpose of examining whether a violation of the AUP or Prohibited Use Policy has occurred. This data won't be used to train or fine-tune any AI/ML models. This data is stored securely for up to 30 days in the same region or multi-region selected by the customer for their project and adheres to Google Cloud assurances, such as Data Residency, Access Transparency and VPC Service Controls. Customers also have the option to request an opt-out from abuse logging (see below).\n- **Action**: Authorized Google employees may assess the flagged prompts and may reach out to the customer for clarification. Failure to address the behavior---or recurring or severe abuse---may result in suspension or termination of the customer's access to Vertex AI or Google Cloud services.\n- **Services in scope**: Vertex AI API, when used with Google's large language models.\n- **Customers in scope** : Only customers whose use of Google Cloud is governed by the [Google Cloud Platform Terms of Service](/terms) and who don't have an [invoiced (offline) Cloud Billing account](/billing/docs/concepts#billing_account_types) are subject to prompt logging for abuse monitoring.\n- **Customer opt-out** : Customers may request for an exception by filling out this [form](https://forms.gle/mtjKKas8a82grYN6A). If approved, Google won't store any prompts associated with the approved Google Cloud account.\n\nWhat's next\n-----------\n\n- Learn about [Responsible AI](/vertex-ai/generative-ai/docs/learn/responsible-ai)."]]