Richtlinien für die verantwortungsbewusste Nutzung von KI und Veo

Veo in Vertex AI wurde unter Berücksichtigung der KI-Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Entwickler wissen, wie sie die Modelle von Google sicher und verantwortungsvoll testen und bereitstellen können. Zur Unterstützung von Entwicklern verfügt Veo on Vertex AI über integrierte Sicherheitsfunktionen, mit denen Kunden potenziell schädliche Ausgaben in ihren Anwendungsfällen blockieren können. Weitere Informationen finden Sie unter Sicherheitsfilter.

Wir empfehlen unseren Kunden, bei der Entwicklung von KI-Anwendungen Best Practices für Fairness, Interpretierbarkeit, Datenschutz und Sicherheit zu nutzen. Weitere Informationen finden Sie im People + AI Guidebook.

Sicherheitsfilter

Veo in Vertex AI bietet mehrere Möglichkeiten, Prompts für die Videogenerierung einzugeben, darunter Text, Video und Bilder. Prompts, die Veo bereitgestellt werden, werden anhand einer Liste von Sicherheitsfiltern bewertet, die schädliche Kategorien enthalten (z. B. violence, sexual, derogatory und toxic). Diese Sicherheitsfilter sollen Eingabebilder und ‑videos herausfiltern, die gegen die Google Cloud-Nutzungsrichtlinie für die Plattform, die Richtlinie zu verbotener Nutzung generativer KI oder unsere KI-Grundsätze verstoßen.

Wenn das Modell auf eine Anfrage mit einer Fehlermeldung wie The prompt couldn't be submitted oder it might violate our policies reagiert, löst die Eingabe einen Sicherheitsfilter aus. Wenn weniger Bilder als angefordert zurückgegeben werden, werden generierte Ausgaben blockiert, weil sie die Sicherheitsanforderungen nicht erfüllen.

Kategorien von Sicherheitsfiltercodes

Je nachdem, welche Sicherheitsfilter Sie konfigurieren, kann Ihre Ausgabe einen Sicherheitscode wie den folgenden enthalten: „Veo konnte keine Videos generieren, da das Eingabebild gegen die Nutzungsrichtlinien von Vertex AI verstößt. Wenn Sie der Meinung sind, dass es sich hierbei um einen Fehler handelt, können Sie Feedback geben. Supportcodes: 15236754

Der in der Ausgabe aufgeführte Code entspricht einer bestimmten schädlichen Kategorie.

In der folgenden Tabelle sehen Sie die Zuordnungen von Fehlercodes zu Sicherheitskategorien:

Fehlercode Sicherheitskategorie Beschreibung
58061214
17301594
Untergeordnet Lehnt Anfragen zum Generieren von Inhalten mit Darstellungen von Kindern ab, wenn personGeneration nicht auf "allow_all" festgelegt ist oder das Projekt nicht auf der Zulassungsliste für diese Funktion steht.
29310472
15236754
Celebrity Lehnt Anfragen zum Generieren einer fotorealistischen Darstellung einer prominenten Person ab oder wenn das Projekt nicht auf der Zulassungsliste für diese Funktion steht.
64151117
42237218
Verstoß gegen die Richtlinien zur Sicherheit von Videos Erkennt Inhalte, die einen Sicherheitsverstoß darstellen.
62263041 Gefährliche Inhalte Erkennt potenziell gefährliche Inhalte.
57734940
22137204
Hass Erkennt hasserfüllte Themen oder Inhalte.
74803281
29578790
42876398
Sonstiges Erkennt andere verschiedene Sicherheitsprobleme mit der Anfrage.
92201652 Personenbezogene Daten Erkennt personenidentifizierbare Informationen im Text, z. B. die Erwähnung einer Kreditkartennummer, Privatadressen oder anderer solcher Informationen.
89371032
49114662
72817394
Unzulässige Inhalte Erkennt die Anfrage unzulässiger Inhalte in der Anfrage.
90789179
63429089
43188360
Sexuelle Inhalte Er erkennt Inhalte sexueller Natur.
78610348 Schädlich Erkennt schädliche Themen oder Inhalte im Text.
61493863
56562880
Gewalt Erkennt gewaltverherrlichende Inhalte in Bildern oder Text.
32635315 Ordinär Erkennt vulgäre Themen oder Inhalte aus dem Text.

Nächste Schritte