Veo in Vertex AI wurde unter Berücksichtigung der KI-Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Entwickler wissen, wie sie die Modelle von Google sicher und verantwortungsvoll testen und bereitstellen können. Zur Unterstützung von Entwicklern verfügt Veo on Vertex AI über integrierte Sicherheitsfunktionen, mit denen Kunden potenziell schädliche Ausgaben in ihren Anwendungsfällen blockieren können. Weitere Informationen finden Sie unter Sicherheitsfilter.
Wir empfehlen unseren Kunden, bei der Entwicklung von KI-Anwendungen Best Practices für Fairness, Interpretierbarkeit, Datenschutz und Sicherheit zu nutzen. Weitere Informationen finden Sie im People + AI Guidebook.
Sicherheitsfilter
Veo in Vertex AI bietet mehrere Möglichkeiten, Prompts für die Videogenerierung einzugeben, darunter Text, Video und Bilder. Prompts, die Veo bereitgestellt werden, werden anhand einer Liste von Sicherheitsfiltern bewertet, die schädliche Kategorien enthalten (z. B. violence
, sexual
, derogatory
und toxic
). Diese Sicherheitsfilter sollen Eingabebilder und ‑videos herausfiltern, die gegen die Google Cloud-Nutzungsrichtlinie für die Plattform, die Richtlinie zu verbotener Nutzung generativer KI oder unsere KI-Grundsätze verstoßen.
Wenn das Modell auf eine Anfrage mit einer Fehlermeldung wie The
prompt couldn't be submitted
oder it might violate our
policies
reagiert, löst die Eingabe einen Sicherheitsfilter aus. Wenn weniger Bilder als angefordert zurückgegeben werden, werden generierte Ausgaben blockiert, weil sie die Sicherheitsanforderungen nicht erfüllen.
Kategorien von Sicherheitsfiltercodes
Je nachdem, welche Sicherheitsfilter Sie konfigurieren, kann Ihre Ausgabe einen Sicherheitscode wie den folgenden enthalten: „Veo konnte keine Videos generieren, da das Eingabebild gegen die Nutzungsrichtlinien von Vertex AI verstößt. Wenn Sie der Meinung sind, dass es sich hierbei um einen Fehler handelt, können Sie Feedback geben. Supportcodes: 15236754“
Der in der Ausgabe aufgeführte Code entspricht einer bestimmten schädlichen Kategorie.
In der folgenden Tabelle sehen Sie die Zuordnungen von Fehlercodes zu Sicherheitskategorien:
Fehlercode | Sicherheitskategorie | Beschreibung |
---|---|---|
58061214 17301594
|
Untergeordnet |
Lehnt Anfragen zum Generieren von Inhalten mit Darstellungen von Kindern ab, wenn personGeneration nicht auf "allow_all" festgelegt ist oder das Projekt nicht auf der Zulassungsliste für diese Funktion steht.
|
29310472 15236754
|
Celebrity | Lehnt Anfragen zum Generieren einer fotorealistischen Darstellung einer prominenten Person ab oder wenn das Projekt nicht auf der Zulassungsliste für diese Funktion steht. |
64151117 42237218
|
Verstoß gegen die Richtlinien zur Sicherheit von Videos | Erkennt Inhalte, die einen Sicherheitsverstoß darstellen. |
62263041 |
Gefährliche Inhalte | Erkennt potenziell gefährliche Inhalte. |
57734940 22137204
|
Hass | Erkennt hasserfüllte Themen oder Inhalte. |
74803281 29578790 42876398
|
Sonstiges | Erkennt andere verschiedene Sicherheitsprobleme mit der Anfrage. |
92201652 |
Personenbezogene Daten | Erkennt personenidentifizierbare Informationen im Text, z. B. die Erwähnung einer Kreditkartennummer, Privatadressen oder anderer solcher Informationen. |
89371032 49114662 72817394
|
Unzulässige Inhalte | Erkennt die Anfrage unzulässiger Inhalte in der Anfrage. |
90789179 63429089 43188360
|
Sexuelle Inhalte | Er erkennt Inhalte sexueller Natur. |
78610348 |
Schädlich | Erkennt schädliche Themen oder Inhalte im Text. |
61493863 56562880
|
Gewalt | Erkennt gewaltverherrlichende Inhalte in Bildern oder Text. |
32635315 |
Ordinär | Erkennt vulgäre Themen oder Inhalte aus dem Text. |
Nächste Schritte
Weitere Informationen zu den Empfehlungen von Google für die verantwortungsbewusste Anwendung von KI
Lesen Sie unseren Blog Ein gemeinsamer Plan für verantwortungsbewussten Fortschritt in Sachen KI