Veo in Vertex AI wurde unter Berücksichtigung der KI-Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Entwickler wissen, wie sie die Modelle von Google sicher und verantwortungsvoll testen und bereitstellen können. Zur Unterstützung von Entwicklern verfügt Veo on Vertex AI über integrierte Sicherheitsfunktionen, mit denen Kunden potenziell schädliche Ausgaben in ihren Anwendungsfällen blockieren können. Weitere Informationen finden Sie unter Sicherheitsfilter.
Wir empfehlen unseren Kunden, bei der Entwicklung von KI-Anwendungen Best Practices für Fairness, Interpretierbarkeit, Datenschutz und Sicherheit zu nutzen. Weitere Informationen finden Sie im People + AI Guidebook.
Sicherheitsfilter
Veo in Vertex AI bietet mehrere Möglichkeiten, Prompts für die Videogenerierung einzugeben, darunter Text, Video und Bilder. Prompts, die Veo bereitgestellt werden, werden anhand einer Liste von Sicherheitsfiltern bewertet, die schädliche Kategorien enthalten (z. B. violence, sexual, derogatory und toxic). Diese Sicherheitsfilter sollen Eingabebilder und ‑videos herausfiltern, die gegen die Google Cloud-Nutzungsrichtlinien für die Plattform, die Richtlinien zu verbotenen Verwendungszwecken generativer KI oder unsere KI-Grundsätze verstoßen.
Wenn das Modell auf eine Anfrage mit einer Fehlermeldung wie The
prompt couldn't be submitted oder it might violate our
policies reagiert, löst die Eingabe einen Sicherheitsfilter aus. Wenn weniger Videos als angefordert zurückgegeben werden, werden generierte Ausgaben blockiert, weil sie die Sicherheitsanforderungen nicht erfüllen.
Kategorien von Sicherheitsfiltercodes
Je nachdem, welche Sicherheitsfilter Sie konfigurieren, kann Ihre Ausgabe einen Sicherheitscode wie den folgenden enthalten: „Veo konnte keine Videos generieren, da das Eingabebild gegen die Nutzungsrichtlinien von Vertex AI verstößt. Wenn Sie der Meinung sind, dass es sich hierbei um einen Fehler handelt, können Sie Feedback geben. Supportcodes: 15236754“
Der in der Ausgabe aufgeführte Code entspricht einer bestimmten schädlichen Kategorie.
In der folgenden Tabelle sehen Sie die Zuordnungen von Supportcodes zu Sicherheitskategorien:
| Support code | Sicherheitskategorie | Beschreibung |
|---|---|---|
5806121417301594
|
Untergeordnet |
Lehnt Anfragen zum Generieren von Inhalten mit Kindern ab, wenn personGeneration nicht auf "allow_all" festgelegt ist oder das Projekt nicht auf der Zulassungsliste für diese Funktion steht.
|
2931047215236754
|
Celebrity | Lehnt Anfragen zum Generieren einer fotorealistischen Darstellung einer prominenten Person ab oder wenn das Projekt nicht auf der Zulassungsliste für diese Funktion steht. |
6415111742237218
|
Verstoß gegen die Richtlinien zur Sicherheit von Videos | Erkennt Inhalte, die einen Sicherheitsverstoß darstellen. |
62263041 |
Gefährliche Inhalte | Erkennt potenziell gefährliche Inhalte. |
5773494022137204
|
Hass | Erkennt hasserfüllte Themen oder Inhalte. |
748032812957879042876398
|
Sonstiges | Erkennt andere verschiedene Sicherheitsprobleme mit der Anfrage. |
92201652 |
Personenbezogene Daten | Erkennt personenidentifizierbare Informationen im Text, z. B. die Erwähnung einer Kreditkartennummer, Privatadressen oder anderer solcher Informationen. |
893710324911466272817394
|
Unzulässige Inhalte | Erkennt die Anfrage unzulässiger Inhalte in der Anfrage. |
907891796342908943188360
|
Sexuelle Inhalte | Er erkennt Inhalte sexueller Natur. |
78610348 |
Schädlich | Erkennt schädliche Themen oder Inhalte im Text. |
6149386356562880
|
Gewalt | Erkennt gewaltverherrlichende Inhalte in Videos oder Text. |
32635315 |
Ordinär | Erkennt vulgäre Themen oder Inhalte aus dem Text. |
Nächste Schritte
Weitere Informationen zu den Empfehlungen von Google für die verantwortungsbewusste Anwendung von KI
Lesen Sie unseren Blogbeitrag Eine gemeinsame Agenda für verantwortungsbewussten Fortschritt in Sachen KI.