Veo su Vertex AI è progettato in base ai principi dell'AI di Google. Tuttavia, è importante che gli sviluppatori comprendano come testare e implementare i modelli di Google in modo sicuro e responsabile. Per aiutare gli sviluppatori, Veo su Vertex AI dispone di funzionalità di sicurezza integrate per aiutare i clienti a bloccare output potenzialmente dannosi nei loro casi d'uso. Per ulteriori informazioni, consulta Filtri di sicurezza.
Invitiamo i clienti a utilizzare le best practice in materia di equità, interpretabilità, privacy e sicurezza quando sviluppano applicazioni di AI. Per ulteriori informazioni, consulta la Guida People + AI.
Filtri di sicurezza
Veo su Vertex AI offre diversi modi per inserire prompt per generare video, tra cui
testo, video e immagini. I prompt forniti a Veo vengono
valutati in base a un elenco di filtri di sicurezza, che includono categorie dannose
(ad esempio, violence
, sexual
, derogatory
e toxic
). Questi filtri di sicurezza
mirano a escludere immagini e video di input che violano le Google Cloud
norme di utilizzo accettabile della piattaforma,
le norme di utilizzo vietato dell'AI generativa o i nostri principi
dell'AI.
Se il modello risponde a una richiesta con un messaggio di errore, ad esempio The
prompt couldn't be submitted
o it might violate our
policies
, l'input sta attivando un filtro di sicurezza. Se vengono restituite meno immagini
di quelle richieste, alcuni output generati vengono bloccati perché non
soddisfano i requisiti di sicurezza.
Categorie di codici del filtro di sicurezza
A seconda dei filtri di sicurezza che configuri, l'output potrebbe contenere un codice di sicurezza simile a: "Veo non è riuscito a generare video perché l'immagine di input viola le linee guida per l'utilizzo di Vertex AI. Se ritieni che si sia trattato di un errore, invia un feedback. Codici di assistenza: 15236754"
Il codice elencato nell'output corrisponde a una categoria dannosa specifica.
La tabella seguente mostra i mapping tra codice di errore e categoria di sicurezza:
Codice di errore | Categoria di sicurezza | Descrizione |
---|---|---|
58061214 17301594
|
Figlio |
Rifiuta le richieste di generazione di contenuti che raffigurano bambini se
personGeneration non è impostato su "allow_all"
o se il progetto non è nella lista consentita per questa funzionalità.
|
29310472 15236754
|
Celebrity | Rifiuta le richieste di generare una rappresentazione fotorealistica di una persona di spicco o se il progetto non è nella lista consentita per questa funzionalità. |
64151117 42237218
|
Violazione della sicurezza dei video | Rileva i contenuti che costituiscono una violazione della sicurezza. |
62263041 |
Contenuti pericolosi | Rileva contenuti potenzialmente pericolosi. |
57734940 22137204
|
Incitamento all'odio | Rileva argomenti o contenuti correlati all'odio. |
74803281 29578790 42876398
|
Altro | Rileva altri problemi di sicurezza vari con la richiesta |
92201652 |
Informazioni personali | Rileva informazioni che consentono l'identificazione personale (PII) nel testo, ad esempio il numero di una carta di credito, indirizzi di casa o altre informazioni di questo tipo. |
89371032 49114662 72817394
|
Contenuti vietati | Rileva la richiesta di contenuti vietati nella richiesta. |
90789179 63429089 43188360
|
Contenuti di natura sessuale | Rileva contenuti di natura sessuale. |
78610348 |
Contenuti tossici | Rileva argomenti o contenuti dannosi nel testo. |
61493863 56562880
|
Violenza | Rileva contenuti correlati alla violenza dall'immagine o dal testo. |
32635315 |
Volgare | Rileva argomenti o contenuti volgari dal testo. |
Passaggi successivi
Scopri di più sull'IA responsabile per i modelli linguistici di grandi dimensioni (LLM)
Scopri di più sui consigli di Google per le pratiche di AI responsabile
Leggi il nostro blog, Un'agenda condivisa per il progresso dell'AI responsabile