Istruzioni sull'uso e sull'IA responsabile per Veo

Veo su Vertex AI è progettato in base ai principi dell'AI di Google. Tuttavia, è importante che gli sviluppatori comprendano come testare e implementare i modelli di Google in modo sicuro e responsabile. Per aiutare gli sviluppatori, Veo su Vertex AI dispone di funzionalità di sicurezza integrate per aiutare i clienti a bloccare output potenzialmente dannosi nei loro casi d'uso. Per ulteriori informazioni, consulta Filtri di sicurezza.

Invitiamo i clienti a utilizzare le best practice in materia di equità, interpretabilità, privacy e sicurezza quando sviluppano applicazioni di AI. Per ulteriori informazioni, consulta la Guida People + AI.

Filtri di sicurezza

Veo su Vertex AI offre diversi modi per inserire prompt per generare video, tra cui testo, video e immagini. I prompt forniti a Veo vengono valutati in base a un elenco di filtri di sicurezza, che includono categorie dannose (ad esempio, violence, sexual, derogatory e toxic). Questi filtri di sicurezza mirano a escludere immagini e video di input che violano le Google Cloud norme di utilizzo accettabile della piattaforma, le norme di utilizzo vietato dell'AI generativa o i nostri principi dell'AI.

Se il modello risponde a una richiesta con un messaggio di errore, ad esempio The prompt couldn't be submitted o it might violate our policies, l'input sta attivando un filtro di sicurezza. Se vengono restituite meno immagini di quelle richieste, alcuni output generati vengono bloccati perché non soddisfano i requisiti di sicurezza.

Categorie di codici del filtro di sicurezza

A seconda dei filtri di sicurezza che configuri, l'output potrebbe contenere un codice di sicurezza simile a: "Veo non è riuscito a generare video perché l'immagine di input viola le linee guida per l'utilizzo di Vertex AI. Se ritieni che si sia trattato di un errore, invia un feedback. Codici di assistenza: 15236754"

Il codice elencato nell'output corrisponde a una categoria dannosa specifica.

La tabella seguente mostra i mapping tra codice di errore e categoria di sicurezza:

Codice di errore Categoria di sicurezza Descrizione
58061214
17301594
Figlio Rifiuta le richieste di generazione di contenuti che raffigurano bambini se personGeneration non è impostato su "allow_all" o se il progetto non è nella lista consentita per questa funzionalità.
29310472
15236754
Celebrity Rifiuta le richieste di generare una rappresentazione fotorealistica di una persona di spicco o se il progetto non è nella lista consentita per questa funzionalità.
64151117
42237218
Violazione della sicurezza dei video Rileva i contenuti che costituiscono una violazione della sicurezza.
62263041 Contenuti pericolosi Rileva contenuti potenzialmente pericolosi.
57734940
22137204
Incitamento all'odio Rileva argomenti o contenuti correlati all'odio.
74803281
29578790
42876398
Altro Rileva altri problemi di sicurezza vari con la richiesta
92201652 Informazioni personali Rileva informazioni che consentono l'identificazione personale (PII) nel testo, ad esempio il numero di una carta di credito, indirizzi di casa o altre informazioni di questo tipo.
89371032
49114662
72817394
Contenuti vietati Rileva la richiesta di contenuti vietati nella richiesta.
90789179
63429089
43188360
Contenuti di natura sessuale Rileva contenuti di natura sessuale.
78610348 Contenuti tossici Rileva argomenti o contenuti dannosi nel testo.
61493863
56562880
Violenza Rileva contenuti correlati alla violenza dall'immagine o dal testo.
32635315 Volgare Rileva argomenti o contenuti volgari dal testo.

Passaggi successivi