Veo su Vertex AI è progettato tenendo presenti i principi dell'AI di Google. Tuttavia, è importante che gli sviluppatori comprendano come testare e implementare i modelli di Google in modo sicuro e responsabile. Per aiutare gli sviluppatori, Veo su Vertex AI dispone di funzionalità di sicurezza integrate per aiutare i clienti a bloccare output potenzialmente dannosi nei loro casi d'uso. Per ulteriori informazioni, consulta Filtri di sicurezza.
Invitiamo i clienti a utilizzare le best practice in materia di equità, interpretabilità, privacy e sicurezza quando sviluppano applicazioni di AI. Per ulteriori informazioni, consulta la Guida People + AI.
filtri di sicurezza
Veo su Vertex AI offre diversi modi per inserire prompt per generare video, tra cui
testo, video e immagini. I prompt forniti a Veo vengono
valutati in base a un elenco di filtri di sicurezza, che includono categorie dannose
(ad esempio, violence, sexual, derogatory e toxic). Questi filtri di sicurezza
mirano a escludere immagini e video di input che violano le Google Cloud
norme di utilizzo accettabile della piattaforma,
le norme di utilizzo vietato dell'AI generativa o i nostri
principi di AI.
Se il modello risponde a una richiesta con un messaggio di errore, ad esempio The
prompt couldn't be submitted o it might violate our
policies, l'input sta attivando un filtro di sicurezza. Se vengono restituiti meno video
di quelli richiesti, alcuni output generati vengono bloccati perché non
soddisfano i requisiti di sicurezza.
Categorie di codici del filtro di sicurezza
A seconda dei filtri di sicurezza che configuri, l'output potrebbe contenere un codice di sicurezza simile a: "Veo non è riuscito a generare video perché l'immagine di input viola le linee guida per l'utilizzo di Vertex AI. Se ritieni che si sia trattato di un errore, invia un feedback. Codici di assistenza: 15236754"
Il codice elencato nell'output corrisponde a una categoria dannosa specifica.
La tabella seguente mostra i mapping tra codice di assistenza e categoria di sicurezza:
| Codice di assistenza | Categoria di sicurezza | Descrizione |
|---|---|---|
5806121417301594
|
Figlio |
Rifiuta le richieste di generazione di contenuti che raffigurano bambini se
personGeneration non è impostato su "allow_all"
o se il progetto non è nella lista consentita per questa funzionalità.
|
2931047215236754
|
Celebrity | Rifiuta le richieste di generare una rappresentazione fotorealistica di una persona di spicco o se il progetto non è nella lista consentita per questa funzionalità. |
6415111742237218
|
Violazione della sicurezza dei video | Rileva i contenuti che costituiscono una violazione della sicurezza. |
62263041 |
Contenuti pericolosi | Rileva contenuti potenzialmente pericolosi. |
5773494022137204
|
Incitamento all'odio | Rileva argomenti o contenuti correlati all'odio. |
748032812957879042876398
|
Altro | Rileva altri problemi di sicurezza vari con la richiesta |
92201652 |
Informazioni personali | Rileva informazioni che consentono l'identificazione personale (PII) nel testo, ad esempio il numero di una carta di credito, indirizzi di casa o altre informazioni di questo tipo. |
893710324911466272817394
|
Contenuti vietati | Rileva la richiesta di contenuti vietati nella richiesta. |
907891796342908943188360
|
Contenuti di natura sessuale | Rileva contenuti di natura sessuale. |
78610348 |
Contenuti tossici | Rileva argomenti o contenuti dannosi nel testo. |
6149386356562880
|
Violenza | Rileva contenuti correlati alla violenza nel video o nel testo. |
32635315 |
Volgare | Rileva argomenti o contenuti volgari dal testo. |
Passaggi successivi
Scopri di più sull'IA responsabile per i modelli linguistici di grandi dimensioni (LLM)
Scopri di più sui consigli di Google per le pratiche di AI responsabile
Leggi il nostro blog, Un'agenda condivisa per il progresso dell'AI responsabile