O Veo na Vertex AI foi projetado com base nos princípios de IA do Google. No entanto, é importante que os desenvolvedores entendam como testar e implantar os modelos do Google com segurança e responsabilidade. Para ajudar os desenvolvedores, o Veo na Vertex AI tem recursos de segurança integrados para ajudar os clientes a bloquear resultados potencialmente prejudiciais nos casos de uso. Para mais informações, consulte filtros de segurança.
Incentivamos os clientes a usar as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança ao desenvolver aplicativos de IA. Para mais informações, consulte O Guia de pessoas e IA.
Filtros de segurança
O Veo na Vertex AI oferece várias maneiras de inserir comandos para gerar vídeos, incluindo texto, vídeo e imagens. Os comandos enviados ao Veo são avaliados com base em uma lista de filtros de segurança, que incluem categorias prejudiciais (por exemplo, violence
, sexual
, derogatory
e toxic
). Esses filtros de segurança têm como objetivo remover imagens e vídeos de entrada que violam a Política de uso aceitável da plataformaGoogle Cloud, a Política de uso proibido da IA generativa ou Nossos princípios de IA.
Se o modelo responder a uma solicitação com uma mensagem de erro, como The
prompt couldn't be submitted
ou it might violate our
policies
, a entrada vai acionar um filtro de segurança. Se menos imagens
do que o solicitado forem retornadas, algumas saídas geradas serão bloqueadas por não
atender aos requisitos de segurança.
Categorias de código de filtro de segurança
Dependendo dos filtros de segurança configurados, a saída pode conter um código de segurança semelhante a: "O Veo não pôde gerar vídeos porque a imagem de entrada viola as diretrizes de uso da Vertex AI. Se você acha que isso é um erro, envie feedback. Códigos de suporte: 15236754"
O código listado na saída corresponde a uma categoria nociva específica.
A tabela a seguir mostra os mapeamentos de código de erro para categoria de segurança:
Código do erro | Categoria de segurança | Descrição |
---|---|---|
58061214 17301594
|
Filho |
Rejeita solicitações para gerar conteúdo com crianças se
personGeneration não estiver definido como "allow_all"
ou se o projeto não estiver na lista de permissões para esse recurso.
|
29310472 15236754
|
Celebridade | Rejeita solicitações para gerar uma representação fotorrealista de uma pessoa famosa ou se o projeto não estiver na lista de permissões desse recurso. |
64151117 42237218
|
Violação de segurança de vídeo | Detecta conteúdo que é uma violação de segurança. |
62263041 |
Conteúdo perigoso | Detecta conteúdo que é potencialmente perigoso por natureza. |
57734940 22137204
|
Incita o ódio | Detecta conteúdo ou tópicos relacionados a incitação ao ódio. |
74803281 29578790 42876398
|
Outro | Detecta outros problemas de segurança diversos com a solicitação |
92201652 |
Informações pessoais | Detecta informações de identificação pessoal (PII) no texto, como a menção de um número de cartão de crédito, endereços residenciais ou outras informações. |
89371032 49114662 72817394
|
Conteúdo proibido | Detecta a solicitação de conteúdo proibido. |
90789179 63429089 43188360
|
Conteúdo sexual | Detecta conteúdo de natureza sexual. |
78610348 |
Tóxico | Detecta temas ou conteúdo tóxico no texto. |
61493863 56562880
|
Violência | Detecta conteúdo relacionado à violência na imagem ou no texto. |
32635315 |
Vulgar | Detecta temas ou conteúdo vulgar no texto. |
A seguir
Saiba mais sobre a IA responsável por modelos de linguagem grande (LLMs)
Saiba mais sobre as recomendações do Google para práticas de IA responsável.
Leia nosso blog Uma programação compartilhada para o IA responsável IA