IA responsável e diretrizes de uso do Veo

O Veo na Vertex AI foi projetado com base nos princípios de IA do Google. No entanto, é importante que os desenvolvedores entendam como testar e implantar os modelos do Google com segurança e responsabilidade. Para ajudar os desenvolvedores, o Veo na Vertex AI tem recursos de segurança integrados para ajudar os clientes a bloquear resultados potencialmente prejudiciais nos casos de uso. Para mais informações, consulte filtros de segurança.

Incentivamos os clientes a usar as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança ao desenvolver aplicativos de IA. Para mais informações, consulte O Guia de pessoas e IA.

Filtros de segurança

O Veo na Vertex AI oferece várias maneiras de inserir comandos para gerar vídeos, incluindo texto, vídeo e imagens. Os comandos enviados ao Veo são avaliados com base em uma lista de filtros de segurança, que incluem categorias prejudiciais (por exemplo, violence, sexual, derogatory e toxic). Esses filtros de segurança têm como objetivo remover imagens e vídeos de entrada que violam a Política de uso aceitável da plataformaGoogle Cloud, a Política de uso proibido da IA generativa ou Nossos princípios de IA.

Se o modelo responder a uma solicitação com uma mensagem de erro, como The prompt couldn't be submitted ou it might violate our policies, a entrada vai acionar um filtro de segurança. Se menos imagens do que o solicitado forem retornadas, algumas saídas geradas serão bloqueadas por não atender aos requisitos de segurança.

Categorias de código de filtro de segurança

Dependendo dos filtros de segurança configurados, a saída pode conter um código de segurança semelhante a: "O Veo não pôde gerar vídeos porque a imagem de entrada viola as diretrizes de uso da Vertex AI. Se você acha que isso é um erro, envie feedback. Códigos de suporte: 15236754"

O código listado na saída corresponde a uma categoria nociva específica.

A tabela a seguir mostra os mapeamentos de código de erro para categoria de segurança:

Código do erro Categoria de segurança Descrição
58061214
17301594
Filho Rejeita solicitações para gerar conteúdo com crianças se personGeneration não estiver definido como "allow_all" ou se o projeto não estiver na lista de permissões para esse recurso.
29310472
15236754
Celebridade Rejeita solicitações para gerar uma representação fotorrealista de uma pessoa famosa ou se o projeto não estiver na lista de permissões desse recurso.
64151117
42237218
Violação de segurança de vídeo Detecta conteúdo que é uma violação de segurança.
62263041 Conteúdo perigoso Detecta conteúdo que é potencialmente perigoso por natureza.
57734940
22137204
Incita o ódio Detecta conteúdo ou tópicos relacionados a incitação ao ódio.
74803281
29578790
42876398
Outro Detecta outros problemas de segurança diversos com a solicitação
92201652 Informações pessoais Detecta informações de identificação pessoal (PII) no texto, como a menção de um número de cartão de crédito, endereços residenciais ou outras informações.
89371032
49114662
72817394
Conteúdo proibido Detecta a solicitação de conteúdo proibido.
90789179
63429089
43188360
Conteúdo sexual Detecta conteúdo de natureza sexual.
78610348 Tóxico Detecta temas ou conteúdo tóxico no texto.
61493863
56562880
Violência Detecta conteúdo relacionado à violência na imagem ou no texto.
32635315 Vulgar Detecta temas ou conteúdo vulgar no texto.

A seguir