O Veo no Vertex AI foi concebido tendo em conta os princípios da IA da Google. No entanto, é importante que os programadores saibam como testar e implementar os modelos da Google de forma segura e responsável. Para ajudar os programadores, o Veo na Vertex AI tem funcionalidades de segurança incorporadas para ajudar os clientes a bloquear resultados potencialmente prejudiciais nos respetivos exemplos de utilização. Para mais informações, consulte os filtros de segurança.
Incentivamos os clientes a usar as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança ao desenvolver aplicações de IA. Para mais informações, consulte o Guia de IA + pessoas.
Filtros de segurança
O Veo na Vertex AI oferece várias formas de introduzir comandos para gerar vídeos, incluindo texto, vídeo e imagens. Os comandos fornecidos ao Veo são avaliados com base numa lista de filtros de segurança, que incluem categorias prejudiciais (por exemplo, violence, sexual, derogatory e toxic). Estes filtros de segurança destinam-se a filtrar imagens e vídeos de entrada que violem a Google CloudPolítica de Utilização Aceitável da Plataforma, a Política de Utilização Proibida da IA Generativa ou os Nossos Princípios de IA.
Se o modelo responder a um pedido com uma mensagem de erro, como The
prompt couldn't be submitted ou it might violate our
policies, significa que a entrada está a acionar um filtro de segurança. Se forem devolvidos menos vídeos do que o pedido, significa que alguns resultados gerados estão a ser bloqueados por não cumprirem os requisitos de segurança.
Categorias de códigos de filtros de segurança
Consoante os filtros de segurança que configurar, a saída pode conter um código de segurança semelhante ao seguinte: "O Veo não conseguiu gerar vídeos porque a imagem de entrada viola as diretrizes de utilização da Vertex AI. Se considerar que se trata de um erro, envie feedback. Códigos de apoio técnico: 15236754"
O código apresentado no resultado corresponde a uma categoria prejudicial específica.
A tabela seguinte apresenta o código de apoio técnico para mapeamentos de categorias de segurança:
| Código de apoio técnico | Categoria de segurança | Descrição |
|---|---|---|
5806121417301594
|
Filho |
Rejeita pedidos para gerar conteúdo que represente crianças se
personGeneration não estiver definido como "allow_all"
ou se o projeto não estiver na lista de autorizações para esta funcionalidade.
|
2931047215236754
|
Celebridade | Rejeita pedidos para gerar uma representação fotorrealista de uma pessoa proeminente ou se o projeto não estiver na lista de autorizações para esta funcionalidade. |
6415111742237218
|
Violação de segurança de vídeo | Deteta conteúdo que constitui uma violação de segurança. |
62263041 |
Conteúdo perigoso | Deteta conteúdo potencialmente perigoso por natureza. |
5773494022137204
|
Ódio | Deteta tópicos ou conteúdo relacionados com incitamento ao ódio. |
748032812957879042876398
|
Outro | Deteta outros problemas de segurança diversos com o pedido |
92201652 |
Informações pessoais | Deteta informações de identificação pessoal (IIP) no texto, como a menção de um número de cartão de crédito, moradas de casa ou outras informações semelhantes. |
893710324911466272817394
|
Conteúdo proibido | Deteta o pedido de conteúdo proibido no pedido. |
907891796342908943188360
|
Sexual | Deteta conteúdo de natureza sexual. |
78610348 |
Tóxico | Deteta tópicos ou conteúdo tóxicos no texto. |
6149386356562880
|
Violência | Deteta conteúdo relacionado com violência no vídeo ou texto. |
32635315 |
Vulgar | Deteta tópicos ou conteúdo vulgar no texto. |
O que se segue?
Saiba mais sobre a IA responsável para modelos de linguagem (conteúdo extenso) (MDIs/CEs)
Saiba mais sobre as recomendações da Google para práticas de IA responsável
Leia o nosso blogue, Uma agenda partilhada para o progresso da IA responsável