IA responsable y lineamientos de uso para Veo

Veo en Vertex AI se diseñó teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los desarrolladores comprendan cómo probar e implementar los modelos de Google de manera segura y responsable. Para ayudar a los desarrolladores, Veo en Vertex AI tiene funciones de seguridad integradas que ayudan a los clientes a bloquear los resultados potencialmente dañinos dentro de sus casos de uso. Para obtener más información, consulta filtros de seguridad.

Recomendamos a los clientes que utilicen las prácticas recomendadas de equidad, interpretabilidad, privacidad y seguridad cuando desarrollen aplicaciones de IA. Para obtener más información, consulta The People + AI Guidebook (Guía de las personas y la IA).

Filtros de seguridad

Veo en Vertex AI ofrece varias formas de ingresar instrucciones para generar videos, como texto, videos e imágenes. Las instrucciones que se proporcionan a Veo se evalúan en función de una lista de filtros de seguridad, que incluyen categorías dañinas (por ejemplo, violence, sexual, derogatory y toxic). Estos filtros de seguridad tienen como objetivo filtrar las imágenes y los videos de entrada que incumplen la Google CloudPolítica de Uso Aceptable de la Plataforma, la Política de Uso Prohibido de la IA Generativa o Nuestros Principios de la IA.

Si el modelo responde a una solicitud con un mensaje de error, como The prompt couldn't be submitted o it might violate our policies, la entrada activa un filtro de seguridad. Si se muestran menos imágenes de las solicitadas, algunos resultados generados se bloquean por no cumplir con los requisitos de seguridad.

Categorías de códigos de filtro de seguridad

Según los filtros de seguridad que configures, tu resultado puede contener un código de seguridad similar al siguiente: "Veo no pudo generar videos porque la imagen de entrada incumple los lineamientos de uso de Vertex AI. Si crees que se trata de un error, envía comentarios. Códigos de asistencia: 15236754"

El código que se indica en el resultado corresponde a una categoría dañina específica.

En la siguiente tabla, se muestran las asignaciones de códigos de error a categorías de seguridad:

Código de error Categoría de seguridad Descripción
58061214
17301594
Secundario Rechaza las solicitudes para generar contenido que represente a niños si personGeneration no está establecido en "allow_all" o si el proyecto no está en la lista de entidades permitidas para esta función.
29310472
15236754
Celebridad Rechaza las solicitudes para generar una representación fotorrealista de una persona destacada o si el proyecto no está en la lista de entidades permitidas para esta función.
64151117
42237218
Infracción de seguridad de video Detecta el contenido que constituye un incumplimiento de seguridad.
62263041 Contenido peligroso Detecta el contenido que es potencialmente peligroso por naturaleza.
57734940
22137204
Odio Detecta temas o contenido relacionados con el odio.
74803281
29578790
42876398
Otro Detecta otros problemas de seguridad diversos con la solicitud
92201652 Información personal Detecta información de identificación personal (PII) en el texto, como la mención de un número de tarjeta de crédito, direcciones particulares o demás información similar.
89371032
49114662
72817394
Contenido prohibido Detecta la solicitud de contenido prohibido en la solicitud.
90789179
63429089
43188360
Contenido sexual Detecta contenido de naturaleza sexual.
78610348 Tóxico Detecta temas o contenido tóxico en el texto.
61493863
56562880
Violencia Detecta contenido relacionado con la violencia en la imagen o el texto.
32635315 Vulgar Detecta temas o contenido vulgar en el texto.

¿Qué sigue?