Veo en Vertex AI se diseñó teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los desarrolladores comprendan cómo probar e implementar los modelos de Google de manera segura y responsable. Para ayudar a los desarrolladores, Veo en Vertex AI tiene funciones de seguridad integradas que ayudan a los clientes a bloquear los resultados potencialmente dañinos dentro de sus casos de uso. Para obtener más información, consulta filtros de seguridad.
Recomendamos a los clientes que utilicen las prácticas recomendadas de equidad, interpretabilidad, privacidad y seguridad cuando desarrollen aplicaciones de IA. Para obtener más información, consulta The People + AI Guidebook (Guía de las personas y la IA).
Filtros de seguridad
Veo en Vertex AI ofrece varias formas de ingresar instrucciones para generar videos, como texto, videos e imágenes. Las instrucciones que se proporcionan a Veo se evalúan en función de una lista de filtros de seguridad, que incluyen categorías dañinas (por ejemplo, violence
, sexual
, derogatory
y toxic
). Estos filtros de seguridad tienen como objetivo filtrar las imágenes y los videos de entrada que incumplen la Google CloudPolítica de Uso Aceptable de la Plataforma, la Política de Uso Prohibido de la IA Generativa o Nuestros Principios de la IA.
Si el modelo responde a una solicitud con un mensaje de error, como The
prompt couldn't be submitted
o it might violate our
policies
, la entrada activa un filtro de seguridad. Si se muestran menos imágenes de las solicitadas, algunos resultados generados se bloquean por no cumplir con los requisitos de seguridad.
Categorías de códigos de filtro de seguridad
Según los filtros de seguridad que configures, tu resultado puede contener un código de seguridad similar al siguiente: "Veo no pudo generar videos porque la imagen de entrada incumple los lineamientos de uso de Vertex AI. Si crees que se trata de un error, envía comentarios. Códigos de asistencia: 15236754"
El código que se indica en el resultado corresponde a una categoría dañina específica.
En la siguiente tabla, se muestran las asignaciones de códigos de error a categorías de seguridad:
Código de error | Categoría de seguridad | Descripción |
---|---|---|
58061214 17301594
|
Secundario |
Rechaza las solicitudes para generar contenido que represente a niños si personGeneration no está establecido en "allow_all" o si el proyecto no está en la lista de entidades permitidas para esta función.
|
29310472 15236754
|
Celebridad | Rechaza las solicitudes para generar una representación fotorrealista de una persona destacada o si el proyecto no está en la lista de entidades permitidas para esta función. |
64151117 42237218
|
Infracción de seguridad de video | Detecta el contenido que constituye un incumplimiento de seguridad. |
62263041 |
Contenido peligroso | Detecta el contenido que es potencialmente peligroso por naturaleza. |
57734940 22137204
|
Odio | Detecta temas o contenido relacionados con el odio. |
74803281 29578790 42876398
|
Otro | Detecta otros problemas de seguridad diversos con la solicitud |
92201652 |
Información personal | Detecta información de identificación personal (PII) en el texto, como la mención de un número de tarjeta de crédito, direcciones particulares o demás información similar. |
89371032 49114662 72817394
|
Contenido prohibido | Detecta la solicitud de contenido prohibido en la solicitud. |
90789179 63429089 43188360
|
Contenido sexual | Detecta contenido de naturaleza sexual. |
78610348 |
Tóxico | Detecta temas o contenido tóxico en el texto. |
61493863 56562880
|
Violencia | Detecta contenido relacionado con la violencia en la imagen o el texto. |
32635315 |
Vulgar | Detecta temas o contenido vulgar en el texto. |
¿Qué sigue?
Obtén información sobre la IA responsable para modelos de lenguaje grandes (LLM)
Obtén más información sobre las recomendaciones de Google para las prácticas de IA responsable
Lee nuestro blog, Un tema compartido para el IA responsable IA