IA responsable et consignes d'utilisation de Veo

Veo sur Vertex AI est conçu en appliquant les principes de l'IA de Google. Cependant, il est important que les développeurs comprennent comment tester et déployer les modèles de Google de manière sûre et responsable. Pour aider les développeurs, Veo sur Vertex AI dispose de fonctionnalités de sécurité intégrées qui aident les clients à bloquer les sorties potentiellement dangereuses dans leurs cas d'utilisation. Pour en savoir plus, consultez Filtres de sécurité.

Nous encourageons les clients à utiliser les bonnes pratiques d'équité, d'interprétabilité, de confidentialité et de sécurité lorsqu'ils développent des applications d'IA. Pour en savoir plus, consultez le Guidebook People + AI.

Filtres de sécurité

Veo sur Vertex AI propose plusieurs façons de saisir des requêtes pour générer des vidéos, y compris du texte, des vidéos et des images. Les requêtes fournies à Veo sont évaluées par rapport à une liste de filtres de sécurité, qui incluent des catégories dangereuses (par exemple, violence, sexual, derogatory et toxic). Ces filtres de sécurité visent à filtrer les images et les vidéos saisies qui enfreignent le Google CloudRèglement sur l'utilisation acceptable de la plate-forme, le Règlement sur les utilisations interdites de l'IA générative ou nos Principes de l'IA.

Si le modèle répond à une requête avec un message d'erreur, tel que The prompt couldn't be submitted ou it might violate our policies, cela signifie que l'entrée déclenche un filtre de sécurité. Si le nombre d'images renvoyées est inférieur à celui demandé, certains résultats générés sont bloqués pour non-respect des exigences de sécurité.

Catégories de codes de filtre de sécurité

Selon les filtres de sécurité que vous configurez, la sortie peut contenir un code de sécurité semblable à celui-ci : "Veo n'a pas pu générer de vidéos, car l'image d'entrée ne respecte pas les consignes d'utilisation de Vertex AI. Si vous pensez qu'il s'agit d'une erreur, envoyez vos commentaires. Codes d'assistance : 15236754"

Le code indiqué dans le résultat correspond à une catégorie de contenu nuisible spécifique.

Le tableau suivant affiche les mappages entre les codes d'erreur et les catégories de sécurité :

Code d'erreur Catégorie de sécurité Description
58061214
17301594
Enfant Rejette les demandes de génération de contenu représentant des enfants si personGeneration n'est pas défini sur "allow_all" ou si le projet ne figure pas sur la liste d'autorisation pour cette fonctionnalité.
29310472
15236754
Célébrité Rejette les demandes de génération d'une représentation photoréaliste d'une personne célèbre ou si le projet ne figure pas sur la liste d'autorisation pour cette fonctionnalité.
64151117
42237218
Atteinte à la sécurité des vidéos Détecte les contenus qui enfreignent les règles de sécurité.
62263041 Contenu dangereux Détecte les contenus potentiellement dangereux.
57734940
22137204
Contenu haineux Détecte les sujets ou les contenus incitant à la haine.
74803281
29578790
42876398
Autre Détecte d'autres problèmes de sécurité liés à la requête.
92201652 Informations personnelles Détecte les informations permettant d'identifier personnellement l'utilisateur dans le texte, telles que les numéros de carte de crédit, les adresses personnelles ou d'autres informations de ce type.
89371032
49114662
72817394
Contenu interdit Détecte les contenus interdits dans la requête.
90789179
63429089
43188360
Contenu à caractère sexuel Détecte les contenus à caractère sexuel.
78610348 Contenu toxique Détecte les sujets ou contenus toxiques dans le texte.
61493863
56562880
Violence Détecte les contenus violents dans l'image ou le texte.
32635315 Contenu vulgaire Détecte les sujets ou contenus vulgaires dans le texte.

Étapes suivantes