Veo sur Vertex AI est conçu en appliquant les principes de l'IA de Google. Cependant, il est important que les développeurs comprennent comment tester et déployer les modèles de Google de manière sûre et responsable. Pour aider les développeurs, Veo sur Vertex AI dispose de fonctionnalités de sécurité intégrées qui aident les clients à bloquer les sorties potentiellement dangereuses dans leurs cas d'utilisation. Pour en savoir plus, consultez Filtres de sécurité.
Nous encourageons les clients à utiliser les bonnes pratiques d'équité, d'interprétabilité, de confidentialité et de sécurité lorsqu'ils développent des applications d'IA. Pour en savoir plus, consultez le Guidebook People + AI.
Filtres de sécurité
Veo sur Vertex AI propose plusieurs façons de saisir des requêtes pour générer des vidéos, y compris du texte, des vidéos et des images. Les requêtes fournies à Veo sont évaluées par rapport à une liste de filtres de sécurité, qui incluent des catégories dangereuses (par exemple, violence
, sexual
, derogatory
et toxic
). Ces filtres de sécurité visent à filtrer les images et les vidéos saisies qui enfreignent le Google CloudRèglement sur l'utilisation acceptable de la plate-forme, le Règlement sur les utilisations interdites de l'IA générative ou nos Principes de l'IA.
Si le modèle répond à une requête avec un message d'erreur, tel que The
prompt couldn't be submitted
ou it might violate our
policies
, cela signifie que l'entrée déclenche un filtre de sécurité. Si le nombre d'images renvoyées est inférieur à celui demandé, certains résultats générés sont bloqués pour non-respect des exigences de sécurité.
Catégories de codes de filtre de sécurité
Selon les filtres de sécurité que vous configurez, la sortie peut contenir un code de sécurité semblable à celui-ci : "Veo n'a pas pu générer de vidéos, car l'image d'entrée ne respecte pas les consignes d'utilisation de Vertex AI. Si vous pensez qu'il s'agit d'une erreur, envoyez vos commentaires. Codes d'assistance : 15236754"
Le code indiqué dans le résultat correspond à une catégorie de contenu nuisible spécifique.
Le tableau suivant affiche les mappages entre les codes d'erreur et les catégories de sécurité :
Code d'erreur | Catégorie de sécurité | Description |
---|---|---|
58061214 17301594
|
Enfant |
Rejette les demandes de génération de contenu représentant des enfants si personGeneration n'est pas défini sur "allow_all" ou si le projet ne figure pas sur la liste d'autorisation pour cette fonctionnalité.
|
29310472 15236754
|
Célébrité | Rejette les demandes de génération d'une représentation photoréaliste d'une personne célèbre ou si le projet ne figure pas sur la liste d'autorisation pour cette fonctionnalité. |
64151117 42237218
|
Atteinte à la sécurité des vidéos | Détecte les contenus qui enfreignent les règles de sécurité. |
62263041 |
Contenu dangereux | Détecte les contenus potentiellement dangereux. |
57734940 22137204
|
Contenu haineux | Détecte les sujets ou les contenus incitant à la haine. |
74803281 29578790 42876398
|
Autre | Détecte d'autres problèmes de sécurité liés à la requête. |
92201652 |
Informations personnelles | Détecte les informations permettant d'identifier personnellement l'utilisateur dans le texte, telles que les numéros de carte de crédit, les adresses personnelles ou d'autres informations de ce type. |
89371032 49114662 72817394
|
Contenu interdit | Détecte les contenus interdits dans la requête. |
90789179 63429089 43188360
|
Contenu à caractère sexuel | Détecte les contenus à caractère sexuel. |
78610348 |
Contenu toxique | Détecte les sujets ou contenus toxiques dans le texte. |
61493863 56562880
|
Violence | Détecte les contenus violents dans l'image ou le texte. |
32635315 |
Contenu vulgaire | Détecte les sujets ou contenus vulgaires dans le texte. |
Étapes suivantes
En savoir plus sur l'IA responsable pour les grands modèles de langage (LLM)
En savoir plus sur les recommandations de Google pour les pratiques d'IA responsables
Consultez notre blog, Un programme partagé pour la IA responsable#39;IA.