Ce principe du pilier de sécurité du Google Cloud Well-Architected Framework fournit des recommandations pour vous aider à sécuriser vos systèmes d'IA. Ces recommandations sont conformes au framework d'IA sécurisé (SAIF) de Google, qui fournit une approche pratique pour répondre aux préoccupations liées à la sécurité et aux risques des systèmes d'IA. Le SAIF est un framework conceptuel qui vise à fournir des normes à l'échelle du secteur pour créer et déployer l'IA de manière responsable.
Présentation des principes
Pour vous assurer que vos systèmes d'IA répondent à vos exigences en matière de sécurité, de confidentialité et de conformité, vous devez adopter une stratégie globale qui commence par la conception initiale et s'étend au déploiement et aux opérations. Vous pouvez mettre en œuvre cette stratégie globale en appliquant les six éléments fondamentaux du SAIF.
Google utilise l'IA pour améliorer les mesures de sécurité, par exemple en identifiant les menaces, en automatisant les tâches de sécurité et en améliorant les capacités de détection, tout en gardant les humains impliqués dans les décisions critiques.
Google met l'accent sur une approche collaborative pour faire progresser la sécurité de l'IA. Cette approche consiste à collaborer avec les clients, les secteurs et les gouvernements pour améliorer les consignes du SAIF et proposer des ressources pratiques et exploitables.
Les recommandations pour mettre en œuvre ce principe sont regroupées dans les sections suivantes :
Recommandations pour utiliser l'IA de manière sécurisée
Pour utiliser l'IA de manière sécurisée, vous avez besoin de contrôles de sécurité fondamentaux et de contrôles de sécurité spécifiques à l'IA. Cette section présente des recommandations pour vous assurer que vos déploiements d'IA et de ML répondent aux exigences de votre organisation en termes de sécurité, de confidentialité et de conformité. Pour obtenir une présentation des principes et des recommandations d'architecture spécifiques aux charges de travail d'IA et de ML dans Google Cloud, consultez la perspective de l'IA et du ML dans le framework Well-Architected.
Définissez des objectifs et des exigences clairs pour l'utilisation de l'IA.
Cette recommandation concerne les domaines d'intérêt suivants :
- Gouvernance, risques et conformité dans le cloud
- Sécurité de l'IA et du ML
Cette recommandation s'aligne sur l'élément SAIF concernant la contextualisation des risques liés aux systèmes d'IA dans les processus métier environnants. Lorsque vous concevez et faites évoluer des systèmes d'IA, il est important de comprendre vos objectifs commerciaux spécifiques, vos risques et vos exigences de conformité.
Sécuriser les données et éviter leur perte ou leur mauvaise gestion
Cette recommandation concerne les domaines d'intérêt suivants :
- Sécurité de l'infrastructure
- Gestion de l'authentification et des accès
- Sécurité des données
- Sécurité des applications
- Sécurité de l'IA et du ML
Cette recommandation s'aligne sur les éléments suivants de la SAIF :
- Développer des bases solides pour la sécurité de l'écosystème d'IA Cet élément inclut la collecte, le stockage et la protection des données, ainsi que le contrôle des accès et la protection contre l'empoisonnement des données.
- Contextualisez les risques liés aux systèmes d'IA. Mettez l'accent sur la sécurité des données pour atteindre vos objectifs commerciaux et assurer la conformité.
Sécuriser les pipelines d'IA et les protéger contre les accès non autorisés
Cette recommandation concerne les domaines d'intérêt suivants :
- Sécurité de l'infrastructure
- Gestion de l'authentification et des accès
- Sécurité des données
- Sécurité des applications
- Sécurité de l'IA et du ML
Cette recommandation s'aligne sur les éléments suivants de la SAIF :
- Développer des bases solides pour la sécurité de l'écosystème d'IA Pour établir un système d'IA sécurisé, protégez votre code et vos artefacts de modèle.
- Adapter les contrôles pour des boucles de rétroaction plus rapides. Il est important de suivre vos assets et vos exécutions de pipeline pour la mitigation et la gestion des incidents.
Déployer des applications sur des systèmes sécurisés à l'aide d'outils et d'artefacts sécurisés
Cette recommandation concerne les domaines d'intérêt suivants :
- Sécurité de l'infrastructure
- Gestion de l'authentification et des accès
- Sécurité des données
- Sécurité des applications
- Sécurité de l'IA et du ML
L'utilisation de systèmes sécurisés, d'outils et d'artefacts validés dans les applications basées sur l'IA s'aligne sur l'élément du SAIF concernant le développement de bases solides pour la sécurité de l'écosystème et de la chaîne d'approvisionnement de l'IA. Pour résoudre ce problème, procédez comme suit :
- Implémenter un environnement sécurisé pour l'entraînement et le déploiement du ML
- Utiliser des images de conteneurs validées
- Appliquer les consignes Supply-chain Levels for Software Artifacts (SLSA)
Protéger et surveiller les entrées
Cette recommandation concerne les domaines d'intérêt suivants :
- Journalisation, audit et surveillance
- Opérations de sécurité
- Sécurité de l'IA et du ML
Cette recommandation correspond à l'élément SAIF qui consiste à étendre la détection et la capacité de réponse afin d'intégrer l'IA aux stratégies de protection contre les menaces pesant sur les organisations. Pour éviter les problèmes, il est essentiel de gérer les requêtes pour les systèmes d'IA générative, de surveiller les entrées et de contrôler l'accès des utilisateurs.
Recommandations pour la gouvernance de l'IA
Toutes les recommandations de cette section concernent le domaine d'intérêt suivant : gouvernance, risques et conformité du cloud.
Google Cloud propose un ensemble robuste d'outils et de services que vous pouvez utiliser pour créer des systèmes d'IA responsables et éthiques. Nous proposons également un ensemble de règles, de procédures et de considérations éthiques qui peuvent guider le développement, le déploiement et l'utilisation des systèmes d'IA.
Comme le reflètent nos recommandations, l'approche de Google en matière de gouvernance de l'IA est guidée par les principes suivants :
- Équité
- Transparence
- Responsabilité
- Confidentialité
- Sécurité
Utiliser les indicateurs d'équité
Vertex AI peut détecter les biais lors de la collecte des données ou du processus d'évaluation post-entraînement. Vertex AI fournit des métriques d'évaluation de modèle, telles que le biais des données et le biais du modèle, pour vous aider à évaluer les biais de votre modèle.
Ces métriques sont liées à l'équité dans différentes catégories telles que l'origine ethnique, le genre et la classe. Toutefois, l'interprétation des écarts statistiques n'est pas simple, car les différences entre les catégories ne sont pas forcément le résultat d'un biais ou le signe d'un préjudice.
Utilisez Vertex Explainable AI
Pour comprendre comment les modèles d'IA prennent des décisions, utilisez Vertex Explainable AI. Cette fonctionnalité vous aide à identifier les biais potentiels qui peuvent être cachés dans la logique du modèle.
Cette fonctionnalité d'explication est intégrée à BigQuery ML et Vertex AI, qui fournissent des explications basées sur les caractéristiques. Vous pouvez effectuer l'explicabilité dans BigQuery ML ou enregistrer votre modèle dans Vertex AI et effectuer l'explicabilité dans Vertex AI.
Suivre la traçabilité des données
Suivez l'origine et la transformation des données utilisées dans vos systèmes d'IA. Ce suivi vous aide à comprendre le parcours des données et à identifier les sources potentielles de biais ou d'erreurs.
La traçabilité des données est une fonctionnalité Dataplex Universal Catalog qui vous permet de suivre la manière dont les données transitent par vos systèmes : leur origine, la cible de transmission, et les transformations qui leur sont appliquées.
Établir la responsabilité
Définissez clairement les responsabilités concernant le développement, le déploiement et les résultats de vos systèmes d'IA.
Utilisez Cloud Logging pour consigner les événements clés et les décisions prises par vos systèmes d'IA. Les journaux fournissent un journal d'audit pour vous aider à comprendre les performances du système et à identifier les points à améliorer.
Utilisez Error Reporting pour analyser systématiquement les erreurs commises par les systèmes d'IA. Cette analyse peut révéler des schémas qui indiquent des biais sous-jacents ou des domaines dans lesquels le modèle doit être affiné.
Implémenter la confidentialité différentielle
Lors de l'entraînement du modèle, ajoutez du bruit aux données afin de rendre difficile l'identification de points de données individuels, tout en permettant au modèle d'apprendre efficacement. Avec SQL dans BigQuery, vous pouvez transformer les résultats d'une requête avec des agrégations différentiellement privées.