Ce document du framework Well-Architected : perspective de l'IA et du ML présente les principes et recommandations permettant de s'assurer que vos déploiements d'IA et de ML répondent aux exigences de sécurité et de conformité de votre organisation. Les recommandations de ce document sont conformes au pilier de sécurité du framework Google Cloud Well-Architected.
Le déploiement sécurisé des charges de travail d'IA et de ML est une exigence essentielle, en particulier dans les environnements d'entreprise. Pour répondre à cette exigence, vous devez adopter une approche globale de la sécurité qui commence par la conceptualisation initiale de vos solutions d'IA et de ML, et s'étend au développement, au déploiement et aux opérations en cours. Google Cloud propose des outils et des services robustes conçus pour vous aider à sécuriser vos charges de travail d'IA et de ML.
Définir des objectifs et des exigences clairs
Il est plus facile d'intégrer les contrôles de sécurité et de conformité requis au début de votre processus de conception et de développement que de les ajouter après le développement. Dès le début de votre processus de conception et de développement, prenez des décisions adaptées à votre environnement de risque et à vos priorités commerciales spécifiques.
Tenez compte des recommandations suivantes :
- Identifiez les vecteurs d'attaque potentiels et adoptez une perspective de sécurité et de conformité dès le départ. Lorsque vous concevez et faites évoluer vos systèmes d'IA, gardez une trace de la surface d'attaque, des risques potentiels et des obligations auxquels vous pourriez être confronté.
- Alignez vos efforts de sécurité liés à l'IA et au ML sur vos objectifs commerciaux, et assurez-vous que la sécurité fait partie intégrante de votre stratégie globale. Comprenez les effets de vos choix de sécurité sur vos principaux objectifs commerciaux.
Sécuriser les données et éviter leur perte ou leur mauvaise gestion
Les données sont un élément précieux et sensible qui doit être protégé. La sécurité des données vous aide à maintenir la confiance des utilisateurs, à atteindre vos objectifs commerciaux et à respecter vos exigences de conformité.
Tenez compte des recommandations suivantes :
- Ne collectez, ne conservez ni n'utilisez pas de données qui ne sont pas strictement nécessaires à vos objectifs commerciaux. Si possible, utilisez des données synthétiques ou entièrement anonymisées.
- Surveillez la collecte, le stockage et la transformation des données. Conservez les journaux de toutes les activités d'accès aux données et de manipulation de données. Les journaux vous aident à auditer les accès aux données, à détecter les tentatives d'accès non autorisées et à empêcher les accès indésirables.
- Implémentez différents niveaux d'accès (par exemple, aucun accès, lecture seule ou écriture) en fonction des rôles utilisateur. Assurez-vous que les autorisations sont attribuées en fonction du principe du moindre privilège. Les utilisateurs ne doivent disposer que des autorisations minimales nécessaires pour leur permettre d'effectuer les activités liées à leur rôle.
- Mettez en œuvre des mesures telles que le chiffrement, les périmètres sécurisés et les restrictions sur le déplacement des données. Ces mesures vous aident à éviter l'exfiltration et la perte de données.
- Protégez vos systèmes d'entraînement ML contre l'empoisonnement des données.
Sécuriser les pipelines d'IA et les protéger contre les accès non autorisés
Votre code d'IA et de ML, ainsi que les pipelines définis par le code, sont des éléments essentiels. Un code non sécurisé peut être falsifié, ce qui peut entraîner des fuites de données, un non-respect de la conformité et une perturbation des activités commerciales critiques. La sécurisation de votre code d'IA et de ML permet de garantir l'intégrité et la valeur de vos modèles et de leurs résultats.
Tenez compte des recommandations suivantes :
- Utilisez des pratiques de codage sécurisées, telles que la gestion des dépendances ou la validation et l'assainissement des entrées, lors du développement du modèle pour éviter les failles.
- Protégez le code de votre pipeline et vos artefacts de modèle (fichiers, pondérations de modèle et spécifications de déploiement, par exemple) contre les accès non autorisés. Implémentez différents niveaux d'accès pour chaque artefact en fonction des rôles et des besoins des utilisateurs.
- Appliquez la traçabilité et le suivi de vos composants et exécutions de pipelines. Cette application vous aide à répondre aux exigences de conformité et à éviter de compromettre les systèmes de production.
Déployer sur des systèmes sécurisés avec des outils et des artefacts sécurisés
Assurez-vous que votre code et vos modèles s'exécutent dans un environnement sécurisé doté d'un système de contrôle des accès robuste, avec des garanties de sécurité pour les outils et les artefacts déployés dans l'environnement.
Tenez compte des recommandations suivantes :
- Entraînez et déployez vos modèles dans un environnement sécurisé doté de contrôles d'accès appropriés et d'une protection contre l'utilisation ou la manipulation non autorisées.
- Suivez les consignes standards des niveaux de la chaîne d'approvisionnement pour les artefacts logiciels (SLSA) pour vos artefacts spécifiques à l'IA, comme les modèles et les packages logiciels.
- Nous vous recommandons d'utiliser des images de conteneur prédéfinies validées et spécialement conçues pour les charges de travail d'IA.
Protéger et surveiller les entrées
Les systèmes d'IA ont besoin d'entrées pour faire des prédictions, générer du contenu ou automatiser des actions. Certaines entrées peuvent présenter des risques ou être utilisées comme vecteurs d'attaque qui doivent être détectés et assainis. Détecter les potentielles entrées malveillantes au plus tôt vous aide à sécuriser vos systèmes d'IA et à les faire fonctionner comme prévu.
Tenez compte des recommandations suivantes :
- Mettez en place des pratiques sécurisées pour développer et gérer les requêtes destinées aux systèmes d'IA générative, et assurez-vous qu'elles sont examinées pour détecter toute intention malveillante.
- Surveillez les entrées des systèmes prédictifs ou génératifs pour éviter les problèmes, comme les points de terminaison surchargés ou les requêtes que les systèmes ne sont pas conçus pour traiter.
- Assurez-vous que seuls les utilisateurs prévus d'un système déployé peuvent l'utiliser.
Surveiller, évaluer et préparer les réponses aux résultats
Les systèmes d'IA sont utiles, car ils produisent des résultats qui augmentent, optimisent ou automatisent la prise de décision humaine. Pour préserver l'intégrité et la fiabilité de vos systèmes et applications d'IA, vous devez vous assurer que les résultats sont sécurisés et qu'ils respectent les paramètres attendus. Vous devez également prévoir un plan de réponse aux incidents.
Tenez compte des recommandations suivantes :
- Surveillez les résultats de vos modèles d'IA et de ML en production, et identifiez les problèmes de performances, de sécurité et de conformité.
- Évaluez les performances du modèle en implémentant des métriques et des mesures de sécurité robustes, comme l'identification des réponses génératives hors champ ou des résultats extrêmes dans les modèles prédictifs. Recueillez les commentaires des utilisateurs sur les performances du modèle.
- Mettez en œuvre des procédures d'alerte et de gestion des incidents robustes pour résoudre tout problème potentiel.
Contributeurs
Auteurs :
- Kamilla Kurta | Ingénieure client spécialiste en IA générative/ML
- Filipe Gracio, PhD | Ingénieur client
- Mohamed Fawzi | Responsable de la sécurité et de la conformité pour le Benelux
Autres contributeurs :
- Daniel Lees | Architecte en sécurité cloud
- Kumar Dhanagopal Développeur de solutions multiproduits
- Marwan Al Shawi | Partner Customer Engineer
- Wade Holmes | Directeur des solutions mondiales