Utiliser l'IA pour la sécurité

Last reviewed 2025-02-05 UTC

Ce principe du pilier de sécurité du Google Cloud Well-Architected Framework fournit des recommandations pour utiliser l'IA afin d'améliorer la sécurité de vos charges de travail cloud.

En raison du nombre croissant et de la sophistication des cyberattaques, il est important de tirer parti du potentiel de l'IA pour améliorer la sécurité. L'IA peut aider à réduire le nombre de menaces, à diminuer les efforts manuels requis par les professionnels de la sécurité et à compenser la pénurie d'experts dans le domaine de la cybersécurité.

Présentation des principes

Utilisez les fonctionnalités d'IA pour améliorer vos systèmes et processus de sécurité existants. Vous pouvez utiliser Gemini dans Security ainsi que les fonctionnalités d'IA intrinsèques intégrées aux services Google Cloud .

Ces fonctionnalités d'IA peuvent transformer la sécurité en fournissant une assistance à chaque étape du cycle de vie de la sécurité. Par exemple, vous pouvez utiliser l'IA pour effectuer les opérations suivantes :

  • Analysez et expliquez le code potentiellement malveillant sans avoir à faire de la rétro-ingénierie.
  • Réduisez le travail répétitif pour les professionnels de la cybersécurité.
  • Utilisez le langage naturel pour générer des requêtes et interagir avec les données d'événements de sécurité.
  • Afficher des informations contextuelles
  • proposer des recommandations pour des réponses rapides ;
  • Aider à résoudre les événements.
  • résumer les alertes à priorité élevée en cas d'erreur de configuration et de faille, en soulignant l'impact potentiel et en recommandant des mesures d'atténuation.

Niveaux d'autonomie de sécurité

L'IA et l'automatisation peuvent vous aider à améliorer la sécurité face aux menaces de cybersécurité en constante évolution. En utilisant l'IA pour la sécurité, vous pouvez atteindre des niveaux d'autonomie plus élevés pour détecter et prévenir les menaces, et améliorer votre posture de sécurité globale. Google définit quatre niveaux d'autonomie lorsque vous utilisez l'IA pour la sécurité. Ils décrivent le rôle croissant de l'IA dans l'assistance et, à terme, dans la direction des tâches de sécurité :

  1. Manuelle : les humains exécutent toutes les tâches de sécurité (prévention, détection, priorisation et réponse) tout au long du cycle de vie de la sécurité.
  2. Assistée : les outils d'IA, comme Gemini, améliorent la productivité humaine en résumant des informations, en générant des insights et en faisant des recommandations.
  3. Semi-autonome : l'IA assume la responsabilité principale de nombreuses tâches de sécurité et ne délègue aux humains que lorsque cela est nécessaire.
  4. Autonome : l'IA agit comme un assistant de confiance qui gère le cycle de vie de la sécurité en fonction des objectifs et des préférences de votre organisation, avec une intervention humaine minimale.

Recommandations

Les sections suivantes décrivent les recommandations pour l'utilisation de l'IA pour la sécurité. Les sections indiquent également comment les recommandations s'alignent sur les éléments fondamentaux du framework d'IA sécurisé (SAIF) de Google et comment elles s'appliquent aux niveaux d'autonomie de sécurité.

Améliorer la détection et la gestion des menaces grâce à l'IA

Cette recommandation concerne les domaines d'intérêt suivants :

  • Opérations de sécurité (SecOps)
  • Journalisation, audit et surveillance

L'IA peut analyser de grands volumes de données de sécurité, fournir des informations sur le comportement des acteurs malveillants et automatiser l'analyse du code potentiellement malveillant. Cette recommandation est conforme aux éléments suivants du SAIF :

  • Étendez la détection et la réponse pour intégrer l'IA à l'univers des menaces de votre organisation.
  • Automatisez vos défenses pour faire face aux menaces nouvelles et existantes.

Selon votre implémentation, cette recommandation peut s'appliquer aux niveaux d'autonomie suivants :

  • Assistée : l'IA aide à l'analyse et à la détection des menaces.
  • Semi-autonomie : l'IA assume une plus grande part de responsabilité dans la tâche de sécurité.

Google Threat Intelligence, qui utilise l'IA pour analyser le comportement des auteurs de menaces et le code malveillant, peut vous aider à appliquer cette recommandation.

Simplifier la sécurité, que vous soyez expert ou non

Cette recommandation concerne les domaines d'intérêt suivants :

  • Opérations de sécurité (SecOps)
  • Gouvernance, risques et conformité dans le cloud

Les outils optimisés par l'IA peuvent résumer les alertes et recommander des mesures d'atténuation. Ces fonctionnalités peuvent rendre la sécurité plus accessible à un plus grand nombre de personnes. Cette recommandation est conforme aux éléments suivants du SAIF :

  • Automatisez vos défenses pour faire face aux menaces nouvelles et existantes.
  • Harmonisez les contrôles au niveau de la plate-forme pour assurer une sécurité cohérente dans toute l'organisation.

Selon votre implémentation, cette recommandation peut s'appliquer aux niveaux d'autonomie suivants :

  • Assisté : l'IA vous aide à améliorer l'accessibilité des informations sur la sécurité.
  • Semi-autonomie : l'IA contribue à rendre les pratiques de sécurité plus efficaces pour tous les utilisateurs.

Gemini dans Security Command Center peut fournir des résumés des alertes en cas d'erreur de configuration et de faille.

Automatiser les tâches de sécurité chronophages grâce à l'IA

Cette recommandation concerne les domaines d'intérêt suivants :

  • Sécurité de l'infrastructure
  • Opérations de sécurité (SecOps)
  • Sécurité des applications

L'IA peut automatiser des tâches telles que l'analyse des logiciels malveillants, la génération de règles de sécurité et l'identification des erreurs de configuration. Ces fonctionnalités peuvent aider à réduire la charge de travail des équipes de sécurité et à accélérer les temps de réponse. Cette recommandation est conforme à l'élément SAIF sur l'automatisation des défenses pour s'adapter aux menaces nouvelles et existantes.

Selon votre implémentation, cette recommandation peut s'appliquer aux niveaux d'autonomie suivants :

  • Assistée : l'IA vous aide à automatiser des tâches.
  • Semi-autonome : l'IA assume la responsabilité principale des tâches de sécurité et ne demande une intervention humaine que lorsque cela est nécessaire.

Gemini dans Google SecOps peut vous aider à automatiser les tâches à forte charge en assistant les analystes, en récupérant le contexte pertinent et en recommandant les prochaines étapes.

Intégrer l'IA aux processus de gestion des risques et de gouvernance

Cette recommandation concerne le domaine d'intérêt suivant : gouvernance, risques et conformité du cloud.

Vous pouvez utiliser l'IA pour créer un inventaire de modèles et des profils de risque. Vous pouvez également utiliser l'IA pour appliquer des règles concernant la confidentialité des données, les risques cybernétiques et les risques tiers. Cette recommandation est conforme à l'élément SAIF qui consiste à contextualiser les risques liés aux systèmes d'IA dans les processus métier environnants.

Selon votre implémentation, cette recommandation peut être pertinente pour le niveau d'autonomie semi-autonome. À ce niveau, l'IA peut orchestrer des agents de sécurité qui exécutent des processus pour atteindre vos objectifs de sécurité personnalisés.

Mettre en œuvre des pratiques de développement sécurisées pour les systèmes d'IA

Cette recommandation concerne les domaines d'intérêt suivants :

  • Sécurité des applications
  • Sécurité de l'IA et du ML

Vous pouvez utiliser l'IA pour coder de manière sécurisée, nettoyer les données d'entraînement et valider les outils et les artefacts. Cette recommandation est conforme à l'élément du SAIF concernant le développement de bases solides pour la sécurité de l'écosystème d'IA.

Cette recommandation peut s'appliquer à tous les niveaux d'autonomie en matière de sécurité, car un système d'IA sécurisé doit être en place avant que l'IA puisse être utilisée efficacement pour la sécurité. Cette recommandation est particulièrement pertinente pour le niveau assisté, où les pratiques de sécurité sont renforcées par l'IA.

Pour mettre en œuvre cette recommandation, suivez les consignes Supply-chain Levels for Software Artifacts (SLSA) pour les artefacts d'IA et utilisez des images de conteneurs validées.