Este principio del pilar de seguridad del Google Cloud framework de Well-Architected proporciona recomendaciones para usar la IA y ayudarte a mejorar la seguridad de tus cargas de trabajo en la nube.
Debido a la creciente cantidad y sofisticación de los ciberataques, es importante aprovechar el potencial de la IA para ayudar a mejorar la seguridad. La IA puede ayudar a reducir la cantidad de amenazas, disminuir el esfuerzo manual que requieren los profesionales de seguridad y compensar la escasez de expertos en el dominio de la seguridad cibernética.
Descripción general del principio
Usa las capacidades de la IA para mejorar tus sistemas y procesos de seguridad existentes. Puedes usar Gemini in Security, así como las capacidades intrínsecas de IA integradas en los servicios de Google Cloud .
Estas capacidades de IA pueden transformar la seguridad, ya que brindan asistencia en cada etapa del ciclo de vida de la seguridad. Por ejemplo, puedes usar la IA para hacer lo siguiente:
- Analiza y explica el código potencialmente malicioso sin aplicar ingeniería inversa.
- Reducir el trabajo repetitivo para los profesionales de la seguridad cibernética
- Usar lenguaje natural para generar consultas y, además, interactuar con los datos de eventos de seguridad
- Mostrar información contextual
- Ofrecer recomendaciones para respuestas rápidas
- Ayudar a solucionar eventos
- Resumir las alertas de alta prioridad sobre parámetros de configuración incorrectos y vulnerabilidades, destacar los posibles impactos y recomendar mitigaciones
Niveles de autonomía de seguridad
La IA y la automatización pueden ayudarte a lograr mejores resultados de seguridad cuando te enfrentas a amenazas de ciberseguridad en constante evolución. Si usas la IA para la seguridad, puedes alcanzar mayores niveles de autonomía para detectar y prevenir amenazas, y mejorar tu postura de seguridad general. Google define cuatro niveles de autonomía cuando usas la IA para la seguridad, y describe el papel cada vez mayor de la IA en la asistencia y, finalmente, en la dirección de las tareas de seguridad:
- Manual: Las personas ejecutan todas las tareas de seguridad (prevención, detección, priorización y respuesta) en todo el ciclo de vida de la seguridad.
- Asistida: Las herramientas de IA, como Gemini, aumentan la productividad humana resumiendo información, generando estadísticas y haciendo recomendaciones.
- Semiautónoma: La IA asume la responsabilidad principal de muchas tareas de seguridad y delega en personas solo cuando es necesario.
- Autónoma: La IA actúa como un asistente de confianza que impulsa el ciclo de vida de la seguridad en función de los objetivos y las preferencias de tu organización, con una intervención humana mínima.
Recomendaciones
En las siguientes secciones, se describen las recomendaciones para usar la IA en la seguridad. En las secciones, también se indica cómo las recomendaciones se alinean con los elementos centrales del Framework de IA segura (SAIF) de Google y cómo son relevantes para los niveles de autonomía de seguridad.
- Mejora la detección y la respuesta ante amenazas con la IA
- Simplificar la seguridad tanto para expertos como para otros
- Automatiza las tareas de seguridad tediosas con IA
- Incorpora la IA en los procesos de administración y gobernanza de riesgos
- Implementa prácticas de desarrollo seguras para los sistemas de IA
Mejora la detección y respuesta ante amenazas con la IA
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Operaciones de seguridad (SecOps)
- Registro, auditoría y supervisión
La IA puede analizar grandes volúmenes de datos de seguridad, ofrecer estadísticas sobre el comportamiento de los actores de amenazas y automatizar el análisis de código potencialmente malicioso. Esta recomendación se alinea con los siguientes elementos del SAIF:
- Amplía la detección y la respuesta para incorporar la IA al universo de las amenazas de tu organización.
- Automatiza las defensas para seguir el ritmo de las amenazas existentes y nuevas.
Según tu implementación, esta recomendación puede ser pertinente para los siguientes niveles de autonomía:
- Asistida: La IA ayuda con el análisis y la detección de amenazas.
- Semiautónoma: La IA asume más responsabilidad en la tarea de seguridad.
Google Threat Intelligence, que usa la IA para analizar el comportamiento de los agentes de amenazas y el código malicioso, puede ayudarte a implementar esta recomendación.
Simplificar la seguridad tanto para expertos como para otros
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Operaciones de seguridad (SecOps)
- Administración, riesgo y cumplimiento de la nube
Las herramientas potenciadas por IA pueden resumir alertas y recomendar medidas de mitigación, y estas capacidades pueden hacer que la seguridad sea más accesible para una mayor variedad de personal. Esta recomendación se alinea con los siguientes elementos del SAIF:
- Automatiza las defensas para seguir el ritmo de las amenazas existentes y nuevas.
- Estandariza los controles a nivel de la plataforma para garantizar una seguridad coherente en toda la organización.
Según tu implementación, esta recomendación puede ser pertinente para los siguientes niveles de autonomía:
- Asistida: La IA te ayuda a mejorar la accesibilidad de la información de seguridad.
- Semiautónoma: La IA ayuda a que las prácticas de seguridad sean más eficaces para todos los usuarios.
Gemini en Security Command Center puede proporcionar resúmenes de alertas sobre parámetros de configuración incorrectos y vulnerabilidades.
Automatiza las tareas de seguridad tediosas con la IA
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Seguridad de la infraestructura
- Operaciones de seguridad (SecOps)
- Seguridad para aplicaciones
La IA puede automatizar tareas como analizar software malicioso, generar reglas de seguridad e identificar errores de configuración. Estas capacidades pueden ayudar a reducir la carga de trabajo de los equipos de seguridad y acelerar los tiempos de respuesta. Esta recomendación se alinea con el elemento de la SAIF sobre la automatización de las defensas para seguir el ritmo de las amenazas existentes y nuevas.
Según tu implementación, esta recomendación puede ser pertinente para los siguientes niveles de autonomía:
- Asistida: La IA te ayuda a automatizar tareas.
- Semiautónomo: La IA asume la responsabilidad principal de las tareas de seguridad y solo solicita asistencia humana cuando es necesario.
Gemini en Google SecOps puede ayudar a automatizar tareas repetitivas asistiendo a los analistas, recuperando contexto pertinente y haciendo recomendaciones para los próximos pasos.
Incorpora la IA en los procesos de administración y gestión de riesgos
Esta recomendación es pertinente para la siguiente área de enfoque: Administración, riesgo y cumplimiento en la nube.
Puedes usar la IA para crear un inventario de modelos y perfiles de riesgo. También puedes usar la IA para implementar políticas de privacidad de datos, riesgo cibernético y riesgo de terceros. Esta recomendación se alinea con el elemento del SAIF sobre la contextualización de los riesgos del sistema de IA en los procesos comerciales circundantes.
Según tu implementación, esta recomendación puede ser pertinente para el nivel de autonomía semiautónomo. En este nivel, la IA puede coordinar agentes de seguridad que ejecutan procesos para alcanzar tus objetivos de seguridad personalizados.
Implementar prácticas de desarrollo seguras para los sistemas de IA
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Seguridad para aplicaciones
- Seguridad de la IA y el AA
Puedes usar la IA para la programación segura, la limpieza de datos de entrenamiento y la validación de herramientas y artefactos. Esta recomendación se alinea con el elemento del SAIF sobre la expansión de bases sólidas de seguridad en el ecosistema de la IA.
Esta recomendación puede ser pertinente para todos los niveles de autonomía de seguridad, ya que se necesita un sistema de IA seguro antes de que la IA se pueda usar de manera eficaz para la seguridad. La recomendación es más pertinente para el nivel asistido, en el que las prácticas de seguridad se complementan con la IA.
Para implementar esta recomendación, sigue los lineamientos de los Niveles de la cadena de suministro para artefactos de software (SLSA) para los artefactos de IA y usa imágenes de contenedor validadas.