Información general sobre AI Protection

Enterprise

AI Protection te ayuda a gestionar la postura de seguridad de tus cargas de trabajo de IA detectando amenazas y ayudándote a mitigar los riesgos de tu inventario de recursos de IA. En este documento se ofrece una descripción general de la protección con IA, incluidas sus ventajas y varios conceptos clave.

Información general sobre AI Protection

AI Protection ofrece varias funciones para ayudarte a gestionar las amenazas y los riesgos de tus sistemas de IA, entre las que se incluyen las siguientes:

  • Evalúa tu inventario de IA: evalúa y conoce tus sistemas y recursos de IA, incluidos tus modelos y conjuntos de datos.
  • Gestionar los riesgos y el cumplimiento: gestiona de forma proactiva los riesgos de tus recursos de IA y verifica que tus implementaciones de IA cumplan los estándares de seguridad pertinentes.
  • Mitiga los riesgos legales y financieros: reduce los riesgos financieros, de reputación y legales asociados a las brechas de seguridad y al incumplimiento de las normativas.
  • Detectar y gestionar amenazas: detecta y responde a las posibles amenazas que afecten a tus sistemas y recursos de IA a tiempo.
  • Ver un panel de control: gestiona todos los riesgos y las amenazas relacionados con la IA desde un panel de control centralizado.

Casos prácticos

Protección con IA ayuda a las organizaciones a mejorar su seguridad identificando y mitigando las amenazas y los riesgos relacionados con los sistemas de IA y los datos sensibles. Los siguientes casos prácticos son ejemplos de cómo se puede usar la protección con IA en diferentes organizaciones:

  • Institución de servicios financieros: datos financieros de los clientes

    Una gran institución de servicios financieros utiliza modelos de IA que procesan datos financieros sensibles.

    • Problema: procesar datos financieros altamente sensibles con modelos de IA conlleva varios riesgos, como el de sufrir brechas de seguridad, la exfiltración de datos durante el entrenamiento o la inferencia, y las vulnerabilidades en la infraestructura de IA subyacente.
    • Caso práctico: AI Protection monitoriza continuamente los flujos de trabajo de IA para detectar actividad sospechosa, trabaja para detectar accesos no autorizados a datos y comportamientos anómalos de los modelos, clasifica los datos sensibles y ayuda a mejorar el cumplimiento de normativas como PCI DSS y el RGPD.
  • Proveedor de asistencia sanitaria: privacidad y cumplimiento de los pacientes

    Una importante empresa del sector sanitario gestiona historias clínicas electrónicas y usa la IA para diagnósticos y planificación de tratamientos, por lo que trata información médica protegida.

    • Problema: La información médica protegida analizada por modelos de IA está sujeta a normativas estrictas, como la HIPAA. Entre los riesgos se incluyen la exposición accidental de IPH a través de errores de configuración o ataques maliciosos dirigidos a sistemas de IA para obtener datos de pacientes.
    • Caso práctico: Protección con IA identifica y alerta sobre posibles infracciones de la ley HIPAA, detecta el acceso no autorizado a información médica protegida por parte de modelos o usuarios, señala los servicios de IA vulnerables y potencialmente mal configurados, y monitoriza las fugas de datos.
  • Empresa de fabricación y robótica: propiedad intelectual

    Una empresa de fabricación especializada en robótica avanzada y automatización depende en gran medida de la IA para optimizar las líneas de producción y el control robótico, y tiene una propiedad intelectual (PI) vital integrada en sus algoritmos de IA y datos de fabricación.

    • Problema: los algoritmos de IA propietarios y los datos operativos sensibles son vulnerables al robo por parte de amenazas internas o adversarios externos, lo que puede provocar una desventaja competitiva o una interrupción operativa.
    • Caso práctico: Protección con IA monitoriza el acceso no autorizado a modelos de IA y repositorios de código, detecta intentos de exfiltración de modelos entrenados y patrones de acceso a datos inusuales, y señala vulnerabilidades en entornos de desarrollo de IA para evitar el robo de propiedad intelectual.

Reglas de Event Threat Detection

Las siguientes reglas de Event Threat Detection ejecutan detecciones en recursos de Vertex AI:

  • Persistencia: nuevo método de la API de IA
  • Persistencia: nueva zona geográfica para el servicio de IA
  • Escalada de privilegios: suplantación de identidad anómala de una cuenta de servicio para realizar actividades de administrador de IA
  • Escalada de privilegios: suplantación de cuenta de servicio anómala para acceder a datos de IA
  • Escalada de privilegios: delegación anómala de cuentas de servicio de varios pasos para la actividad de administrador de IA
  • Escalada de privilegios: delegación anómala de cuentas de servicio de varios pasos para acceder a datos de IA
  • Escalada de privilegios: suplantación de cuenta de servicio anómala para la actividad de administrador de IA
  • Acceso inicial: actividad de cuenta de servicio inactiva en el servicio de IA

Para obtener más información sobre Event Threat Detection, consulta el artículo Información general sobre Event Threat Detection.

Marco de AI Protection

AI Protection es un marco que incluye controles específicos en la nube que se implementan automáticamente en el modo de detección. El modo Detective significa que el control en la nube se aplica a los recursos definidos con fines de monitorización. Se detectan las infracciones y se generan alertas. Utilizas frameworks y controles en la nube para definir tus requisitos de protección de la IA y aplicarlos a tu entorno Google Cloud . AI Protection incluye el framework predeterminado, que define los controles básicos recomendados para AI Protection. Cuando habilitas AI Protection, el marco de trabajo predeterminado se aplica automáticamente a la organización en modo de detección. Google Cloud

Si es necesario, puedes hacer copias del framework para crear frameworks de protección con IA personalizados. Puedes añadir los controles de la nube a tus frameworks personalizados y aplicar los frameworks personalizados a la organización, las carpetas o los proyectos. Por ejemplo, puede crear marcos personalizados que apliquen controles jurisdiccionales específicos a carpetas concretas para asegurarse de que los datos de esas carpetas permanezcan en una región geográfica determinada.

Controles en la nube en el marco de protección de IA predeterminado

Los siguientes controles en la nube forman parte del marco predeterminado de AI Protection.

Nombre del control de la nube Descripción

Bloquear la red de VPC predeterminada para las instancias de Vertex AI Workbench

No crees instancias de Workbench en la red de VPC predeterminada para evitar el uso de sus reglas de cortafuegos predeterminadas demasiado permisivas.

Bloquear la descarga de archivos en la consola de JupyterLab

No permitas que se descarguen archivos desde la consola de JupyterLab en instancias de Workbench para reducir los riesgos de filtración externa de datos y evitar la distribución de malware.

Bloquear el acceso a Internet para las plantillas de tiempo de ejecución de Vertex AI

No permitas el acceso a Internet en las plantillas de tiempo de ejecución de Colab Enterprise para reducir la superficie de ataque externa y evitar posibles filtraciones de datos.

Bloquear la dirección IP pública de las instancias de Vertex AI Workbench

No permitas direcciones IP externas para las instancias de Workbench para reducir la exposición a Internet y minimizar el riesgo de accesos no autorizados.

Bloquear el acceso de superusuario en instancias de Vertex AI Workbench

No permitas el acceso de superusuario en las instancias de Workbench para evitar que se modifiquen archivos críticos del sistema o se instale software malicioso sin autorización.

Habilitar las actualizaciones automáticas de las instancias de Vertex AI Workbench

Habilita las actualizaciones automáticas de las instancias de Workbench para asegurarte de que tienes acceso a las funciones, las actualizaciones del framework y los parches de seguridad más recientes.

Habilitar CMEK para tareas personalizadas de Vertex AI

Requiere claves de cifrado gestionadas por el cliente (CMEK) en los trabajos de entrenamiento personalizado de Vertex AI para tener más control sobre el cifrado de las entradas y salidas de los trabajos.

Habilitar CMEK para conjuntos de datos de Vertex AI

Requiere claves de cifrado gestionadas por el cliente (CMEK) para los conjuntos de datos de Vertex AI para tener más control sobre el cifrado de datos y la gestión de claves.

Habilitar CMEK para los endpoints de Vertex AI

Requiere claves de cifrado gestionadas por el cliente (CMEK) para los endpoints de Vertex AI para tener más control sobre el cifrado de los modelos implementados y el acceso a los datos de control.

Habilitar CMEK en Vertex AI Feature Store

Requiere claves de cifrado gestionadas por el cliente (CMEK) para el almacén de características de Vertex AI y, así, tener más control sobre el cifrado y el acceso a los datos.

Habilitar CMEK para tareas de ajuste de hiperparámetros de Vertex AI

Requiere claves de cifrado gestionadas por el cliente (CMEK) en los trabajos de ajuste de hiperparámetros para tener más control sobre el cifrado de los datos de entrenamiento del modelo y la configuración del trabajo.

Habilitar CMEK para Vertex AI Metadata Stores

Requiere claves de cifrado gestionadas por el cliente (CMEK) para los almacenes de metadatos de Vertex AI y, de esta forma, obtén más control sobre el cifrado de metadatos y el acceso.

Habilitar CMEK para modelos de Vertex AI

Exige el uso de claves de cifrado gestionadas por el cliente (CMEK) para los modelos de Vertex AI y, de esta forma, obtén más control sobre el cifrado de datos y la gestión de claves.

Habilitar CMEK para plantillas de tiempo de ejecución de cuadernos de Vertex AI

Requiere claves de cifrado gestionadas por el cliente (CMEK) para las plantillas de tiempo de ejecución de Colab Enterprise con el fin de proteger los entornos de tiempo de ejecución y los datos asociados.

Habilitar CMEK en Vertex AI TensorBoard

Requiere claves de cifrado gestionadas por el cliente (CMEK) para Vertex AI TensorBoard y, de esta forma, tendrás más control sobre el cifrado de los datos de los experimentos y las visualizaciones de los modelos.

Habilitar CMEK para los flujos de procesamiento de Vertex AI Training

Requiere claves de cifrado gestionadas por el cliente (CMEK) en las canalizaciones de entrenamiento de Vertex AI para tener más control sobre el cifrado de los datos de entrenamiento y los artefactos resultantes.

Habilitar CMEK en instancias de Vertex AI Workbench

Requiere claves de cifrado gestionadas por el cliente (CMEK) para las instancias de Vertex AI Workbench y, así, tener más control sobre el cifrado de datos.

Habilitar la función de eliminación a la papelera en instancias de Vertex AI Workbench

Habilita la función Eliminar a la papelera de los metadatos en las instancias de Workbench para proporcionar una red de seguridad de recuperación crucial y evitar la pérdida de datos accidental.

Habilitar el cierre por inactividad en las plantillas de entorno de ejecución de Vertex AI

Habilita el apagado automático por inactividad en las plantillas de entorno de ejecución de Colab Enterprise para optimizar los costes en la nube, mejorar la gestión de recursos y reforzar la seguridad.

Habilitar la monitorización de integridad en instancias de Vertex AI Workbench

Habilita la monitorización de integridad en las instancias de Workbench para verificar continuamente la integridad del arranque de tus VMs con respecto a un valor de referencia de confianza.

Habilitar el arranque seguro en las plantillas de tiempo de ejecución de Vertex AI

Habilita el arranque seguro en las plantillas de tiempo de ejecución de Colab Enterprise para evitar la ejecución de código no autorizado y proteger la integridad del sistema operativo.

Habilitar el arranque seguro en instancias de Vertex AI Workbench

Habilita el arranque seguro en las instancias de Workbench para evitar que se ejecute software no autorizado o malicioso durante el proceso de arranque.

Habilitar vTPM en instancias de Vertex AI Workbench

Habilita el módulo de plataforma segura virtual (vTPM) en las instancias de Workbench para proteger el proceso de arranque y tener más control sobre el cifrado.

Restringir el uso de la cuenta de servicio predeterminada en instancias de Vertex AI Workbench

Restringe el uso de la cuenta de servicio predeterminada, que tiene muchos permisos, en las instancias de Workbench para reducir el riesgo de que se acceda sin autorización a los servicios de Google Cloud.

Áreas funcionales admitidas

En esta sección se definen las áreas funcionales en las que AI Protection puede ayudar a mejorar la seguridad.

  • Cargas de trabajo de IA: las cargas de trabajo de las aplicaciones de IA van desde herramientas internas destinadas a mejorar la productividad de los empleados hasta soluciones orientadas al consumidor diseñadas para mejorar la experiencia de usuario e impulsar el negocio. Por ejemplo, agentes de IA, asistentes virtuales, chatbots de IA conversacional y recomendaciones personalizadas.
  • Modelos de IA: los modelos de IA se clasifican en modelos de IA básicos, modelos de IA optimizados, modelos de IA propios estándar y modelos de IA personalizados. Por ejemplo, Gemini, Llama, modelos de traducción y modelos personalizados para tareas específicas.
  • Recursos de IA: los recursos de IA contribuyen a las pipelines de operaciones de aprendizaje automático y las usan las cargas de trabajo de IA. Entre los tipos de recursos de IA se incluyen los siguientes:
    • Recursos de IA declarativos: las herramientas de gestión del ciclo de vida de la IA, como Vertex AI, monitorizan estos recursos.
    • Recursos de IA inferidos: recursos de uso general, como recursos de computación y almacenamiento, que se usan para procesar datos o cargas de trabajo de IA.
    • Modelo como servicio (solo API): recursos que tienen llamadas programáticas a modelos de IA propios o de terceros.

Usar el panel de control de AI Security

El panel de control Seguridad de la IA ofrece una vista completa del inventario de recursos de IA de tu organización y propone posibles medidas de mitigación para mejorar la gestión de riesgos y amenazas.

Acceder al panel de control

Para acceder al panel de control Seguridad con IA, en la Google Cloud consola, ve a Resumen de riesgos > Seguridad con IA.

Para obtener más información, consulta el panel de control de seguridad de la IA.

Información sobre riesgos

En esta sección se ofrece información sobre los posibles riesgos asociados a los sistemas de IA. Puedes ver los principales riesgos de tu inventario de IA.

Puedes hacer clic en cualquier problema para abrir un panel de detalles que proporcione una visualización del problema.

Ver amenazas de IA

En esta sección se ofrece información valiosa sobre las amenazas asociadas a los sistemas de IA. Puedes ver las 5 amenazas recientes principales asociadas a tus recursos de IA.

En esta página, puedes hacer lo siguiente:

  • Haz clic en Ver todo para ver las amenazas asociadas a tus recursos de IA.
  • Haz clic en cualquier amenaza para ver más detalles sobre ella.

Visualizar el inventario

En el panel de control, puedes ver una visualización de tu inventario de IA que ofrece un resumen de los proyectos que implican IA generativa, los modelos propios y de terceros que se están usando, y los conjuntos de datos que se utilizan para entrenar los modelos de terceros.

En esta página, puedes hacer lo siguiente:

  • Para ver la página de detalles del inventario, haz clic en cualquiera de los nodos de la visualización.
  • Para ver una lista detallada de los recursos individuales (como modelos fundacionales y modelos creados a medida), haga clic en la descripción emergente.
  • Para abrir una vista detallada del modelo, haz clic en él. En esta vista se muestran detalles como los endpoints en los que se aloja el modelo y el conjunto de datos que se ha usado para entrenarlo. Si Protección de Datos Sensibles está habilitada, la vista de conjuntos de datos también muestra si el conjunto de datos contiene datos sensibles.

Revisar el resumen de los resultados

En esta sección se explica cómo evaluar y gestionar los resultados generados por el marco de IA y las políticas de seguridad de datos. Esta sección incluye lo siguiente:

  • Resultados: en esta sección se muestra un resumen de los resultados generados por las políticas de seguridad de IA y de seguridad de datos. Haga clic en Ver todos los resultados o en el número de cada categoría de resultados para ver la página de detalles de los resultados. Haz clic en un resultado para ver más información sobre él.
  • Datos sensibles en conjuntos de datos de Vertex AI: en esta sección se muestra un resumen de los resultados basados en datos sensibles de conjuntos de datos, tal como los ha registrado Protección de Datos Sensibles.

Examinar los resultados de Model Armor

Un gráfico muestra el número total de peticiones o respuestas analizadas por Model Armor y el número de problemas que ha detectado. Además, muestra estadísticas de resumen de varios tipos de problemas detectados, como la inyección de peticiones, la detección de jailbreak y la detección de datos sensibles.

Esta información se rellena en función de las métricas que Model Armor publica en Cloud Monitoring.

Siguientes pasos