Descripción general de AI Protection

AI Protection te ayuda a administrar la postura de seguridad de tus cargas de trabajo de IA, ya que detecta amenazas y te ayuda a mitigar los riesgos para tu inventario de recursos de IA. En este documento, se proporciona una descripción general de la Protección contra IA, incluidos sus beneficios y varios conceptos clave.

Descripción general de AI Protection

AI Protection proporciona varias capacidades para ayudarte a administrar las amenazas y los riesgos para tus sistemas de IA, incluidas las siguientes:

  • Evalúa tu inventario de IA: Evalúa y comprende tus sistemas y recursos de IA, incluidos tus modelos y conjuntos de datos.
  • Administra los riesgos y el cumplimiento: Administra de forma proactiva los riesgos para tus recursos de IA y verifica que tus implementaciones de IA cumplan con los estándares de seguridad pertinentes.
  • Mitiga los riesgos legales y financieros: Reduce los riesgos financieros, legales y de reputación asociados con las violaciones de la seguridad y el incumplimiento de las reglamentaciones.
  • Detecta y administra amenazas: Detecta posibles amenazas a tus sistemas y activos de IA, y responde a ellas de manera oportuna.
  • Consulta un panel: Administra todos los riesgos y las amenazas relacionados con la IA desde un panel centralizado.

Casos de uso

AI Protection ayuda a las organizaciones a mejorar su seguridad, ya que identifica y mitiga las amenazas y los riesgos relacionados con los sistemas de IA y los datos sensibles. Los siguientes casos de uso son ejemplos de cómo se puede usar la Protección contra IA en diferentes organizaciones:

  • Institución de servicios financieros: Datos financieros del cliente

    Una gran institución de servicios financieros usa modelos de IA que procesan datos financieros sensibles.

    • Desafío: El procesamiento de datos financieros altamente sensibles con modelos de IA implica varios riesgos, incluido el riesgo de filtraciones de datos, robo de datos durante el entrenamiento o la inferencia, y vulnerabilidades en la infraestructura subyacente de la IA.
    • Caso de uso: La Protección basada en IA supervisa continuamente los flujos de trabajo de IA en busca de actividad sospechosa, trabaja para detectar el acceso no autorizado a los datos y el comportamiento anómalo del modelo, clasifica los datos sensibles y ayuda a mejorar el cumplimiento de las reglamentaciones, como PCI DSS y RGPD.
  • Proveedores de atención médica: Privacidad y cumplimiento de los pacientes

    Un importante proveedor de atención médica administra registros electrónicos de salud y usa la IA para el diagnóstico y la planificación del tratamiento, y maneja información de salud protegida (PHI).

    • Desafío: La PHI que analizan los modelos de IA está sujeta a reglamentaciones estrictas, como la HIPAA. Los riesgos incluyen la exposición accidental de PHI a través de configuraciones incorrectas o ataques maliciosos dirigidos a sistemas de IA para obtener datos de pacientes.
    • Caso de uso: La Protección basada en IA identifica y alerta sobre posibles incumplimientos de la HIPAA, detecta el acceso no autorizado a PHI por parte de modelos o usuarios, marca los servicios de IA vulnerables y potencialmente mal configurados, y supervisa la filtración de datos.
  • Empresa de fabricación y robótica: Propiedad intelectual patentada

    Una empresa de fabricación especializada en robótica y automatización avanzadas depende en gran medida de la IA para optimizar las líneas de producción y el control robótico, con una propiedad intelectual (PI) vital integrada en sus algoritmos de IA y datos de fabricación.

    • Desafío: Los algoritmos de IA patentados y los datos operativos sensibles son vulnerables al robo por parte de amenazas internas o adversarios externos, lo que podría generar desventajas competitivas o interrupciones operativas.
    • Caso de uso: La Protección contra IA supervisa el acceso no autorizado a los modelos de IA y los repositorios de código, detecta intentos de robo de modelos entrenados y patrones inusuales de acceso a los datos, y marca vulnerabilidades en los entornos de desarrollo de IA para evitar el robo de IP.

Reglas de Event Threat Detection

Las siguientes reglas de Event Threat Detection ejecutan detecciones en los activos de Vertex AI:

  • Persistencia: Nuevo método de API de IA
  • Persistencia: Nueva ubicación geográfica para el servicio de IA
  • Privilege Escalation: Uso anómalo de identidad de la cuenta de servicio para actividades de administrador de IA
  • Privilege Escalation: Suplantación de identidad de cuenta de servicio anómala para acceso a datos de IA
  • Privilege Escalation: Anomalous Multistep Service Account Delegation for AI Admin Activity
  • Privilege Escalation: Anomalous Multistep Service Account Delegation for AI Data Access
  • Privilege Escalation: Uso anómalo de identidad temporal como cuenta de servicio para actividades de administrador de IA
  • Acceso inicial: Actividad de la cuenta de servicio inactiva en el servicio de IA

Para obtener más información sobre Event Threat Detection, consulta Descripción general de Event Threat Detection.

Marco de protección de la IA

La Protección basada en IA consiste en un marco de trabajo que incluye controles específicos de la nube que se implementan automáticamente en el modo de detección. El modo de detección significa que el control de nube se aplica a los recursos definidos con fines de supervisión. Se detectan los incumplimientos y se generan alertas. Utilizas marcos y controles de la nube para definir tus requisitos de Protección con IA y aplicarlos a tu entorno de Google Cloud . AI Protection incluye el marco de trabajo predeterminado, que define los controles de referencia recomendados para AI Protection. Cuando habilitas la Protección basada en IA, el marco de trabajo predeterminado se aplica automáticamente a la organización Google Cloud en el modo de detección.

Si es necesario, puedes hacer copias del framework para crear frameworks personalizados de Protección contra IA. Puedes agregar los controles de la nube a tus frameworks personalizados y aplicarlos a la organización, las carpetas o los proyectos. Por ejemplo, puedes crear marcos personalizados que apliquen controles jurisdiccionales específicos a carpetas específicas para garantizar que los datos dentro de esas carpetas permanezcan dentro de una región geográfica en particular.

Controles de la nube en el marco de protección de la IA predeterminado

Los siguientes controles de la nube forman parte del marco de trabajo predeterminado de AI Protection.

Nombre del control de la nube Descripción

Bloquea la red de VPC predeterminada para las instancias de Vertex AI Workbench

No crees instancias de Workbench en la red de VPC predeterminada para evitar el uso de sus reglas de firewall predeterminadas demasiado permisivas.

Bloquea la descarga de archivos en la consola de JupyterLab

No permitas la descarga de archivos desde la consola de JupyterLab en las instancias de Workbench para reducir los riesgos de robo de datos y ayudar a evitar la distribución de software malicioso.

Bloquea el acceso a Internet para las plantillas de entorno de ejecución de Vertex AI

No permitas el acceso a Internet en las plantillas de tiempo de ejecución de Colab Enterprise para reducir la superficie de ataque externa y ayudar a evitar el posible robo de datos.

Bloquea la dirección IP pública para las instancias de Vertex AI Workbench

No permitas direcciones IP externas para las instancias de Workbench con el objetivo de reducir la exposición a Internet y minimizar el riesgo de acceso no autorizado.

Bloquea el acceso raíz en instancias de Vertex AI Workbench

No permitas el acceso raíz en las instancias de Workbench para evitar la modificación no autorizada de archivos críticos del sistema o la instalación de software malicioso.

Habilita las actualizaciones automáticas para las instancias de Vertex AI Workbench

Habilita las actualizaciones automáticas para las instancias de Workbench y garantiza el acceso a las funciones, las actualizaciones del framework y los parches de seguridad más recientes.

Habilita la CMEK para los trabajos personalizados de Vertex AI

Exige claves de encriptación administradas por el cliente (CMEK) en los trabajos de entrenamiento personalizados de Vertex AI para obtener más control sobre la encriptación de las entradas y salidas de los trabajos.

Habilita la CMEK para los conjuntos de datos de Vertex AI

Exige claves de encriptación administradas por el cliente (CMEK) para los conjuntos de datos de Vertex AI y, así, obtener más control sobre la encriptación de datos y la administración de claves.

Habilita la CMEK para los extremos de Vertex AI

Exige claves de encriptación administradas por el cliente (CMEK) para los extremos de Vertex AI y, así, obtener más control sobre la encriptación de los modelos implementados y el acceso a los datos de control.

Habilita la CMEK para Vertex AI Feature Store

Requiere claves de encriptación administradas por el cliente (CMEK) para el almacén de funciones de Vertex AI y obtener más control sobre la encriptación y el acceso a los datos.

Habilita la CMEK para los trabajos de ajuste de hiperparámetros de Vertex AI

Exige claves de encriptación administradas por el cliente (CMEK) en los trabajos de ajuste de hiperparámetros para obtener más control sobre la encriptación de los datos de entrenamiento de modelos y la configuración del trabajo.

Habilita la CMEK para los almacenes de metadatos de Vertex AI

Exige claves de encriptación administradas por el cliente (CMEK) para los almacenes de metadatos de Vertex AI y, así, obtener más control sobre la encriptación de los metadatos y el acceso.

Habilita la CMEK para los modelos de Vertex AI

Requiere claves de encriptación administradas por el cliente (CMEK) para los modelos de Vertex AI y, así, obtener más control sobre la encriptación de datos y la administración de claves.

Habilita la CMEK para las plantillas de tiempo de ejecución de Vertex AI Notebooks

Requiere claves de encriptación administradas por el cliente (CMEK) para las plantillas de tiempo de ejecución de Colab Enterprise, lo que ayuda a proteger los entornos de ejecución y los datos asociados.

Habilita la CMEK para Vertex AI TensorBoard

Requiere claves de encriptación administradas por el cliente (CMEK) para Vertex AI TensorBoard y, así, obtener más control sobre la encriptación de los datos de experimentos y las visualizaciones de modelos.

Habilita la CMEK para las canalizaciones de entrenamiento de Vertex AI

Exige claves de encriptación administradas por el cliente (CMEK) en las canalizaciones de entrenamiento de Vertex AI para obtener más control sobre la encriptación de los datos de entrenamiento y los artefactos resultantes.

Habilita la CMEK para las instancias de Vertex AI Workbench

Exige claves de encriptación administradas por el cliente (CMEK) para las instancias de Vertex AI Workbench y obtener más control sobre la encriptación de datos.

Habilita la función de borrar y enviar a la papelera para las instancias de Vertex AI Workbench

Habilita la función de metadatos Delete to Trash para las instancias de Workbench y, así, proporciona una red de seguridad de recuperación crucial y ayuda a evitar la pérdida accidental de datos.

Habilita el cierre por inactividad para las plantillas de entorno de ejecución de Vertex AI

Habilita el apagado automático por inactividad en las plantillas de entorno de ejecución de Colab Enterprise para optimizar los costos de la nube, mejorar la administración de recursos y fortalecer la seguridad.

Habilita la supervisión de la integridad para las instancias de Vertex AI Workbench

Habilita la supervisión de la integridad en las instancias de Workbench para certificar de forma continua la integridad del inicio de tus VMs en comparación con un modelo de referencia de confianza.

Habilita el arranque seguro para las plantillas de entorno de ejecución de Vertex AI

Habilita el inicio seguro en las plantillas de entorno de ejecución de Colab Enterprise para evitar la ejecución de código no autorizado y proteger la integridad del sistema operativo.

Habilita el arranque seguro para las instancias de Vertex AI Workbench

Habilita el inicio seguro para las instancias de Workbench y, así, evitar que se ejecute software no autorizado o malicioso durante el proceso de inicio.

Habilita el vTPM en instancias de Vertex AI Workbench

Habilita el módulo de plataforma segura virtual (vTPM) en las instancias de Workbench para proteger el proceso de inicio y obtener más control sobre la encriptación.

Restringe el uso de la cuenta de servicio predeterminada para las instancias de Vertex AI Workbench

Restringe el uso de la cuenta de servicio predeterminada altamente permisiva para las instancias de Workbench y, así, reduce el riesgo de acceso no autorizado a los servicios de Google Cloud.

Áreas funcionales admitidas

En esta sección, se definen las áreas funcionales que la Protección contra IA puede ayudar a proteger.

  • Cargas de trabajo de IA: Las cargas de trabajo de las aplicaciones de IA abarcan desde herramientas internas destinadas a mejorar la productividad de los empleados hasta soluciones orientadas al consumidor diseñadas para mejorar la experiencia del usuario y generar ingresos. Entre los ejemplos, se incluyen los agentes de IA, los asistentes virtuales, los chatbots de IA conversacional y las recomendaciones personalizadas.
  • Modelos de IA: Los modelos de IA se clasifican en modelos de IA de base, modelos de IA ajustados, modelos de IA estándar de origen y modelos de IA personalizados. Algunos ejemplos son Gemini, Llama, modelos de traducción y modelos personalizados para tareas específicas.
  • Recursos de IA: Los recursos de IA contribuyen a las canalizaciones de operaciones de aprendizaje automático y se utilizan en las cargas de trabajo de IA. Los tipos de recursos creados con IA incluyen los siguientes:
    • Recursos de IA declarativos: Las herramientas de administración del ciclo de vida de la IA, como Vertex AI, hacen un seguimiento de estos recursos.
    • Recursos de IA inferidos: Son recursos de uso general, como los de procesamiento y almacenamiento, que se usan para procesar datos o cargas de trabajo de IA.
    • Modelo como servicio (solo API): Son recursos que tienen llamadas programáticas a modelos de IA propios o de terceros.

Usa el panel de seguridad de IA

El panel de IA Security proporciona una vista integral del inventario de recursos de IA de tu organización y propone posibles mitigaciones para mejorar la administración de riesgos y amenazas.

Accede al panel

Para acceder al panel de IA Security, en la consola de Google Cloud , ve a Resumen de riesgos > IA Security.

Para obtener más información, consulta el panel de seguridad de la IA.

Comprende la información sobre riesgos

En esta sección, se proporciona información sobre los posibles riesgos asociados con los sistemas de IA. Puedes ver los principales riesgos en tu inventario de IA.

Puedes hacer clic en cualquier problema para abrir un panel de detalles que proporcione una visualización del problema.

Ver amenazas de IA

En esta sección, se proporcionan estadísticas sobre las amenazas asociadas con los sistemas de IA. Puedes ver las 5 amenazas recientes principales asociadas con tus recursos de IA.

En esta página, puedes hacer lo siguiente:

  • Haz clic en Ver todo para ver las amenazas asociadas con tus recursos de IA.
  • Haz clic en cualquier amenaza para ver más detalles sobre ella.

Visualiza el inventario

Puedes ver una visualización de tu inventario de IA en el panel, que proporciona un resumen de los proyectos que involucran IA generativa, los modelos de origen y de terceros en uso activo, y los conjuntos de datos que se utilizan para entrenar los modelos de terceros.

En esta página, puedes hacer lo siguiente:

  • Para ver la página de detalles del inventario, haz clic en cualquiera de los nodos de la visualización.
  • Para ver una lista detallada de los recursos individuales (como los modelos básicos y los modelos personalizados), haz clic en la sugerencia.
  • Para abrir una vista detallada del modelo, haz clic en él. En esta vista, se muestran detalles como los extremos en los que se aloja el modelo y el conjunto de datos que se usó para entrenarlo. Si la Protección de datos sensibles está habilitada, la vista de conjuntos de datos también muestra si el conjunto de datos contiene datos sensibles.

Resumen de los resultados de la revisión

En esta sección, se te ayuda a evaluar y administrar los hallazgos generados por el marco de IA y las políticas de seguridad de los datos. En esta sección, se incluye lo siguiente:

  • Hallazgos: En esta sección, se muestra un resumen de los hallazgos generados por las políticas de seguridad de IA y las políticas de seguridad de los datos. Haz clic en Ver todos los resultados o en el recuento de cada categoría de resultados para ver la página de detalles de los resultados. Haz clic en un resultado para mostrar información adicional sobre él.
  • Datos sensibles en los conjuntos de datos de Vertex AI: En esta sección, se muestra un resumen de los hallazgos basados en los datos sensibles de los conjuntos de datos, según lo informa Sensitive Data Protection.

Cómo examinar los resultados de Model Armor

Un gráfico muestra la cantidad total de instrucciones o respuestas analizadas por Model Armor y la cantidad de problemas que detectó Model Armor. Además, muestra estadísticas de resumen para varios tipos de problemas detectados, como la inyección de instrucciones, la detección de jailbreak y la detección de datos sensibles.

Esta información se completa en función de las métricas que Model Armor publica en Cloud Monitoring.

¿Qué sigue?