Perspectiva de la IA y el aprendizaje automático: seguridad

Last reviewed 2024-10-11 UTC

En este documento del marco de trabajo Well-Architected: perspectiva de IA y aprendizaje automático se ofrece una descripción general de los principios y las recomendaciones para asegurarse de que las implementaciones de IA y aprendizaje automático cumplen los requisitos de seguridad y cumplimiento de su organización. Las recomendaciones de este documento se ajustan al pilar de seguridad del Google Cloud framework Well-Architected.

El despliegue seguro de cargas de trabajo de IA y aprendizaje automático es un requisito fundamental, sobre todo en entornos empresariales. Para cumplir este requisito, debes adoptar un enfoque de seguridad integral que empiece en la conceptualización inicial de tus soluciones de IA y aprendizaje automático, y que se extienda al desarrollo, la implementación y las operaciones continuas. Google Cloud ofrece herramientas y servicios sólidos diseñados para ayudarte a proteger tus cargas de trabajo de IA y aprendizaje automático.

Define objetivos y requisitos claros

Es más fácil integrar los controles de seguridad y cumplimiento necesarios al principio del proceso de diseño y desarrollo que añadirlos después. Desde el inicio del proceso de diseño y desarrollo, toma decisiones adecuadas para tu entorno de riesgo y tus prioridades empresariales específicas.

Ten en cuenta las siguientes recomendaciones:

  • Identifica los posibles vectores de ataque y adopta una perspectiva de seguridad y cumplimiento desde el principio. A medida que diseñes y desarrolles tus sistemas de IA, haz un seguimiento de la superficie de ataque, los riesgos potenciales y las obligaciones a las que te enfrentes.
  • Alinea tus esfuerzos de seguridad de IA y aprendizaje automático con tus objetivos de negocio y asegúrate de que la seguridad sea una parte integral de tu estrategia general. Comprende los efectos de tus decisiones de seguridad en tus principales objetivos de negocio.

Mantener los datos protegidos y evitar que se pierdan o se traten de forma inadecuada

Los datos son un recurso valioso y sensible que debe mantenerse protegido. La seguridad de los datos te ayuda a mantener la confianza de los usuarios, a alcanzar tus objetivos empresariales y a cumplir los requisitos.

Ten en cuenta las siguientes recomendaciones:

  • No recoja, conserve ni use datos que no sean estrictamente necesarios para alcanzar sus objetivos de negocio. Si es posible, use datos sintéticos o totalmente anonimizados.
  • Monitoriza la recogida, el almacenamiento y la transformación de datos. Mantener registros de todas las actividades de acceso y manipulación de datos. Los registros te ayudan a auditar el acceso a los datos, detectar intentos de acceso no autorizados y evitar accesos no deseados.
  • Implementa diferentes niveles de acceso (por ejemplo, sin acceso, solo lectura o escritura) en función de los roles de los usuarios. Asegúrate de que los permisos se asignen según el principio de mínimos accesos. Los usuarios solo deben tener los permisos mínimos necesarios para desempeñar las actividades de su rol.
  • Implementa medidas como el cifrado, los perímetros seguros y las restricciones en el movimiento de datos. Estas medidas te ayudan a evitar la filtración y la pérdida de datos.
  • Protege tus sistemas de entrenamiento de aprendizaje automático frente a la contaminación de datos.

Mantener protegidos los flujos de trabajo de IA y evitar que se manipulen

Tu código de IA y de aprendizaje automático, así como las canalizaciones definidas por código, son recursos fundamentales. El código que no está protegido se puede manipular, lo que puede provocar fugas de datos, incumplimiento de normativas e interrupciones de actividades empresariales críticas. Mantener seguro el código de IA y aprendizaje automático ayuda a garantizar la integridad y el valor de tus modelos y de los resultados que generan.

Ten en cuenta las siguientes recomendaciones:

  • Utiliza prácticas de codificación seguras, como la gestión de dependencias o la validación y la depuración de entradas, durante el desarrollo del modelo para evitar vulnerabilidades.
  • Protege el código de tu canalización y tus artefactos de modelo, como archivos, pesos del modelo y especificaciones de implementación, contra accesos no autorizados. Implementa diferentes niveles de acceso para cada artefacto en función de los roles y las necesidades de los usuarios.
  • Implementa el linaje y el seguimiento de tus recursos y ejecuciones de la canalización. Esta medida te ayuda a cumplir los requisitos y a evitar que se pongan en riesgo los sistemas de producción.

Implementar en sistemas seguros con herramientas y artefactos seguros

Asegúrate de que tu código y tus modelos se ejecuten en un entorno seguro que tenga un sistema de control de acceso robusto con garantías de seguridad para las herramientas y los artefactos que se implementen en el entorno.

Ten en cuenta las siguientes recomendaciones:

  • Entrena y despliega tus modelos en un entorno seguro que tenga controles de acceso adecuados y protección frente a usos o manipulaciones no autorizados.
  • Sigue las directrices estándar de niveles de la cadena de suministro para artefactos de software (SLSA) para tus artefactos específicos de IA, como modelos y paquetes de software.
  • Es preferible usar imágenes de contenedor precompiladas validadas que estén diseñadas específicamente para cargas de trabajo de IA.

Proteger y monitorizar las entradas

Los sistemas de IA necesitan entradas para hacer predicciones, generar contenido o automatizar acciones. Algunas entradas pueden suponer un riesgo o usarse como vectores de ataque que deben detectarse y limpiarse. Detectar posibles entradas maliciosas con antelación te ayuda a mantener tus sistemas de IA seguros y a que funcionen según lo previsto.

Ten en cuenta las siguientes recomendaciones:

  • Implementa prácticas seguras para desarrollar y gestionar las peticiones de los sistemas de IA generativa, y asegúrate de que se analizan para detectar intenciones dañinas.
  • Monitoriza las entradas de los sistemas predictivos o generativos para evitar problemas, como endpoints sobrecargados o peticiones para las que los sistemas no están diseñados.
  • Asegúrate de que solo puedan usar el sistema desplegado los usuarios previstos.

Monitorizar, evaluar y prepararse para responder a los resultados

Los sistemas de IA aportan valor porque producen resultados que aumentan, optimizan o automatizan la toma de decisiones humanas. Para mantener la integridad y la fiabilidad de tus sistemas y aplicaciones de IA, debes asegurarte de que los resultados sean seguros y se ajusten a los parámetros esperados. También necesitas un plan para responder a los incidentes.

Ten en cuenta las siguientes recomendaciones:

  • Monitoriza los resultados de tus modelos de IA y aprendizaje automático en producción, e identifica cualquier problema de rendimiento, seguridad y cumplimiento.
  • Evalúa el rendimiento de los modelos implementando métricas y medidas de seguridad sólidas, como la identificación de respuestas generativas fuera del ámbito o resultados extremos en modelos predictivos. Recoger los comentarios de los usuarios sobre el rendimiento del modelo.
  • Implementa procedimientos de respuesta ante incidentes y alertas robustos para abordar cualquier posible problema.

Colaboradores

Autores:

  • Kamilla Kurta | Ingeniera de clientes especializada en GenAI y aprendizaje automático
  • Filipe Gracio, doctor | Ingeniero de clientes y especialista en IA y aprendizaje automático
  • Mohamed Fawzi | Responsable de Seguridad y Cumplimiento en Benelux

Otros colaboradores: