Este principio del pilar de seguridad del Google Cloud framework de Well-Architected proporciona recomendaciones para ayudarte a proteger tus sistemas de IA. Estas recomendaciones se alinean con el Secure AI Framework (SAIF) de Google, que proporciona un enfoque práctico para abordar las preocupaciones de seguridad y riesgo de los sistemas de IA. El SAIF es un marco conceptual que tiene como objetivo proporcionar estándares para toda la industria en relación con el desarrollo y la implementación responsables de la IA.
Descripción general del principio
Para garantizar que tus sistemas de IA cumplan con tus requisitos de seguridad, privacidad y cumplimiento, debes adoptar una estrategia integral que comience con el diseño inicial y se extienda a la implementación y las operaciones. Puedes implementar esta estrategia integral aplicando los seis elementos principales de SAIF.
Google utiliza la IA para mejorar las medidas de seguridad, como identificar amenazas, automatizar tareas de seguridad y mejorar las capacidades de detección, al mismo tiempo que mantiene a las personas involucradas en las decisiones críticas.
Google enfatiza un enfoque colaborativo para avanzar en la seguridad de la IA. Este enfoque implica asociarse con clientes, industrias y gobiernos para mejorar los lineamientos del SAIF y ofrecer recursos prácticos y útiles.
Las recomendaciones para implementar este principio se agrupan en las siguientes secciones:
Recomendaciones para usar la IA de forma segura
Para usar la IA de forma segura, necesitas controles de seguridad básicos y controles de seguridad específicos para la IA. En esta sección, se proporciona una descripción general de las recomendaciones para garantizar que tus implementaciones de IA y AA cumplan con los requisitos de seguridad, privacidad y cumplimiento de tu organización. Para obtener una descripción general de los principios y las recomendaciones de arquitectura específicos para las cargas de trabajo de IA y AA en Google Cloud, consulta la perspectiva de IA y AA en Well-Architected Framework.
Define objetivos y requisitos claros para el uso de la IA
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Administración, riesgo y cumplimiento de la nube
- Seguridad de la IA y el AA
Esta recomendación se alinea con el elemento del SAIF sobre la contextualización de los riesgos del sistema de IA en los procesos comerciales circundantes. Cuando diseñas y desarrollas sistemas de IA, es importante que comprendas tus objetivos comerciales, riesgos y requisitos de cumplimiento específicos.
Mantener la seguridad de los datos y evitar su pérdida o manipulación
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Seguridad de la infraestructura
- Administración de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el AA
Esta recomendación se alinea con los siguientes elementos del SAIF:
- Expande bases de seguridad sólidas en el ecosistema de IA. Este elemento incluye la recopilación, el almacenamiento, el control de acceso y la protección contra la contaminación de datos.
- Contextualiza los riesgos del sistema de IA. Haz hincapié en la seguridad de los datos para respaldar los objetivos comerciales y el cumplimiento.
Mantener seguras y sólidas las canalizaciones de IA contra la manipulación
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Seguridad de la infraestructura
- Administración de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el AA
Esta recomendación se alinea con los siguientes elementos del SAIF:
- Expande bases de seguridad sólidas en el ecosistema de IA. Como elemento clave para establecer un sistema de IA seguro, protege tu código y los artefactos del modelo.
- Adapta los controles para crear ciclos de retroalimentación más rápidos. Como es importante para la mitigación y la respuesta ante incidentes, haz un seguimiento de tus activos y ejecuciones de canalizaciones.
Implementa apps en sistemas seguros con herramientas y artefactos seguros
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Seguridad de la infraestructura
- Administración de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el AA
El uso de sistemas seguros y herramientas y artefactos validados en aplicaciones basadas en IA se alinea con el elemento del SAIF sobre la expansión de bases de seguridad sólidas al ecosistema y la cadena de suministro de la IA. Para abordar esta recomendación, sigue estos pasos:
- Implementa un entorno seguro para el entrenamiento y la implementación de AA
- Usa imágenes de contenedor validadas
- Aplica los lineamientos de Niveles de cadena de suministro para artefactos de software (SLSA).
Protege y supervisa las entradas
Esta recomendación es pertinente para las siguientes áreas de enfoque:
- Registro, auditoría y supervisión
- Operaciones de seguridad
- Seguridad de la IA y el AA
Esta recomendación se alinea con el elemento del SAIF sobre la ampliación de la detección y la respuesta para incorporar la IA al universo de las amenazas de una organización. Para evitar problemas, es fundamental administrar las instrucciones de los sistemas de IA generativa, supervisar las entradas y controlar el acceso de los usuarios.
Recomendaciones para la administración de la IA
Todas las recomendaciones de esta sección son pertinentes para la siguiente área de enfoque: Administración, riesgo y cumplimiento de la nube.
Google Cloud ofrece un conjunto sólido de herramientas y servicios que puedes usar para crear sistemas de IA responsables y éticos. También ofrecemos un marco de políticas, procedimientos y consideraciones éticas que pueden guiar el desarrollo, la implementación y el uso de sistemas de IA.
Como se refleja en nuestras recomendaciones, el enfoque de Google para la administración de la IA se basa en los siguientes principios:
- Equidad
- Transparencia
- Responsabilidad
- Privacidad
- Seguridad
Usa indicadores de equidad
Vertex AI puede detectar sesgos durante el proceso de recopilación de datos o la evaluación posterior al entrenamiento. Vertex AI proporciona métricas de evaluación de modelos, como el sesgo de datos y el sesgo del modelo, para ayudarte a evaluar si tu modelo tiene sesgos.
Estas métricas se relacionan con la equidad en diferentes categorías, como raza, género y clase. Sin embargo, interpretar las desviaciones estadísticas no es un ejercicio sencillo, ya que las diferencias entre las categorías pueden no ser el resultado de un sesgo o un indicador de daño.
Usa Vertex Explainable AI.
Para comprender cómo toman decisiones los modelos de IA, usa Vertex Explainable AI. Esta función te ayuda a identificar posibles sesgos que podrían estar ocultos en la lógica del modelo.
Esta función de interpretabilidad se integra en BigQuery ML y Vertex AI, que proporcionan explicaciones basadas en atributos. Puedes realizar la explicación en BigQuery ML o registrar tu modelo en Vertex AI y realizar la explicación allí.
Realizar un seguimiento de linaje de datos
Hacer un seguimiento del origen y la transformación de los datos que se usan en tus sistemas de IA Este seguimiento te ayuda a comprender el recorrido de los datos y a identificar posibles fuentes de sesgo o error.
El linaje de datos es una función de Dataplex Universal Catalog que te permite hacer un seguimiento de cómo los datos se mueven a través de tus sistemas: de dónde provienen, a dónde se pasan y qué transformaciones se aplican a ellos.
Establece la responsabilidad
Establece una responsabilidad clara para el desarrollo, la implementación y los resultados de tus sistemas de IA.
Usa Cloud Logging para registrar los eventos y las decisiones clave que toman tus sistemas de IA. Los registros proporcionan un registro de auditoría para ayudarte a comprender el rendimiento del sistema y a identificar áreas de mejora.
Usa Error Reporting para analizar de forma sistemática los errores que cometen los sistemas de IA. Este análisis puede revelar patrones que señalan sesgos subyacentes o áreas en las que el modelo necesita más perfeccionamiento.
Implementa la privacidad diferencial
Durante el entrenamiento de modelos, se agrega ruido a los datos para dificultar la identificación de los puntos de datos individuales, pero sin impedir que el modelo aprenda de manera eficaz. Con SQL en BigQuery, puedes transformar los resultados de una consulta con agregaciones privadas diferenciales.