Model Armor es un servicio Google Cloud completamente administrado que mejora la seguridad de las aplicaciones basadas en IA. Model Armor funciona examinando las instrucciones y respuestas de los LLM en busca de diversos riesgos de seguridad. Model Armor tiene las siguientes características:
- Independiente del modelo y de la nube: Model Armor está diseñado para admitir cualquier modelo en cualquier plataforma de nube. Esto incluye situaciones de múltiples nubes y múltiples modelos para elegir las mejores soluciones de IA para tus necesidades específicas.
- Administración y aplicación centralizadas: Model Armor permite la administración y aplicación centralizadas de políticas de seguridad y protección.
- APIs de REST públicas: Model Armor proporciona una API de REST pública que puedes usar para integrar la detección de instrucciones y respuestas directamente en tus aplicaciones. Este enfoque basado en la API admite varias situaciones de implementación.
- Control de acceso basado en roles (RBAC): Model Armor incorpora el RBAC para administrar el acceso y los permisos dentro del servicio, de modo que los diferentes roles de usuario tengan niveles adecuados de control y visibilidad.
- Endpoints: La API de Model Armor ofrece extremos regionales para una latencia baja y extremos multirregionales para una alta disponibilidad. Para obtener más información, consulta Extremos de Model Armor.
- Integración en Security Command Center: Model Armor se integra en Security Command Center, lo que significa que puedes ver los resultados en el panel de Security Command Center, y detectar y corregir los incumplimientos desde la fuente.
- Funciones de seguridad:
- Filtros de seguridad y de IA responsable: Model Armor ofrece filtros para la seguridad del contenido, que abordan el contenido sexual explícito o peligroso, o que incluye acoso o incitación al odio.
- Detección de inyección de instrucciones y jailbreak: Model Armor incluye funciones para detectar y prevenir ataques de inyección de instrucciones y jailbreak.
- Prevención de pérdida de datos (DLP) con Sensitive Data Protection: Model Armor incluye todas las capacidades del servicio Sensitive Data Protection de Google Cloud para proporcionar capacidades de prevención de pérdida de datos. Model Armor puede descubrir, clasificar y proteger datos sensibles, lo que evita la exposición no autorizada en las interacciones con LLMs.
- Detección de URLs maliciosas: Model Armor puede identificar URLs maliciosas en las instrucciones y las respuestas, lo que mejora la postura de seguridad de las aplicaciones basadas en IA.
- Compatibilidad con la detección de documentos: Model Armor admite la detección de texto en los siguientes tipos de documentos para identificar contenido malicioso.
- Archivos PDF
- Documentos DOCX, DOCM, DOTX y DOTM
- Presentaciones PPTX, PPTM, POTX y POT
- Hojas de cálculo XLSX, XLSM, XLTX y XLTM
Beneficios
Model Armor ofrece varios beneficios para las organizaciones, incluidos los siguientes:
- Seguridad y protección mejoradas de la IA: Model Armor ayuda a las organizaciones a mitigar los riesgos de seguridad y protección asociados con el uso de LLMs. Model Armor aborda inquietudes como la inyección de instrucciones y los intentos de jailbreaking, la generación de contenido dañino, las URLs maliciosas y la pérdida de datos sensibles, lo que permite integraciones seguras y confiables de LLM en productos y servicios.
- Visibilidad y control centralizados: Model Armor ofrece administración centralizada en todas las aplicaciones de LLM, lo que permite a los CISOs y arquitectos de seguridad supervisar y controlar las políticas de seguridad y protección.
- Opciones de implementación flexibles: Model Armor admite situaciones de múltiples nubes, múltiples modelos y múltiples LLM, y se puede implementar en diferentes puntos de la arquitectura de la aplicación de LLM, lo que brinda flexibilidad a las organizaciones para integrar Model Armor en su infraestructura y flujos de trabajo existentes.
- Personalización e integración: Model Armor permite personalizar las políticas para que se adapten a casos de uso específicos de la aplicación y se integra en los flujos de trabajo operativos existentes.
Arquitectura
En este diagrama de arquitectura, se muestra una aplicación que usa Model Armor para proteger un LLM y un usuario. En los siguientes pasos, se explica el flujo de datos.
- Un usuario proporciona una instrucción a la aplicación.
- Model Armor inspecciona la instrucción entrante en busca de contenido potencialmente sensible.
- El LLM recibe la instrucción (o la instrucción saneada).
- El LLM genera una respuesta.
- Model Armor inspecciona la respuesta generada en busca de contenido potencialmente sensible.
- Se envía la respuesta (o la respuesta saneada) al usuario. Model Armor envía una descripción detallada de los filtros activados y no activados en la respuesta.
En resumen, Model Armor actúa como un filtro que inspecciona tanto la entrada (instrucción) como la salida (respuesta) para garantizar que el LLM no esté expuesto ni proporcione entradas o salidas maliciosas o sensibles.
Casos de uso
Model Armor tiene varios casos de uso en múltiples industrias:
Seguridad
- Las organizaciones pueden mitigar el riesgo de que se filtre información de identificación personal (PII) y propiedad intelectual (IP) sensible, y de que se incluya en las instrucciones o respuestas de los LLM.
- Las organizaciones pueden protegerse contra ataques de inyección de instrucciones y jailbreaking, lo que impide que los agentes maliciosos manipulen los sistemas de IA para realizar acciones no deseadas.
- Las organizaciones pueden analizar el texto de los PDFs en busca de contenido sensible o malicioso.
Seguridad y IA responsable
- Las organizaciones pueden evitar que su chatbot recomiende soluciones de la competencia, lo que mantiene la integridad de la marca y la lealtad del cliente.
- Las organizaciones pueden filtrar las publicaciones en redes sociales generadas por su IA que contengan mensajes dañinos, como contenido peligroso o que incite al odio.
Idiomas admitidos
Los filtros de Model Armor admiten la limpieza de instrucciones y respuestas en varios idiomas.
- El filtro de Protección de datos sensibles admite inglés y otros idiomas según los infoTypes que seleccionaste.
- Los filtros de IA responsable y detección de inyección de instrucciones y jailbreak se prueban en alemán, chino (mandarín), coreano, español, francés, inglés, italiano, japonés y portugués. Estos filtros pueden funcionar en otros idiomas, pero la calidad de los resultados puede variar.
Existen dos formas de habilitar la detección de varios idiomas:
Habilitar en cada solicitud: Para un control detallado, habilita la detección de varios idiomas en cada solicitud cuando se sanea un mensaje del usuario y se sanea una respuesta del modelo. Para obtener más información, consulta Cómo limpiar la instrucción del usuario con la detección multilingüe habilitada y Cómo limpiar la respuesta del modelo con la detección multilingüe habilitada.
Habilitación única de la plantilla: Si prefieres una configuración más simple, puedes habilitar la detección de varios idiomas como una configuración única a nivel de la plantilla de Model Armor con la API de REST. Para obtener más información, consulta Crea una plantilla de Model Armor.
Precios
Model Armor se puede comprar como parte integrada de Security Command Center o como un servicio independiente. Para obtener información sobre los precios, consulta Precios de Security Command Center.
Tokens
Los modelos de IA generativa dividen el texto y otros datos en unidades llamadas tokens. Model Armor usa la cantidad total de tokens en las instrucciones y respuestas de IA para determinar los precios. Model Armor limita la cantidad de tokens procesados en cada instrucción y respuesta. Model Armor tiene límites de tokens variables según el filtro específico. Si la instrucción o la respuesta superan el límite de tokens del filtro, se reduce la precisión de la detección, pero no se muestra ningún error.
Filtro | Límite de tokens |
---|---|
Detección de inyección de instrucciones y jailbreak | Hasta 2,000 |
Prevención de pérdida de datos (DLP) con Sensitive Data Protection | Hasta 130,000 |
IA responsable | 10,000 |
Material de abuso sexual infantil | 10,000 |
Consideraciones
Cuando uses Model Armor, ten en cuenta lo siguiente:
- La configuración de la planta no puede aplicar la protección de datos sensibles.
- Model Armor rechaza las solicitudes para analizar archivos en formato de texto enriquecido que tienen un tamaño de 50 bytes o menos, ya que es muy probable que estos archivos no sean válidos.
¿Qué sigue?
- Obtén información sobre los conceptos clave de Model Armor.
- Comienza a usar Model Armor.
- Obtén información sobre las plantillas de Model Armor.
- Obtén más información sobre la configuración de límites de Model Armor.
- Limpiar las instrucciones y las respuestas
- Obtén más información sobre el registro de auditoría de Model Armor.
- Soluciona problemas de Model Armor.