La gestión de modelos y riesgos es el proceso por el que todos los grupos de partes interesadas determinan que los modelos son suficientes. Tu proceso puede incluir la validación de nuevos modelos, la monitorización de modelos, los estándares de seguridad y cumplimiento, los procesos de asistencia, la cobertura de riesgos, los manuales de operaciones y las guías de usuario, entre otros temas.
Como propietario de un marco de riesgos, los siguientes artefactos te proporcionan recursos útiles para integrar la IA de lucha contra el blanqueo de capitales en tu panorama general de gestión de riesgos. AML AI proporciona documentación relevante para la gobernanza de modelos y riesgos, así como varios resultados de la optimización, el entrenamiento y la evaluación de tu modelo de AML AI.
Documentación de gobierno de modelos y riesgos
El siguiente conjunto de documentación de conceptos, disponible bajo petición para los clientes de AML AI, sirve como artefacto de gobernanza en tu marco general de gestión de riesgos y de gobernanza de modelos y riesgos de IA/ML:
- Arquitectura del modelo: Describe la arquitectura del modelo concreto que se usa en la IA de lucha contra el blanqueo de dinero para calcular las puntuaciones de riesgo.
- Metodología de etiquetado: Describe los enfoques utilizados para definir ejemplos de entrenamiento etiquetados para la optimización, el entrenamiento y las pruebas retrospectivas de los modelos de IA de lucha contra el blanqueo de capitales.
- Metodología de entrenamiento de modelos: Describe el enfoque de entrenamiento y validación de los modelos de IA de AML.
- Metodología de ajuste del modelo: Describe el proceso por el que AML AI optimiza los hiperparámetros del modelo en función de tus datos.
- Metodología de evaluación de modelos: Describe las métricas que se usan para la evaluación de modelos y las pruebas retrospectivas.
- Descripción general de las familias de funciones: Describe las familias de funciones admitidas y cómo se usan para la interpretabilidad (y en otros casos) en la IA de AML.
- Esquema de tipología de riesgos: Describe cómo admite AML AI las tipologías de riesgos y la metodología que utiliza para demostrar la cobertura.
- Política de estabilidad y asistencia de la versión del motor: Describe qué cambia y qué no entre las versiones del motor de IA de AML, así como el tiempo durante el que se admite cada versión del motor para diferentes operaciones.
Resultados de modelos como artefactos de gobernanza
Los siguientes artefactos se generan como resultados de las operaciones de IA de AML normales:
- Calidad del modelo
- La salida de configuración del motor incluye el recuerdo esperado (antes y después de la optimización) registrado en los metadatos de configuración del motor.
- Los resultados de la prueba retrospectiva te permiten medir el rendimiento del modelo entrenado en un conjunto de ejemplos que no se han incluido en el entrenamiento.
- Calidad de los datos
- Salida de valores que faltan: indica la proporción de valores que faltan por familia de características en los conjuntos de datos que se usan para la optimización, el entrenamiento, las pruebas retrospectivas y la predicción. Los cambios significativos pueden indicar una incoherencia en los datos subyacentes, lo que puede afectar al rendimiento del modelo.
- Los errores de validación de datos impiden que se completen las operaciones de IA de AML, por lo que, para generar un modelo y predicciones correctamente, debe resolver estos errores.
- Resultados de la predicción
- Las puntuaciones de riesgo varían de 0 a 1. Dentro de este intervalo, una puntuación más alta indica un mayor riesgo para la parte en el mes previsto. Las puntuaciones de riesgo no deben interpretarse directamente como una probabilidad de que se produzca una actividad de blanqueo de capitales o de que una posible investigación tenga éxito.
- La salida de Explainable AI aumenta las puntuaciones de riesgo altas con puntuaciones de atribución que indican la contribución de cada familia de funciones a la puntuación de riesgo.
- Las operaciones de larga duración (LROs) te permiten monitorizar todos los procesos de IA de AML que se utilizan en la preparación y las predicciones de modelos. Para obtener más información, consulta Gestionar operaciones de larga duración.