Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
A governança de modelos e riscos é o processo pelo qual os modelos são considerados
suficientes por todos os grupos de partes interessadas. O processo pode incluir a validação de novos modelos, monitoramento de modelos, padrões de segurança e compliance, processos de suporte, cobertura de risco, manuais de operações e guias do usuário, entre outros temas.
Como proprietário de uma estrutura de risco, os artefatos a seguir oferecem recursos úteis
para integrar a IA de AML ao seu cenário de gerenciamento de risco. A IA de AML contribui com a documentação relevante
para a governança de modelos e riscos, além de várias saídas de ajuste, treinamento
e avaliação do modelo de IA de AML.
Documentação de governança de modelos e riscos
O conjunto de documentação de conceito a seguir, disponível mediante solicitação para clientes de IA de AML, serve como artefatos de governança no seu modelo geral de gerenciamento de riscos e IA/ML e na estrutura de governança de riscos:
Arquitetura do modelo:
descreve a arquitetura de modelo específica usada pela IA de AML
para calcular as pontuações de risco.
Metodologia de rotulagem:
descreve as abordagens usadas para definir exemplos de treinamento rotulados para
ajuste, treinamento e contrateste de modelos de IA de AML.
Metodologia de treinamento de modelo:
descreve a abordagem de treinamento e validação para modelos de IA
de AML.
Metodologia de ajuste de modelo:
descreve o processo pelo qual a IA AML otimiza os hiperparâmetros do modelo com base nos seus dados.
Metodologia de avaliação do modelo:
descreve as métricas usadas para avaliação e testes retrospectivos do modelo.
Visão geral das famílias de recursos:
descreve as famílias de recursos com suporte e como elas são usadas para
explicabilidade (e em outros lugares) na IA de AML.
Esquema de tipologia de risco:
descreve como a IA antilavagem de dinheiro oferece suporte a tipologias de risco e a
metodologia usada para demonstrar a cobertura.
Política de suporte e estabilidade da versão do mecanismo:
descreve o que muda e o que não muda entre as versões do mecanismo de IA
AML e por quanto tempo cada versão do mecanismo é compatível com operações
diferentes.
Modelar saídas como artefatos de governança
Os artefatos a seguir são gerados como saídas por operações regulares de IA de AML:
Qualidade do modelo
A saída de configuração do mecanismo inclui a recuperação esperada (antes e
depois do ajuste) capturada nos metadados de configuração do mecanismo.
Os resultados do backtest permitem medir a performance do modelo treinado em um
conjunto de exemplos que não foram incluídos no treinamento.
Qualidade dos dados
A saída de ausência de dados indica a porcentagem de valores ausentes por família de atributos nos seus conjuntos de dados usados para ajuste, treinamento, backtesting e previsão. Mudanças significativas podem indicar uma inconsistência nos
dados que podem afetar a performance do modelo.
Erros de validação de dados impedem a conclusão das operações de IA
de AML. Portanto, para produzir um modelo e previsões, é necessário
resolver esses erros.
Resultados da previsão
As pontuações de risco variam de 0 a 1. Dentro desse intervalo, uma pontuação mais alta
indica um risco maior para a parte no mês previsto. As pontuações de risco
não devem ser interpretadas diretamente como uma probabilidade de atividade de lavagem de dinheiro
ou do sucesso de uma possível investigação.
A saída de IA explicável aumenta as pontuações de alto risco com pontuações de atribuição que indicam a contribuição de cada família de recursos para a pontuação de risco.
As operações de longa duração (LROs, na sigla em inglês) permitem rastrear todos
os processos de IA de AML usados na preparação e nas previsões do modelo.
Para mais informações, consulte
Gerenciar operações de longa duração.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-17 UTC."],[[["\u003cp\u003eModel and risk governance involves ensuring models are deemed sufficient by all stakeholders, encompassing processes like validation, monitoring, and compliance.\u003c/p\u003e\n"],["\u003cp\u003eAML AI provides documentation relevant to model and risk governance, including model architecture, labeling methodology, and risk typology schema.\u003c/p\u003e\n"],["\u003cp\u003eAML AI customers can request concept documentation that serves as governance artifacts for overall risk management and AI/ML model governance.\u003c/p\u003e\n"],["\u003cp\u003eRegular AML AI operations generate outputs like backtest results, missingness output, risk scores, and explainable AI output, which serve as additional governance artifacts.\u003c/p\u003e\n"],["\u003cp\u003eAML AI's long-running operations (LROs) help track all model preparation and prediction processes.\u003c/p\u003e\n"]]],[],null,["# Collect model and risk governance artifacts\n\nModel and risk governance is the process by which models are determined to be\nsufficient by all stakeholder groups. Your process might include new model\nvalidation, model monitoring, security and compliance standards, support\nprocesses, risk coverage, operations manuals, and user guides, among other\ntopics.\n\nAs an owner of a risk framework, the following artifacts provide you with useful\nresources for integrating AML AI into your overall risk\nmanagement landscape. AML AI contributes documentation relevant\nto model and risk governance, as well as various outputs from tuning, training,\nand evaluating your AML AI model.\n\nModel and risk governance documentation\n---------------------------------------\n\nThe following set of concept documentation, available on request for\nAML AI customers, serves as governance artifacts in your overall\nrisk management and AI/ML model and risk governance framework:\n\n- **Model architecture**: Describes the particular model architecture used for AML AI to calculate risk scores.\n- **Labeling methodology**: Describes the approaches used to define labeled training examples for tuning, training, and backtesting of AML AI models.\n- **Model training methodology**: Describes the training and validation approach for AML AI models.\n- **Model tuning methodology**: Describes the process by which AML AI optimizes model hyperparameters based on your data.\n- **Model evaluation methodology**: Describes the metrics that are used for model evaluation and backtesting.\n- **Feature families overview**: Describes the supported feature families and how they are used for explainability (and elsewhere) in AML AI.\n- **Risk typology schema**: Describes how AML AI supports risk typologies and the methodology it uses to demonstrate coverage.\n- **Engine version stability and support policy**: Describes what does and does not change between AML AI engine versions, and how long each engine version is supported for different operations.\n\nModel outputs as governance artifacts\n-------------------------------------\n\nThe following artifacts are generated as outputs by regular\nAML AI operations:\n\n- **Model quality**\n - **Engine configuration output** includes expected recall (before and after tuning) captured in the engine config metadata.\n - **Backtest results** allow you to measure trained model performance on a set of examples not included in training.\n- **Data quality**\n - **Missingness output** indicates the share of missing values per feature family in your datasets used for tuning, training, backtesting, and prediction. Significant changes can indicate an inconsistency in your underlying data which can impact model performance.\n - **Data validation errors** prevent completion of AML AI operations, so to successfully produce a model and predictions, you must resolve these errors.\n- **Prediction results**\n - **Risk scores** vary from 0 to 1, and within this range a higher score indicates higher risk for the party for the predicted month. Risk scores shouldn't be interpreted directly as a probability of money laundering activity, or of the success of a possible investigation.\n - **Explainable AI output** augments high risk scores with attribution scores indicating contribution of each feature family to the risk score.\n- **Long-running operations (LROs)** allow you to track all AML AI processes used in model preparation and predictions. For more information, see [Manage long-running operations](/financial-services/anti-money-laundering/docs/manage-long-running-operations)."]]