Artefakte zur Modell- und Risikogovernance erfassen
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Die Modell- und Risikogovernance ist der Prozess, bei dem Modelle von allen Stakeholdergruppen als ausreichend eingestuft werden. Ihr Prozess kann unter anderem die Validierung neuer Modelle, die Modellüberwachung, Sicherheits- und Compliance-Standards, Supportprozesse, Risikoabdeckung, Betriebshandbücher und Nutzerhandbücher umfassen.
Als Inhaber eines Risikorahmens finden Sie in den folgenden Artefakten nützliche Ressourcen für die Einbindung von AML-KI in Ihr gesamtes Risikomanagement. AML AI liefert relevante Dokumentationen zur Modell- und Risikoverwaltung sowie verschiedene Ergebnisse aus der Optimierung, dem Training und der Bewertung Ihres AML AI-Modells.
Dokumentation zur Modell- und Risikogovernance
Die folgende Konzeptdokumentation, die auf Anfrage für AML AI-Kunden verfügbar ist, dient als Governance-Artefakt in Ihrem gesamten Risikomanagement und Ihrem KI/ML-Modell und Risikogovernance-Framework:
Modellarchitektur:
Beschreibt die spezifische Modellarchitektur, die für die AML-KI zur Berechnung von Risikobewertungen verwendet wird.
Methodik zum Labeln:
Beschreibt die Ansätze, mit denen beschriftete Trainingsbeispiele für die Optimierung, das Training und die Backtests von AML-KI-Modellen definiert werden.
Methodik für das Modelltraining:
Beschreibt den Ansatz für das Training und die Validierung von AML-KI-Modellen.
Methode zur Modellabstimmung:
Beschreibt den Prozess, mit dem die AML-KI die Modellhyperparameter anhand Ihrer Daten optimiert.
Methode zur Modellbewertung:
Beschreibt die Messwerte, die für die Modellbewertung und den Backtest verwendet werden.
Funktionsfamilien – Übersicht:
Beschreibung der unterstützten Funktionsfamilien und ihrer Verwendung für die Erklärbarkeit (und anderswo) in der AML-KI.
Schema für Risikotypen:
Beschreibt, wie AML-KI Risikotypen unterstützt und welche Methodik verwendet wird, um die Abdeckung zu demonstrieren.
Stabilität und Supportrichtlinie für die Engine-Version:
Beschreibt, was sich zwischen den Versionen der AML-KI-Engine ändert und was nicht, und wie lange jede Engine-Version für verschiedene Vorgänge unterstützt wird.
Modellergebnisse als Governance-Artefakte
Die folgenden Artefakte werden bei regulären AML-KI-Vorgängen als Ausgabe generiert:
Modellqualität
Die Ausgabe der Engine-Konfiguration enthält die in den Engine-Konfigurationsmetadaten erfasste erwartete Trefferquote (vor und nach der Optimierung).
Mit Backtest-Ergebnissen können Sie die Leistung des trainierten Modells anhand von Beispielen messen, die nicht in das Training einbezogen wurden.
Datenqualität
Die Ausgabe zu fehlenden Werten gibt den Anteil der fehlenden Werte pro Featurefamilie in Ihren Datasets an, die für die Optimierung, das Training, das Backtesting und die Vorhersage verwendet werden. Wesentliche Änderungen können auf eine Inkonsistenz in den zugrunde liegenden Daten hinweisen, die sich auf die Modellleistung auswirken kann.
Datenvalidierungsfehler verhindern, dass AML-KI-Vorgänge abgeschlossen werden. Wenn Sie also ein Modell und Vorhersagen erstellen möchten, müssen Sie diese Fehler beheben.
Vorhersageergebnisse
Risikobewertungen reichen von 0 bis 1. Innerhalb dieses Bereichs bedeutet ein höherer Wert ein höheres Risiko für die Partei im prognostizierten Monat. Risikobewertungen sollten nicht direkt als Wahrscheinlichkeit für Geldwäscheaktivitäten oder für den Erfolg einer möglichen Prüfung interpretiert werden.
Die Ergebnisse der Explainable AI-Funktion ergänzen hohe Risikobewertungen um Attributionsbewertungen, die den Beitrag der einzelnen Merkmalsfamilien zur Risikobewertung angeben.
Mit lang andauernden Vorgängen können Sie alle AML-KI-Prozesse im Blick behalten, die bei der Modellvorbereitung und -vorhersage verwendet werden.
Weitere Informationen finden Sie unter Vorgänge mit langer Ausführungszeit verwalten.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-17 (UTC)."],[[["\u003cp\u003eModel and risk governance involves ensuring models are deemed sufficient by all stakeholders, encompassing processes like validation, monitoring, and compliance.\u003c/p\u003e\n"],["\u003cp\u003eAML AI provides documentation relevant to model and risk governance, including model architecture, labeling methodology, and risk typology schema.\u003c/p\u003e\n"],["\u003cp\u003eAML AI customers can request concept documentation that serves as governance artifacts for overall risk management and AI/ML model governance.\u003c/p\u003e\n"],["\u003cp\u003eRegular AML AI operations generate outputs like backtest results, missingness output, risk scores, and explainable AI output, which serve as additional governance artifacts.\u003c/p\u003e\n"],["\u003cp\u003eAML AI's long-running operations (LROs) help track all model preparation and prediction processes.\u003c/p\u003e\n"]]],[],null,["# Collect model and risk governance artifacts\n\nModel and risk governance is the process by which models are determined to be\nsufficient by all stakeholder groups. Your process might include new model\nvalidation, model monitoring, security and compliance standards, support\nprocesses, risk coverage, operations manuals, and user guides, among other\ntopics.\n\nAs an owner of a risk framework, the following artifacts provide you with useful\nresources for integrating AML AI into your overall risk\nmanagement landscape. AML AI contributes documentation relevant\nto model and risk governance, as well as various outputs from tuning, training,\nand evaluating your AML AI model.\n\nModel and risk governance documentation\n---------------------------------------\n\nThe following set of concept documentation, available on request for\nAML AI customers, serves as governance artifacts in your overall\nrisk management and AI/ML model and risk governance framework:\n\n- **Model architecture**: Describes the particular model architecture used for AML AI to calculate risk scores.\n- **Labeling methodology**: Describes the approaches used to define labeled training examples for tuning, training, and backtesting of AML AI models.\n- **Model training methodology**: Describes the training and validation approach for AML AI models.\n- **Model tuning methodology**: Describes the process by which AML AI optimizes model hyperparameters based on your data.\n- **Model evaluation methodology**: Describes the metrics that are used for model evaluation and backtesting.\n- **Feature families overview**: Describes the supported feature families and how they are used for explainability (and elsewhere) in AML AI.\n- **Risk typology schema**: Describes how AML AI supports risk typologies and the methodology it uses to demonstrate coverage.\n- **Engine version stability and support policy**: Describes what does and does not change between AML AI engine versions, and how long each engine version is supported for different operations.\n\nModel outputs as governance artifacts\n-------------------------------------\n\nThe following artifacts are generated as outputs by regular\nAML AI operations:\n\n- **Model quality**\n - **Engine configuration output** includes expected recall (before and after tuning) captured in the engine config metadata.\n - **Backtest results** allow you to measure trained model performance on a set of examples not included in training.\n- **Data quality**\n - **Missingness output** indicates the share of missing values per feature family in your datasets used for tuning, training, backtesting, and prediction. Significant changes can indicate an inconsistency in your underlying data which can impact model performance.\n - **Data validation errors** prevent completion of AML AI operations, so to successfully produce a model and predictions, you must resolve these errors.\n- **Prediction results**\n - **Risk scores** vary from 0 to 1, and within this range a higher score indicates higher risk for the party for the predicted month. Risk scores shouldn't be interpreted directly as a probability of money laundering activity, or of the success of a possible investigation.\n - **Explainable AI output** augments high risk scores with attribution scores indicating contribution of each feature family to the risk score.\n- **Long-running operations (LROs)** allow you to track all AML AI processes used in model preparation and predictions. For more information, see [Manage long-running operations](/financial-services/anti-money-laundering/docs/manage-long-running-operations)."]]