Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Tata kelola model dan risiko adalah proses yang digunakan untuk menentukan apakah model sudah memadai oleh semua grup pemangku kepentingan. Proses Anda mungkin mencakup validasi
model baru, pemantauan model, standar keamanan dan kepatuhan, proses
dukungan, cakupan risiko, manual operasi, dan panduan pengguna, di antara
topik lainnya.
Sebagai pemilik framework risiko, artefak berikut memberi Anda resource
yang berguna untuk mengintegrasikan AI AML ke dalam lanskap manajemen
risiko secara keseluruhan. AML AI memberikan kontribusi dokumentasi yang relevan
dengan model dan tata kelola risiko, serta berbagai output dari penyesuaian, pelatihan,
dan evaluasi model AML AI Anda.
Dokumentasi model dan tata kelola risiko
Kumpulan dokumentasi konsep berikut, yang tersedia berdasarkan permintaan untuk
pelanggan AML AI, berfungsi sebagai artefak tata kelola dalam pengelolaan risiko
umum dan model AI/ML serta framework tata kelola risiko:
Arsitektur model:
Menjelaskan arsitektur model tertentu yang digunakan untuk AI AML
untuk menghitung skor risiko.
Metodologi pelabelan:
Menjelaskan pendekatan yang digunakan untuk menentukan contoh pelatihan berlabel untuk
penyesuaian, pelatihan, dan pengujian ulang model AI AML.
Metodologi pelatihan model:
Menjelaskan pendekatan pelatihan dan validasi untuk model AI AML.
Metodologi penyesuaian model:
Menjelaskan proses yang digunakan AML AI untuk mengoptimalkan hyperparameter
model berdasarkan data Anda.
Metodologi evaluasi model:
Menjelaskan metrik yang digunakan untuk evaluasi model dan pengujian balik.
Ringkasan kelompok fitur:
Menjelaskan kelompok fitur yang didukung dan cara penggunaannya untuk
keterbukaan (dan di tempat lain) di AI AML.
Skema tipologi risiko:
Menjelaskan cara AML AI mendukung tipologi risiko dan
metodologi yang digunakan untuk menunjukkan cakupan.
Kebijakan dukungan dan stabilitas versi mesin:
Menjelaskan apa yang berubah dan tidak berubah di antara versi mesin AML AI, dan berapa lama setiap versi mesin didukung untuk berbagai operasi.
Output model sebagai artefak tata kelola
Artefak berikut dihasilkan sebagai output oleh operasi AI AML reguler:
Kualitas model
Output konfigurasi mesin mencakup recall yang diharapkan (sebelum dan
setelah penyesuaian) yang diambil dalam metadata konfigurasi mesin.
Hasil pengujian balik memungkinkan Anda mengukur performa model terlatih pada
serangkaian contoh yang tidak disertakan dalam pelatihan.
Kualitas data
Output ketidaklengkapan menunjukkan bagian nilai yang tidak ada per keluarga
fitur dalam set data Anda yang digunakan untuk penyesuaian, pelatihan, pengujian balik, dan
prediksi. Perubahan yang signifikan dapat menunjukkan inkonsistensi dalam
data pokok Anda yang dapat memengaruhi performa model.
Error validasi data mencegah penyelesaian operasi AI AML, sehingga untuk berhasil menghasilkan model dan prediksi, Anda harus menyelesaikan error ini.
Hasil prediksi
Skor risiko bervariasi dari 0 hingga 1, dan dalam rentang ini, skor yang lebih tinggi
menunjukkan risiko yang lebih tinggi bagi pihak untuk bulan yang diprediksi. Skor risiko
tidak boleh ditafsirkan secara langsung sebagai probabilitas aktivitas
pencucian uang, atau keberhasilan kemungkinan investigasi.
Output Explainable AI meningkatkan skor risiko tinggi dengan skor atribusi
yang menunjukkan kontribusi setiap keluarga fitur terhadap skor risiko.
Operasi yang berjalan lama (LROs) memungkinkan Anda melacak semua
proses AI AML yang digunakan dalam persiapan dan prediksi model.
Untuk mengetahui informasi selengkapnya, lihat
Mengelola operasi yang berjalan lama.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-09-01 UTC."],[[["\u003cp\u003eModel and risk governance involves ensuring models are deemed sufficient by all stakeholders, encompassing processes like validation, monitoring, and compliance.\u003c/p\u003e\n"],["\u003cp\u003eAML AI provides documentation relevant to model and risk governance, including model architecture, labeling methodology, and risk typology schema.\u003c/p\u003e\n"],["\u003cp\u003eAML AI customers can request concept documentation that serves as governance artifacts for overall risk management and AI/ML model governance.\u003c/p\u003e\n"],["\u003cp\u003eRegular AML AI operations generate outputs like backtest results, missingness output, risk scores, and explainable AI output, which serve as additional governance artifacts.\u003c/p\u003e\n"],["\u003cp\u003eAML AI's long-running operations (LROs) help track all model preparation and prediction processes.\u003c/p\u003e\n"]]],[],null,["# Collect model and risk governance artifacts\n\nModel and risk governance is the process by which models are determined to be\nsufficient by all stakeholder groups. Your process might include new model\nvalidation, model monitoring, security and compliance standards, support\nprocesses, risk coverage, operations manuals, and user guides, among other\ntopics.\n\nAs an owner of a risk framework, the following artifacts provide you with useful\nresources for integrating AML AI into your overall risk\nmanagement landscape. AML AI contributes documentation relevant\nto model and risk governance, as well as various outputs from tuning, training,\nand evaluating your AML AI model.\n\nModel and risk governance documentation\n---------------------------------------\n\nThe following set of concept documentation, available on request for\nAML AI customers, serves as governance artifacts in your overall\nrisk management and AI/ML model and risk governance framework:\n\n- **Model architecture**: Describes the particular model architecture used for AML AI to calculate risk scores.\n- **Labeling methodology**: Describes the approaches used to define labeled training examples for tuning, training, and backtesting of AML AI models.\n- **Model training methodology**: Describes the training and validation approach for AML AI models.\n- **Model tuning methodology**: Describes the process by which AML AI optimizes model hyperparameters based on your data.\n- **Model evaluation methodology**: Describes the metrics that are used for model evaluation and backtesting.\n- **Feature families overview**: Describes the supported feature families and how they are used for explainability (and elsewhere) in AML AI.\n- **Risk typology schema**: Describes how AML AI supports risk typologies and the methodology it uses to demonstrate coverage.\n- **Engine version stability and support policy**: Describes what does and does not change between AML AI engine versions, and how long each engine version is supported for different operations.\n\nModel outputs as governance artifacts\n-------------------------------------\n\nThe following artifacts are generated as outputs by regular\nAML AI operations:\n\n- **Model quality**\n - **Engine configuration output** includes expected recall (before and after tuning) captured in the engine config metadata.\n - **Backtest results** allow you to measure trained model performance on a set of examples not included in training.\n- **Data quality**\n - **Missingness output** indicates the share of missing values per feature family in your datasets used for tuning, training, backtesting, and prediction. Significant changes can indicate an inconsistency in your underlying data which can impact model performance.\n - **Data validation errors** prevent completion of AML AI operations, so to successfully produce a model and predictions, you must resolve these errors.\n- **Prediction results**\n - **Risk scores** vary from 0 to 1, and within this range a higher score indicates higher risk for the party for the predicted month. Risk scores shouldn't be interpreted directly as a probability of money laundering activity, or of the success of a possible investigation.\n - **Explainable AI output** augments high risk scores with attribution scores indicating contribution of each feature family to the risk score.\n- **Long-running operations (LROs)** allow you to track all AML AI processes used in model preparation and predictions. For more information, see [Manage long-running operations](/financial-services/anti-money-laundering/docs/manage-long-running-operations)."]]