La governance dei modelli e dei rischi è il processo mediante il quale tutti i gruppi di stakeholder determinano se i modelli sono sufficienti. La procedura potrebbe includere la convalida di nuovi modelli, il monitoraggio dei modelli, standard di sicurezza e conformità, procedure di assistenza, copertura dei rischi, manuali operativi e guide per l'utente, tra gli altri argomenti.
In qualità di proprietario di un framework di rischio, i seguenti elementi ti forniscono risorse utili per integrare l'AI AML nel tuo panorama complessivo di gestione del rischio. AML AI fornisce la documentazione pertinente per la governance dei modelli e dei rischi, nonché vari output dell'ottimizzazione, dell'addestramento e della valutazione del modello AML AI.
Documentazione sulla governance del modello e del rischio
Il seguente insieme di documentazione concettuale, disponibile su richiesta per i clienti di AML AI, funge da elementi di governance nel tuo framework complessivo di gestione del rischio e di governance del rischio e del modello AI/ML:
- Architettura del modello: descrive la particolare architettura del modello utilizzata per l'IA AML per calcolare i punteggi di rischio.
- Metodologia di etichettatura: descrive gli approcci utilizzati per definire esempi di addestramento etichettati per ottimizzazione, addestramento e backtesting dei modelli di IA AML.
- Metodologia di addestramento del modello: descrive l'approccio di addestramento e convalida per i modelli di IA AML.
- Metodologia di ottimizzazione del modello: descrive il processo mediante il quale l'IA AML ottimizza gli iperparametri del modello in base ai tuoi dati.
- Metodologia di valutazione del modello: descrive le metriche utilizzate per la valutazione e il backtesting del modello.
- Panoramica delle famiglie di funzionalità: descrive le famiglie di funzionalità supportate e il modo in cui vengono utilizzate per la spiegazione (e altrove) nell'IA AML.
- Schema di tipologia di rischio: descrive in che modo l'IA AML supporta le tipologie di rischio e la metodologia utilizzata per dimostrare la copertura.
- Criteri di stabilità e assistenza delle versioni dell'engine: descrive cosa cambia e cosa no tra le versioni dell'engine AML AI e per quanto tempo ogni versione dell'engine è supportata per operazioni diverse.
Output del modello come artefatti di governance
I seguenti elementi vengono generati come output dalle normali operazioni di IA AML:
- Qualità del modello
- L'output della configurazione dell'engine include il richiamo previsto (prima e dopo la messa a punto) acquisito nei metadati di configurazione dell'engine.
- I risultati del backtest ti consentono di misurare le prestazioni del modello addestrato su un insieme di esempi non inclusi nell'addestramento.
- Qualità dei dati
- L'output relativo alle mancate indica la percentuale di valori mancanti per famiglia di funzionalità nei set di dati utilizzati per ottimizzazione, addestramento, backtesting e previsione. Le variazioni significative possono indicare un'incongruenza nei dati sottostanti che può influire sul rendimento del modello.
- Gli errori di convalida dei dati impediscono il completamento delle operazioni di IA AML, pertanto per produrre un modello e previsioni efficaci, devi risolvere questi errori.
- Risultati della previsione
- I punteggi di rischio variano da 0 a 1 e, in questo intervallo, un punteggio più elevato indica un rischio maggiore per la parte per il mese previsto. I punteggi di rischio non devono essere interpretati direttamente come probabilità di attività di riciclaggio di denaro o di esito positivo di un'eventuale indagine.
- L'output dell'IA spiegabile aumenta i punteggi di rischio elevato con i punteggi di attribuzione che indicano il contributo di ogni famiglia di funzionalità al punteggio di rischio.
- Le operazioni a lungo termine (LRO) ti consentono di monitorare tutte le procedure di IA AML utilizzate nella preparazione e nelle previsioni dei modelli. Per ulteriori informazioni, consulta Gestire le operazioni che richiedono molto tempo.