Confidential Computing per l'analisi dei dati, l'IA e l'apprendimento federato

Last reviewed 2024-12-20 UTC

Questo documento fornisce una panoramica generale del confidential computing, incluso come puoi utilizzarlo per la collaborazione sicura sui dati, l'addestramento di modelli di AI e l'apprendimento federato. Il documento fornisce anche informazioni sui servizi di Confidential Computing in Google Cloud e riferimenti all'architettura per diversi casi d'uso.

Questo documento ha lo scopo di aiutare i dirigenti del settore tecnologico a comprendere il potenziale commerciale del confidential computing con l'AI generativa e l'AI applicata in vari settori, tra cui i servizi finanziari e la sanità.

Che cos'è il confidential computing?

Le pratiche di sicurezza dei dati si sono tradizionalmente concentrate sulla protezione dei dati inattivi e in transito tramite crittografia. Confidential Computing aggiunge un nuovo livello di protezione affrontando la vulnerabilità dei dati durante il loro utilizzo attivo. Questa tecnologia garantisce che le informazioni sensibili rimangano riservate anche durante l'elaborazione, contribuendo così a colmare una lacuna critica nella sicurezza dei dati.

Un ambiente di Confidential Computing implementa la protezione dei dati in uso con un Trusted Execution Environment (TEE) basato su hardware. Un TEE è un'area sicura all'interno di un processore che protegge la riservatezza e l'integrità del codice e dei dati caricati al suo interno. Il TEE funge da stanza sicura per le operazioni sensibili, il che mitiga il rischio per i dati anche se il sistema è compromesso. Con il Confidential Computing, i dati possono essere mantenuti criptati in memoria durante l'elaborazione.

Ad esempio, puoi utilizzare Confidential Computing per l'analisi dei dati e il machine learning per contribuire a ottenere quanto segue:

  • Privacy migliorata:esegui l'analisi di set di dati sensibili (ad esempio, cartelle cliniche o dati finanziari) senza esporre i dati all'infrastruttura sottostante o alle parti coinvolte nel calcolo.
  • Collaborazione sicura:addestra congiuntamente modelli di machine learning o esegui analisi sui set di dati combinati di più parti senza rivelare i dati individuali. Il confidential computing promuove la fiducia e consente lo sviluppo di modelli più solidi e generalizzabili, in particolare in settori come la sanità e la finanza.
  • Maggiore sicurezza dei dati: riduci il rischio di violazioni dei dati e accessi non autorizzati, garantendo la conformità alle normative sulla protezione dei dati, come il Regolamento generale sulla protezione dei dati (GDPR) o l'Health Insurance Portability and Accountability Act (HIPAA).
  • Maggiore fiducia e trasparenza:fornisci prove verificabili che i calcoli vengono eseguiti sui dati previsti e in un ambiente sicuro, aumentando la fiducia tra gli stakeholder.

Come funziona un ambiente di confidential computing

Gli ambienti di confidential computing hanno le seguenti proprietà:

  • Crittografia in fase di runtime:il processore mantiene criptati in memoria tutti i dati dell'ambiente Confidential Computing. Qualsiasi componente di sistema o hardware che tenta di leggere i dati dell'ambiente di Confidential Computing direttamente dalla memoria vede solo dati criptati. Allo stesso modo, la crittografia impedisce la modifica dei dati dell'ambiente di confidential computing tramite l'accesso diretto alla memoria.
  • Isolamento:il processore blocca l'accesso basato su software all'ambiente di calcolo riservato. Il sistema operativo e altre applicazioni possono comunicare con l'ambiente di confidential computing solo tramite interfacce specifiche.
  • Attestazione:nel contesto del confidential computing, l'attestazione verifica l'affidabilità dell'ambiente di confidential computing. Utilizzando l'attestazione, gli utenti possono vedere la prova che Confidential Computing protegge i loro dati perché l'attestazione consente di autenticare l'istanza TEE.

    Durante la procedura di attestazione, il chip della CPU che supporta il TEE produce un report firmato crittograficamente (noto come report di attestazione) della misurazione dell'istanza. La misurazione viene quindi inviata a un servizio di attestazione. Un'attestazione per l'isolamento dei processi autentica un'applicazione. Un'attestazione per l'isolamento della VM autentica una VM, il firmware virtuale utilizzato per avviare la VM o entrambi.

  • Sicurezza del ciclo di vita dei dati:Confidential Computing crea un ambiente di elaborazione sicuro per fornire protezione basata su hardware per i dati in uso.

Tecnologia Confidential Computing

Le seguenti tecnologie consentono il confidential computing:

  • Le enclave sicure, note anche come Confidential Computing basato su applicazioni
  • Confidential VM e GPU, noto anche come Confidential Computing basato su VM

Google Cloud utilizza Confidential VM per abilitare il confidential computing. Per saperne di più, consulta Implementare Confidential Computing su Google Cloud.

Enclavi sicure

Un enclave sicuro è un ambiente di computing che fornisce l'isolamento del codice e dei dati dal sistema operativo utilizzando l'isolamento basato su hardware o isolando un'intera VM inserendo l'hypervisor all'interno della base di calcolo attendibile (TCB). Le enclave sicure sono progettate per garantire che anche gli utenti con accesso fisico o root alle macchine e al sistema operativo non possano conoscere i contenuti della memoria dell'enclave sicura o manomettere l'esecuzione del codice all'interno dell'enclave. Un esempio di enclave sicura è Intel Software Guard Extension (SGX).

Confidential VM e GPU confidenziali

Una Confidential VM è un tipo di VM che utilizza la crittografia della memoria basata su hardware per proteggere dati e applicazioni. Confidential VM offre isolamento e attestazione per migliorare la sicurezza. Le tecnologie di computing Confidential VM includono AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE e Nvidia Confidential GPU.

Le GPU confidenziali contribuiscono a proteggere i dati e ad accelerare l'elaborazione, soprattutto in ambienti cloud e condivisi. Utilizzano tecniche di crittografia e isolamento basate su hardware per proteggere i dati durante l'elaborazione sulla GPU, garantendo che anche il provider di servizi cloud o i malintenzionati non possano accedere a informazioni sensibili.

Casi d'uso di analisi dei dati confidenziali, AI e apprendimento federato

Le sezioni seguenti forniscono esempi di casi d'uso del confidential computing per vari settori.

Sanità e scienze biologiche

Il confidential computing consente la condivisione e l'analisi sicure dei dati tra le organizzazioni, preservando al contempo la privacy dei pazienti. Il confidential computing consente alle organizzazioni sanitarie di partecipare a ricerche collaborative, modellazione di malattie, scoperta di farmaci e piani di trattamento personalizzati.

La seguente tabella descrive alcuni esempi di utilizzo del confidential computing nel settore sanitario.

Caso d'uso Descrizione

Previsione e rilevamento precoce di malattie

Gli ospedali addestrano un modello di apprendimento federato per rilevare lesioni cancerose dai dati di imaging medico (ad esempio, scansioni MRI o TAC in più ospedali o regioni ospedaliere) mantenendo la riservatezza dei pazienti.

Monitoraggio dei pazienti in tempo reale

I fornitori di servizi sanitari analizzano i dati provenienti da dispositivi per il monitoraggio della salute indossabili e da app per la salute mobile per il monitoraggio e gli avvisi in tempo reale. Ad esempio, i dispositivi indossabili raccolgono dati su livelli di glucosio, attività fisica e abitudini alimentari per fornire consigli personalizzati e avvisi tempestivi per le fluttuazioni della glicemia.

Scoperta collaborativa di farmaci

Le aziende farmaceutiche addestrano i modelli su set di dati proprietari per accelerare la scoperta di farmaci, migliorando la collaborazione e proteggendo la proprietà intellettuale.

Servizi finanziari

Il Confidential Computing consente agli istituti finanziari di creare un sistema finanziario più sicuro e resiliente.

La seguente tabella descrive alcuni esempi di utilizzo del confidential computing nei servizi finanziari.

Caso d'uso Descrizione

Crimini finanziari

Gli istituti finanziari possono collaborare a iniziative antiriciclaggio (AML) o generali sui modelli di frode condividendo informazioni su transazioni sospette e proteggendo la privacy dei clienti. Utilizzando il confidential computing, gli istituti possono analizzare questi dati condivisi in modo sicuro e addestrare i modelli a identificare e interrompere in modo più efficace i complessi schemi di riciclaggio di denaro.

Valutazione del rischio di credito che tutela la privacy

Gli istituti di credito possono valutare il rischio di credito utilizzando una gamma più ampia di origini dati, inclusi i dati di altri istituti finanziari o persino di entità non finanziarie. Utilizzando il confidential computing, gli istituti di credito possono accedere a questi dati e analizzarli senza esporli a terze parti non autorizzate, migliorando l'accuratezza dei modelli di valutazione del credito e mantenendo la privacy dei dati.

Individuazione dei prezzi nel rispetto della privacy

Nel mondo finanziario, soprattutto in aree come i mercati over-the-counter o gli asset illiquidi, la determinazione accurata dei prezzi è fondamentale. Il confidential computing consente a più istituti di calcolare prezzi accurati in modo collaborativo, senza rivelare reciprocamente i propri dati sensibili.

Settore pubblico

Il confidential computing consente ai governi di creare servizi più trasparenti, efficienti ed efficaci, mantenendo il controllo e la sovranità dei propri dati.

La seguente tabella descrive alcuni esempi di utilizzo del confidential computing nel settore pubblico.

Caso d'uso Descrizione

Sovranità digitale

Il confidential computing garantisce che i dati siano sempre criptati, anche durante l'elaborazione. Consente migrazioni sicure nel cloud dei dati dei cittadini, con dati protetti anche se ospitati su infrastrutture esterne, in ambienti ibridi, pubblici o multi-cloud. Confidential Computing supporta e promuove la sovranità e l'autonomia digitali, con un controllo e una protezione aggiuntivi per i dati in uso, in modo che le chiavi di crittografia non siano accessibili al provider di servizi cloud.

Analisi confidenziale multi-agenzia

Il confidential computing consente l'analisi dei dati multiparte in più agenzie governative (ad esempio sanità, fisco e istruzione) o in più governi in diverse regioni o paesi. Il confidential computing contribuisce a garantire la protezione dei confini di attendibilità e della privacy dei dati, consentendo l'analisi dei dati (utilizzando la prevenzione della perdita di dati (DLP), l'analisi su larga scala e i motori di policy) e l'addestramento e la pubblicazione dell'AI.

AI affidabile

I dati governativi sono fondamentali e possono essere utilizzati per addestrare modelli di AI privati in un modo affidabile per migliorare i servizi interni e le interazioni con i cittadini. Il confidential computing consente framework di AI attendibili, con prompt riservati o addestramento RAG (Retrieval Augmented Generation) riservato per mantenere privati e sicuri i dati e i modelli dei cittadini.

Catena di fornitura

Il confidential computing consente alle organizzazioni di gestire la propria supply chain e la sostenibilità, collaborare e condividere approfondimenti mantenendo la privacy dei dati.

La seguente tabella descrive alcuni esempi di utilizzo del confidential computing nelle supply chain.

Caso d'uso Descrizione

Previsione della domanda e ottimizzazione dell'inventario

Con il confidential computing, ogni attività addestra il proprio modello di previsione della domanda sui propri dati di vendita e inventario. Questi modelli vengono poi aggregati in modo sicuro in un modello globale, fornendo una visione più accurata e olistica dei modelli di domanda lungo la catena di fornitura.

Valutazione dei rischi per i fornitori che tutelano la privacy

Ogni organizzazione coinvolta nella valutazione del rischio dei fornitori (ad esempio, acquirenti, istituti finanziari e revisori) addestra il proprio modello di valutazione del rischio sui propri dati. Questi modelli vengono aggregati per creare un profilo di rischio del fornitore completo e rispettoso della privacy, consentendo così l'identificazione tempestiva dei potenziali rischi del fornitore, una maggiore resilienza della catena di fornitura e un processo decisionale migliore nella selezione e nella gestione dei fornitori.

Monitoraggio e riduzione dell'impronta di carbonio

Il confidential computing offre una soluzione per affrontare le sfide della privacy e della trasparenza dei dati negli sforzi di monitoraggio e riduzione dell'impronta di carbonio. Il confidential computing consente alle organizzazioni di condividere e analizzare i dati senza rivelarne la forma non elaborata, il che consente alle organizzazioni di prendere decisioni informate e intraprendere azioni efficaci per un futuro più sostenibile.

Pubblicità digitale

La pubblicità digitale ha abbandonato i cookie di terze parti e si sta orientando verso alternative più sicure per la privacy, come Privacy Sandbox. Privacy Sandbox supporta casi d'uso pubblicitari fondamentali, limitando al contempo il monitoraggio su più siti e applicazioni. Privacy Sandbox utilizza i TEE per garantire l'elaborazione sicura dei dati degli utenti da parte delle società pubblicitarie.

Puoi utilizzare TEEs nei seguenti casi d'uso della pubblicità digitale:

  • Algoritmi di corrispondenza:trovare corrispondenze o relazioni all'interno dei set di dati.
  • Attribuzione:collegamento di effetti o eventi alle loro cause probabili.
  • Aggregazione:calcolo di riepiloghi o statistiche dai dati non elaborati.

Implementa Confidential Computing su Google Cloud

Google Cloud include i seguenti servizi che consentono il confidential computing:

  • Confidential VM: abilita la crittografia dei dati in uso per i carichi di lavoro che utilizzano le VM
  • Confidential GKE: abilita la crittografia dei dati in uso per i workload che utilizzano i container
  • Confidential Dataflow: abilita la crittografia dei dati in uso per l'analisi e il machine learning in streaming
  • Confidential Dataproc:abilita la crittografia dei dati in uso per l'elaborazione dei dati
  • Confidential Space: abilita la crittografia dei dati in uso per l'analisi congiunta dei dati e il machine learning

Questi servizi ti consentono di ridurre il confine di attendibilità in modo che un numero inferiore di risorse abbia accesso ai tuoi dati riservati. Ad esempio, in un ambiente Google Cloud senza Confidential Computing, il limite di attendibilità include l'infrastrutturaGoogle Cloud (hardware, hypervisor e sistema operativo host) e il sistema operativo guest. In un ambiente Google Cloud che include Confidential Computing (senza Confidential Space), il limite di attendibilità include solo il sistema operativo guest e l'applicazione. In un ambiente Google Cloud con Confidential Space, il limite di attendibilità è solo l'applicazione e il relativo spazio di memoria. La seguente tabella mostra come il confine di attendibilità viene ridotto con Confidential Computing e Confidential Space.

Elementi All'interno del perimetro di attendibilità senza utilizzare Confidential Computing All'interno del perimetro di attendibilità quando si utilizza Confidential Computing All'interno del perimetro di attendibilità quando utilizzi Confidential Space

Stack cloud e amministratori

No

No

BIOS e firmware

No

No

Sistema operativo host e hypervisor

No

No

Amministratore guest VM

No

Sistema operativo guest della VM

Sì, misurati e attestati

Applicazioni

Sì, misurati e attestati

Dati riservati

Confidential Space crea un'area sicura all'interno di una VM per fornire il massimo livello di isolamento e protezione per dati e applicazioni sensibili. I principali vantaggi in termini di sicurezza di Confidential Space includono:

  • Difesa in profondità: aggiunge un ulteriore livello di sicurezza alle tecnologie di confidential computing esistenti.
  • Superficie di attacco ridotta:isola le applicazioni da potenziali vulnerabilità nel sistema operativo guest.
  • Controllo avanzato: fornisce un controllo granulare su accesso e autorizzazioni all'interno dell'ambiente sicuro.
  • Maggiore fiducia:offre una maggiore garanzia di riservatezza e integrità dei dati.

Confidential Space è progettato per la gestione di carichi di lavoro altamente sensibili, soprattutto in settori regolamentati o scenari che coinvolgono collaborazioni tra più parti in cui la privacy dei dati è fondamentale.

Riferimenti all'architettura per l'analisi confidenziale, l'AI e l'apprendimento federato

Puoi implementare Confidential Computing su Google Cloud per risolvere i seguenti casi d'uso:

  • Analisi confidenziale
  • AI confidenziale
  • Apprendimento federato confidenziale

Le sezioni seguenti forniscono maggiori informazioni sull'architettura per questi casi d'uso, inclusi esempi per attività finanziarie e sanitarie.

Architettura di analisi confidenziale per istituti sanitari

L'architettura di analisi confidenziale mostra come più istituti sanitari (come fornitori, aziende biofarmaceutiche e istituti di ricerca) possono collaborare per accelerare la ricerca sui farmaci. Questa architettura utilizza tecniche di confidential computing per creare una clean room digitale per l'esecuzione di analisi collaborative confidenziali.

Questa architettura offre i seguenti vantaggi:

  • Insight avanzati: l'analisi collaborativa consente alle organizzazioni sanitarie di ottenere insight più ampi e ridurre il time-to-market per la scoperta di farmaci avanzata.
  • Privacy dei dati:i dati sensibili delle transazioni rimangono criptati e non vengono mai esposti ad altri partecipanti o all'ambiente di esecuzione attendibile, garantendo la riservatezza.
  • Conformità normativa: l'architettura aiuta gli istituti sanitari a rispettare le normative sulla protezione dei dati mantenendo un controllo rigoroso sui propri dati.
  • Attendibilità e collaborazione:l'architettura consente una collaborazione sicura tra istituti concorrenti, promuovendo uno sforzo collettivo per scoprire farmaci.

Il seguente diagramma mostra questa architettura.

Diagramma dell'architettura di analisi confidenziale per gli istituti sanitari.

I componenti chiave di questa architettura includono:

  • Server di aggregazione OLAP TEE:un ambiente sicuro e isolato in cui si verificano l'addestramento e l'inferenza del modello di machine learning. I dati e il codice all'interno del TEE sono protetti da accessi non autorizzati, anche dal sistema operativo sottostante o dal fornitore di servizi cloud.
  • Partner di collaborazione: ogni istituto sanitario partecipante dispone di un ambiente locale che funge da intermediario tra i dati privati dell'istituto e il TEE.
  • Dati criptati specifici del fornitore:ogni istituto sanitario memorizza i propri dati privati e criptati dei pazienti, comprese le cartelle cliniche elettroniche. Questi dati rimangono criptati durante il processo di analisi, il che garantisce la privacy dei dati. I dati vengono rilasciati al TEE solo dopo aver convalidato le attestazioni dei singoli fornitori.
  • Client Analytics:gli istituti sanitari partecipanti possono eseguire query riservate sui propri dati per ottenere approfondimenti immediati.

Architettura AI confidenziale per gli istituti finanziari

Questo pattern architetturale mostra come gli istituti finanziari possono addestrare in modo collaborativo un modello di rilevamento di attività fraudolente utilizzando etichette di frode per preservare la riservatezza dei dati sensibili delle transazioni. L'architettura utilizza tecniche di confidential computing per consentire l'apprendimento automatico sicuro e multiparte.

Questa architettura offre i seguenti vantaggi:

  • Rilevamento delle frodi avanzato:l'addestramento collaborativo utilizza un set di dati più ampio e diversificato, il che porta a un modello di rilevamento delle frodi più accurato ed efficace.
  • Privacy dei dati:i dati sensibili delle transazioni rimangono criptati e non vengono mai esposti ad altri partecipanti o all'ambiente di esecuzione attendibile, garantendo la riservatezza.
  • Conformità normativa:l'architettura aiuta gli istituti finanziari a rispettare le normative sulla protezione dei dati mantenendo un controllo rigoroso sui propri dati.
  • Attendibilità e collaborazione: questa architettura consente una collaborazione sicura tra istituti concorrenti, promuovendo un impegno collettivo per combattere le frodi finanziarie.

Il seguente diagramma mostra questa architettura.

Diagramma dell'architettura di analisi confidenziale per gli istituti finanziari.

I componenti chiave di questa architettura includono:

  • Server di aggregazione OLAP TEE:un ambiente sicuro e isolato in cui si verificano l'inferenza e l'addestramento del modello di machine learning. I dati e il codice all'interno del TEE sono protetti da accessi non autorizzati, anche dal sistema operativo sottostante o dal fornitore di servizi cloud.
  • Addestramento del modello TEE: il modello di base globale per il rilevamento delle frodi è incluso in container per eseguire l'addestramento ML. All'interno del TEE, il modello globale viene ulteriormente addestrato utilizzando i dati criptati di tutte le banche partecipanti. Il processo di addestramento utilizza tecniche come l'apprendimento federato o il calcolo multi-parte sicuro per garantire che nessun dato non elaborato venga esposto.
  • Partner collaboratori: ogni istituto finanziario partecipante ha un ambiente locale che funge da intermediario tra i dati privati dell'istituto e il TEE.
  • Dati criptati specifici della banca:ogni banca detiene i propri dati privati e criptati delle transazioni, che includono le etichette di frode. Questi dati rimangono criptati durante l'intero processo, garantendo la privacy dei dati. I dati vengono rilasciati al TEE solo dopo la convalida delle attestazioni delle singole banche.
  • Repository di modelli: un modello preaddestrato di rilevamento delle frodi che funge da punto di partenza per l'addestramento collaborativo.
  • Modello e pesi addestrati per la frode globale (simboleggiati dalla linea verde): il modello di rilevamento delle frodi migliorato, insieme ai pesi appresi, viene scambiato in modo sicuro con le banche partecipanti. Possono quindi implementare questo modello migliorato a livello locale per il rilevamento delle frodi nelle proprie transazioni.

Architettura di apprendimento federato confidenziale per gli istituti finanziari

L'apprendimento federato offre una soluzione avanzata per i clienti che apprezzano la rigorosa privacy e sovranità dei dati. L'architettura dell'apprendimento federato confidenziale offre un modo sicuro, scalabile ed efficiente per utilizzare i dati per le applicazioni di AI. Questa architettura porta i modelli nella posizione in cui sono archiviati i dati, anziché centralizzarli in un'unica posizione, riducendo così i rischi associati alla perdita di dati.

Questo pattern architetturale mostra come più istituti finanziari possono addestrare in modo collaborativo un modello di rilevamento di attività fraudolente mantenendo la riservatezza dei dati sensibili delle transazioni con etichette di frode. Utilizza l'apprendimento federato insieme a tecniche di calcolo confidenziale per consentire un machine learning sicuro e multi-party senza spostamento dei dati di addestramento.

Questa architettura offre i seguenti vantaggi:

  • Maggiore privacy e sicurezza dei dati: l'apprendimento federato consente la privacy e la località dei dati garantendo che i dati sensibili rimangano in ogni sito. Inoltre, gli istituti finanziari possono utilizzare tecniche di tutela della privacy come la crittografia omomorfica e i filtri di privacy differenziale per proteggere ulteriormente i dati trasferiti (come i pesi del modello).
  • Maggiore accuratezza e diversità: grazie all'addestramento con una varietà di origini dati di diversi clienti, gli istituti finanziari possono sviluppare un modello globale solido e generalizzabile per rappresentare meglio i set di dati eterogenei.
  • Scalabilità ed efficienza della rete: grazie alla possibilità di eseguire l'addestramento all'edge, gli istituti possono scalare l'apprendimento federato in tutto il mondo. Inoltre, gli istituti devono trasferire solo i pesi del modello anziché interi set di dati, il che consente un utilizzo efficiente delle risorse di rete.

Il seguente diagramma mostra questa architettura.

Diagramma dell'architettura dell'apprendimento federato confidenziale.

I componenti chiave di questa architettura includono:

  • Server federato nel cluster TEE: un ambiente sicuro e isolato in cui il server di apprendimento federato coordina la collaborazione di più client inviando prima un modello iniziale ai client di apprendimento federato. I client eseguono l'addestramento sui propri set di dati locali, quindi inviano gli aggiornamenti del modello al server di apprendimento federato per l'aggregazione per formare un modello globale.
  • Repository di modelli di apprendimento federato:un modello preaddestrato di rilevamento delle frodi che funge da punto di partenza per l'apprendimento federato.
  • Motore di inferenza delle applicazioni locali: un'applicazione che esegue attività, esegue calcoli e apprendimento locali con set di dati locali e invia i risultati al server di apprendimento federato per l'aggregazione sicura.
  • Dati privati locali:ogni banca detiene i propri dati privati e criptati sulle transazioni che includono etichette di frode. Questi dati rimangono criptati durante l'intero processo, garantendo la privacy.
  • Protocollo di aggregazione sicura (simboleggiato dalla linea blu punteggiata): il server di apprendimento federato non ha bisogno di accedere all'aggiornamento di una singola banca per addestrare il modello; richiede solo le medie ponderate elemento per elemento dei vettori di aggiornamento, prese da un sottoinsieme casuale di banche o siti. L'utilizzo di un protocollo di aggregazione sicuro per calcolare queste medie ponderate contribuisce a garantire che il server possa apprendere solo che una o più banche in questo sottoinsieme selezionato in modo casuale hanno scritto una determinata parola, ma non quali banche, preservando così la privacy di ogni partecipante al processo di apprendimento federato.
  • Modello globale addestrato per il rilevamento delle frodi e pesi aggregati (simboleggiati dalla linea verde): il modello di rilevamento delle frodi migliorato, insieme ai pesi appresi, viene inviato in modo sicuro alle banche partecipanti. Le banche possono quindi implementare questo modello avanzato a livello locale per il rilevamento delle frodi sulle proprie transazioni.

Passaggi successivi

Collaboratori