Procesamiento confidencial para el análisis de datos, la IA y el aprendizaje federado

Last reviewed 2024-12-20 UTC

En este documento, se proporciona una descripción general de la computación confidencial, incluido cómo puedes usarla para la colaboración segura de datos, el entrenamiento de modelos de IA y el aprendizaje federado. El documento también proporciona información sobre los servicios de Confidential Computing enGoogle Cloud y referencias de arquitectura para diferentes casos de uso.

El objetivo de este documento es ayudar a los ejecutivos de tecnología a comprender el potencial comercial de la computación confidencial con IA generativa y aplicada en diversas industrias, incluidos los servicios financieros y la atención médica.

¿Qué es la computación confidencial?

Las prácticas de seguridad de los datos se han centrado convencionalmente en proteger los datos en reposo y en tránsito a través de la encriptación. Confidential Computing agrega una nueva capa de protección, ya que aborda la vulnerabilidad de los datos durante su uso activo. Esta tecnología garantiza que la información sensible siga siendo confidencial incluso mientras se procesa, lo que ayuda a cerrar una brecha crítica en la seguridad de los datos.

Un entorno de computación confidencial implementa la protección de los datos en uso con un entorno de ejecución confiable (TEE) basado en hardware. Un TEE es un área segura dentro de un procesador que protege la confidencialidad y la integridad del código y los datos cargados en él. El TEE actúa como una sala segura para las operaciones sensibles, lo que mitiga el riesgo para los datos incluso si el sistema se ve comprometido. Con la computación confidencial, los datos se pueden mantener encriptados en la memoria durante el procesamiento.

Por ejemplo, puedes usar la computación confidencial para el análisis de datos y el aprendizaje automático para lograr lo siguiente:

  • Privacidad mejorada: Realiza análisis en conjuntos de datos sensibles (por ejemplo, registros médicos o datos financieros) sin exponer los datos a la infraestructura subyacente ni a las partes involucradas en el cálculo.
  • Colaboración segura: Entrena de forma conjunta modelos de aprendizaje automático o realiza análisis en los conjuntos de datos combinados de varias partes sin revelar datos individuales entre sí. La computación confidencial fomenta la confianza y permite el desarrollo de modelos más sólidos y generalizables, en especial en sectores como el de la atención médica y las finanzas.
  • Mayor seguridad de los datos: Mitiga el riesgo de incumplimientos de la seguridad de los datos y el acceso no autorizado, lo que garantiza el cumplimiento de las reglamentaciones de protección de datos, como el Reglamento General de Protección de Datos (RGPD) o la Ley de Responsabilidad y Portabilidad de Seguros Médicos (HIPAA).
  • Mayor confianza y transparencia: Proporciona pruebas verificables de que los cálculos se realizan en los datos previstos y en un entorno seguro, lo que aumenta la confianza entre las partes interesadas.

Cómo funciona un entorno de computación confidencial

Los entornos de procesamiento confidencial tienen las siguientes propiedades:

  • Encriptación en tiempo de ejecución: El procesador mantiene encriptados en la memoria todos los datos del entorno de Confidential Computing. Cualquier atacante de hardware o componente del sistema que intente leer datos del entorno de procesamiento confidencial directamente desde la memoria solo verá datos encriptados. Del mismo modo, la encriptación impide la modificación de los datos del entorno de Confidential Computing a través del acceso directo a la memoria.
  • Aislamiento: El procesador bloquea el acceso basado en software al entorno de computación confidencial. El sistema operativo y otras aplicaciones solo pueden comunicarse con el entorno de procesamiento confidencial a través de interfaces específicas.
  • Atestación: En el contexto de la computación confidencial, la atestación verifica la confiabilidad del entorno de computación confidencial. Con la certificación, los usuarios pueden ver la evidencia de que Confidential Computing protege sus datos, ya que la certificación te permite autenticar la instancia del TEE.

    Durante el proceso de certificación, el chip de CPU que admite el TEE produce un informe firmado de forma criptográfica (conocido como informe de certificación) de la medición de la instancia. Luego, la medición se envía a un servicio de certificación. Una certificación de aislamiento de procesos autentica una aplicación. Una certificación de aislamiento de la VM autentica una VM, el firmware virtual que se usa para iniciar la VM o ambos.

  • Seguridad del ciclo de vida de los datos: La computación confidencial crea un entorno de procesamiento seguro para proporcionar protección respaldada por hardware para los datos en uso.

Tecnología de Confidential Computing

Las siguientes tecnologías habilitan Confidential Computing:

  • Enclaves seguros, también conocidos como computación confidencial basada en aplicaciones
  • Confidential VMs y GPUs, también conocido como Confidential Computing basado en VMs

Google Cloud usa Confidential VM para habilitar la computación confidencial. Para obtener más información, consulta Implementa Confidential Computing enGoogle Cloud.

Enclaves seguros

Un enclave seguro es un entorno de procesamiento que proporciona aislamiento para el código y los datos del sistema operativo mediante el aislamiento basado en hardware o el aislamiento de una VM completa colocando el hipervisor dentro de la base de procesamiento confiable (TCB). Los enclaves seguros están diseñados para garantizar que incluso los usuarios con acceso físico o de raíz a las máquinas y al sistema operativo no puedan conocer el contenido de la memoria del enclave seguro ni manipular la ejecución del código dentro del enclave. Un ejemplo de enclave seguro es la extensión Intel Software Guard (SGX).

Confidential VMs y GPUs confidenciales

Una Confidential VM es un tipo de VM que usa la encriptación de memoria basada en hardware para ayudar a proteger los datos y las aplicaciones. Las Confidential VMs ofrecen aislamiento y certificación para mejorar la seguridad. Las tecnologías de procesamiento de Confidential VMs incluyen AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE y GPU confidencial de Nvidia.

Las GPUs confidenciales ayudan a proteger los datos y acelerar la computación, en especial en entornos compartidos y en la nube. Utilizan técnicas de aislamiento y encriptación basadas en hardware para ayudar a proteger los datos mientras se procesan en la GPU, lo que garantiza que ni siquiera el proveedor de servicios en la nube o los agentes maliciosos puedan acceder a la información sensible.

Casos de uso de análisis de datos confidenciales, IA y aprendizaje federado

En las siguientes secciones, se proporcionan ejemplos de casos de uso de la computación confidencial para diversas industrias.

Salud y ciencias biológicas

El procesamiento confidencial permite compartir y analizar datos de forma segura entre organizaciones y, al mismo tiempo, preservar la privacidad de los pacientes. La computación confidencial permite que las organizaciones de atención médica participen en investigaciones colaborativas, modelado de enfermedades, descubrimiento de medicamentos y planes de tratamiento personalizados.

En la siguiente tabla, se describen algunos ejemplos de usos de la computación confidencial en el sector de la salud.

Caso de uso Descripción

Predicción y detección temprana de enfermedades

Los hospitales entrenan un modelo de aprendizaje federado para detectar lesiones cancerosas a partir de datos de imágenes médicas (por ejemplo, resonancias magnéticas o tomografías computarizadas en varios hospitales o regiones hospitalarias) y, al mismo tiempo, mantienen la confidencialidad de los pacientes.

Supervisión de pacientes en tiempo real

Los proveedores de atención médica analizan los datos de los dispositivos de salud wearables y las apps de salud para dispositivos móviles para realizar un monitoreo y enviar alertas en tiempo real. Por ejemplo, los dispositivos portátiles recopilan datos sobre los niveles de glucosa, la actividad física y los hábitos alimenticios para proporcionar recomendaciones personalizadas y alertas tempranas sobre las fluctuaciones del azúcar en sangre.

Descubrimiento de fármacos colaborativo

Las empresas farmacéuticas entrenan modelos con conjuntos de datos propios para acelerar el descubrimiento de fármacos, lo que mejora la colaboración y protege la propiedad intelectual.

Servicios financieros

Confidential Computing permite que las instituciones financieras creen un sistema financiero más seguro y resiliente.

En la siguiente tabla, se describen algunos ejemplos de usos de la computación confidencial en los servicios financieros.

Caso de uso Descripción

Delitos financieros

Las instituciones financieras pueden colaborar en iniciativas de modelos de prevención de lavado de dinero (PLD) o fraude general compartiendo información sobre transacciones sospechosas y, al mismo tiempo, proteger la privacidad de los clientes. Con la computación confidencial, las instituciones pueden analizar estos datos compartidos de forma segura y entrenar los modelos para identificar y desbaratar esquemas complejos de lavado de dinero de manera más eficaz.

Evaluación del riesgo crediticio que preserva la privacidad

Los prestamistas pueden evaluar el riesgo crediticio con una mayor variedad de fuentes de datos, incluidos los datos de otras instituciones financieras o incluso entidades no financieras. Con la computación confidencial, los prestamistas pueden acceder a estos datos y analizarlos sin exponerlos a terceros no autorizados, lo que mejora la precisión de los modelos de calificación crediticia y mantiene la privacidad de los datos.

Descubrimiento de precios que preserva la privacidad

En el mundo financiero, especialmente en áreas como los mercados extrabursátiles o los activos ilíquidos, la fijación de precios precisa es fundamental. La computación confidencial permite que varias instituciones calculen precios precisos de forma colaborativa, sin revelar sus datos sensibles entre sí.

Sector público

La computación confidencial permite que los gobiernos creen servicios más transparentes, eficientes y eficaces, a la vez que conservan el control y la soberanía de sus datos.

En la siguiente tabla, se describen algunos ejemplos de usos de la computación confidencial en el sector público.

Caso de uso Descripción

Soberanía digital

Confidential Computing garantiza que los datos siempre estén encriptados, incluso mientras se procesan. Permite migraciones seguras a la nube de los datos de los ciudadanos, con protección de los datos incluso cuando se alojan en infraestructura externa, en entornos híbridos, públicos o de múltiples nubes. Confidential Computing admite y potencia la soberanía y la autonomía digitales, con protección y control de datos adicionales para los datos en uso, de modo que el proveedor de servicios en la nube no pueda acceder a las claves de encriptación.

Estadísticas confidenciales de múltiples agencias

El procesamiento confidencial permite el análisis de datos de varias partes en múltiples agencias gubernamentales (por ejemplo, salud, impuestos y educación) o en múltiples gobiernos de diferentes regiones o países. La computación confidencial ayuda a garantizar que se protejan los límites de confianza y la privacidad de los datos, a la vez que habilita el análisis de datos (con prevención de pérdida de datos [DLP], análisis a gran escala y motores de políticas), y el entrenamiento y la entrega de IA.

IA de confianza

Los datos gubernamentales son fundamentales y se pueden usar para entrenar modelos de IA privados de forma confiable y mejorar los servicios internos, así como las interacciones con los ciudadanos. La computación confidencial permite usar frameworks de IA confiables, con instrucciones confidenciales o entrenamiento de generación aumentada por recuperación (RAG) confidencial para mantener los datos y los modelos de los ciudadanos privados y seguros.

Cadena de suministro

El procesamiento confidencial permite a las organizaciones administrar su cadena de suministro y colaborar en la sostenibilidad, así como compartir estadísticas, sin dejar de proteger la privacidad de los datos.

En la siguiente tabla, se describen algunos ejemplos de usos de la computación confidencial en las cadenas de suministro.

Caso de uso Descripción

Previsión de la demanda y optimización del inventario

Con la computación confidencial, cada empresa entrena su propio modelo de previsión de la demanda con sus propios datos de ventas y de inventario. Luego, estos modelos se agregan de forma segura en un modelo global, lo que proporciona una visión más precisa y holística de los patrones de demanda en toda la cadena de suministro.

Evaluación de riesgos de proveedores que preserva la privacidad

Cada organización involucrada en la evaluación de riesgos de los proveedores (por ejemplo, compradores, instituciones financieras y auditores) entrena su propio modelo de evaluación de riesgos con sus propios datos. Estos modelos se agregan para crear un perfil de riesgo integral y que preserva la privacidad del proveedor, lo que permite identificar de forma anticipada los posibles riesgos del proveedor, mejorar la resiliencia de la cadena de suministro y tomar mejores decisiones en la selección y administración de proveedores.

Seguimiento y reducción de la huella de carbono

La computación confidencial ofrece una solución para abordar los desafíos de la privacidad y la transparencia de los datos en el seguimiento de la huella de carbono y los esfuerzos por reducirla. La computación confidencial permite a las organizaciones compartir y analizar datos sin revelar su forma sin procesar, lo que les permite tomar decisiones fundamentadas y emprender acciones eficaces para lograr un futuro más sostenible.

Publicidad digital

La publicidad digital dejó de usar cookies de terceros y comenzó a usar alternativas más seguras para la privacidad, como Privacy Sandbox. Privacy Sandbox admite casos de uso publicitarios fundamentales y, al mismo tiempo, limita el seguimiento entre sitios y aplicaciones. Privacy Sandbox usa TEEs para garantizar el procesamiento seguro de los datos de los usuarios por parte de las empresas publicitarias.

Puedes usar TEEs en los siguientes casos de uso de publicidad digital:

  • Algoritmos de correlación: Encuentran correspondencias o relaciones dentro de los conjuntos de datos.
  • Atribución: Vinculación de los efectos o eventos con sus causas probables.
  • Agregación: Cálculo de resúmenes o estadísticas a partir de los datos sin procesar

Implementa Confidential Computing en Google Cloud

Google Cloud incluye los siguientes servicios que habilitan el Confidential Computing:

  • Confidential VM: Habilita la encriptación de datos en uso para las cargas de trabajo que usan VMs
  • Confidential GKE: Habilita la encriptación de datos en uso para cargas de trabajo que usan contenedores
  • Dataflow confidencial: Habilita la encriptación de datos en uso para el aprendizaje automático y el análisis de transmisión
  • Confidential Dataproc: Habilita la encriptación de datos en uso para el procesamiento de datos
  • Confidential Space: Permite la encriptación de datos en uso para el análisis conjunto de datos y el aprendizaje automático

Estos servicios te permiten reducir tu límite de confianza para que menos recursos tengan acceso a tus datos confidenciales. Por ejemplo, en un entorno Google Cloudsin Confidential Computing, el límite de confianza incluye la infraestructuraGoogle Cloud (hardware, hipervisor y SO del host) y el SO invitado. En un entorno Google Cloud que incluye Confidential Computing (sin Confidential Space), el límite de confianza solo incluye el SO invitado y la aplicación. En un entorno de Google Cloudcon Confidential Space, el límite de confianza es solo la aplicación y su espacio de memoria asociado. En la siguiente tabla, se muestra cómo se reduce el límite de confianza con Confidential Computing y Confidential Space.

Elementos Dentro del límite de confianza sin usar Confidential Computing Dentro del límite de confianza cuando se usa Confidential Computing Dentro del límite de confianza cuando se usa Confidential Space

Pila de Cloud y administradores

No

No

BIOS y firmware

No

No

SO host e hipervisor

No

No

Administrador invitado de la VM

No

SO invitado de la VM

Sí, medidas certificadas

Aplicaciones

Sí, medidas certificadas

Datos confidenciales

Confidential Space crea un área segura dentro de una VM para proporcionar el nivel más alto de aislamiento y protección para los datos y las aplicaciones sensibles. Estos son algunos de los principales beneficios de seguridad de Confidential Space:

  • Defensa en profundidad: Agrega una capa adicional de seguridad sobre las tecnologías de computación confidencial existentes.
  • Superficie de ataque reducida: Aísla las aplicaciones de posibles vulnerabilidades en el SO invitado.
  • Control mejorado: Proporciona un control detallado sobre el acceso y los permisos dentro del entorno seguro.
  • Mayor confianza: Ofrece mayor garantía de confidencialidad e integridad de los datos.

Confidential Space está diseñado para controlar cargas de trabajo altamente sensibles, en especial en industrias reguladas o situaciones que involucran colaboraciones entre varias partes en las que la privacidad de los datos es primordial.

Referencias de arquitectura para estadísticas confidenciales, IA y aprendizaje federado

Puedes implementar Confidential Computing en Google Cloud para abordar los siguientes casos de uso:

  • Análisis confidenciales
  • Confidential AI
  • Aprendizaje federado confidencial

En las siguientes secciones, se proporciona más información sobre la arquitectura para estos casos de uso, incluidos ejemplos para empresas financieras y de atención médica.

Arquitectura de análisis confidenciales para instituciones de atención médica

La arquitectura de análisis confidenciales demuestra cómo varias instituciones de atención médica (como proveedores, instituciones biofarmacéuticas y de investigación) pueden trabajar en conjunto para acelerar la investigación de medicamentos. Esta arquitectura usa técnicas de computación confidencial para crear una sala limpia digital en la que se ejecutan análisis colaborativos confidenciales.

Esta arquitectura tiene los siguientes beneficios:

  • Estadísticas mejoradas: Los análisis colaborativos permiten que las organizaciones de salud obtengan estadísticas más amplias y reduzcan el tiempo de salida al mercado para el descubrimiento de medicamentos mejorados.
  • Privacidad de los datos: Los datos sensibles de las transacciones permanecen encriptados y nunca se exponen a otros participantes ni al TEE, lo que garantiza la confidencialidad.
  • Cumplimiento de las reglamentaciones: La arquitectura ayuda a las instituciones de salud a cumplir con las reglamentaciones de protección de datos, ya que mantiene un control estricto sobre sus datos.
  • Confianza y colaboración: La arquitectura permite la colaboración segura entre instituciones competidoras, lo que fomenta un esfuerzo colectivo para descubrir medicamentos.

En el siguiente diagrama, se muestra esta arquitectura.

Diagrama de la arquitectura de análisis confidenciales para instituciones de atención médica.

Los componentes clave de esta arquitectura incluyen los siguientes:

  • Servidor de agregación OLAP del TEE: Es un entorno aislado y seguro en el que se realizan el entrenamiento y la inferencia del modelo de aprendizaje automático. Los datos y el código dentro del TEE están protegidos del acceso no autorizado, incluso del sistema operativo subyacente o del proveedor de la nube.
  • Socios de colaboración: Cada institución de salud participante tiene un entorno local que actúa como intermediario entre los datos privados de la institución y el TEE.
  • Datos encriptados específicos del proveedor: Cada institución de atención médica almacena sus propios datos privados y encriptados de pacientes, que incluyen registros médicos electrónicos. Estos datos permanecen encriptados durante el proceso de análisis, lo que garantiza la privacidad de los datos. Los datos solo se divulgan al TEE después de validar las declaraciones de certificación de los proveedores individuales.
  • Cliente de Analytics: Las instituciones de salud participantes pueden ejecutar consultas confidenciales en sus datos para obtener estadísticas de inmediato.

Arquitectura de IA confidencial para instituciones financieras

Este patrón arquitectónico demuestra cómo las instituciones financieras pueden entrenar de forma colaborativa un modelo de detección de fraudes y, al mismo tiempo, usar etiquetas de fraude para preservar la confidencialidad de sus datos de transacciones sensibles. La arquitectura usa técnicas de computación confidencial para habilitar el aprendizaje automático seguro y multipartidario.

Esta arquitectura tiene los siguientes beneficios:

  • Detección de fraudes mejorada: El entrenamiento colaborativo utiliza un conjunto de datos más grande y diverso, lo que genera un modelo de detección de fraudes más preciso y eficaz.
  • Privacidad de los datos: Los datos sensibles de las transacciones permanecen encriptados y nunca se exponen a otros participantes ni al TEE, lo que garantiza la confidencialidad.
  • Cumplimiento de las reglamentaciones: La arquitectura ayuda a las instituciones financieras a satisfacer las reglamentaciones de protección de datos, ya que mantiene un control estricto sobre sus datos.
  • Confianza y colaboración: Esta arquitectura permite la colaboración segura entre instituciones competidoras, lo que fomenta un esfuerzo colectivo para combatir el fraude financiero.

En el siguiente diagrama, se muestra esta arquitectura.

Diagrama de la arquitectura de análisis confidenciales para instituciones financieras

Los componentes clave de esta arquitectura incluyen los siguientes:

  • Servidor de agregación OLAP del TEE: Es un entorno aislado y seguro en el que se realizan el entrenamiento y la inferencia del modelo de aprendizaje automático. Los datos y el código dentro del TEE están protegidos del acceso no autorizado, incluso del sistema operativo subyacente o del proveedor de la nube.
  • Entrenamiento del entrenamiento de modelos: El modelo base global de fraude se empaqueta como contenedores para ejecutar el entrenamiento del AA. Dentro del TEE, el modelo global se entrena aún más con los datos encriptados de todos los bancos participantes. El proceso de entrenamiento emplea técnicas como el aprendizaje federado o la computación multiparte segura para garantizar que no se expongan datos sin procesar.
  • Socios colaboradores: Cada institución financiera participante tiene un entorno local que actúa como intermediario entre los datos privados de la institución y el TEE.
  • Datos encriptados específicos del banco: Cada banco tiene sus propios datos de transacciones privados y encriptados que incluyen etiquetas de fraude. Estos datos permanecen encriptados durante todo el proceso, lo que garantiza la privacidad de los datos. Los datos solo se divulgan al TEE después de validar las declaraciones de certificación de los bancos individuales.
  • Repositorio de modelos: Es un modelo de detección de fraudes entrenado previamente que sirve como punto de partida para el entrenamiento colaborativo.
  • Modelo y pesos entrenados de fraude global (simbolizados con la línea verde): El modelo de detección de fraude mejorado, junto con sus pesos aprendidos, se intercambia de forma segura con los bancos participantes. Luego, pueden implementar este modelo mejorado de forma local para detectar fraudes en sus propias transacciones.

Arquitectura de aprendizaje federado confidencial para instituciones financieras

El aprendizaje federado ofrece una solución avanzada para los clientes que valoran la privacidad y la soberanía de los datos estrictas. La arquitectura de aprendizaje federado confidencial proporciona una forma segura, eficiente y escalable de usar datos para aplicaciones de IA. Esta arquitectura lleva los modelos a la ubicación en la que se almacenan los datos, en lugar de centralizarlos en una sola ubicación, lo que reduce los riesgos asociados con la filtración de datos.

Este patrón arquitectónico demuestra cómo varias instituciones financieras pueden entrenar de forma colaborativa un modelo de detección de fraude y, al mismo tiempo, preservar la confidencialidad de sus datos de transacciones sensibles con etiquetas de fraude. Utiliza el aprendizaje federado junto con técnicas de computación confidencial para habilitar el aprendizaje automático seguro y multiparte sin movimiento de datos de entrenamiento.

Esta arquitectura tiene los siguientes beneficios:

  • Privacidad y seguridad de los datos mejoradas: El aprendizaje federado permite la privacidad y la localidad de los datos, ya que garantiza que los datos sensibles permanezcan en cada sitio. Además, las instituciones financieras pueden usar técnicas de preservación de la privacidad, como la encriptación homomórfica y los filtros de privacidad diferencial, para proteger aún más los datos transferidos (como los pesos del modelo).
  • Mayor precisión y diversidad: Al entrenar con una variedad de fuentes de datos de diferentes clientes, las instituciones financieras pueden desarrollar un modelo global sólido y generalizable para representar mejor los conjuntos de datos heterogéneos.
  • Escalabilidad y eficiencia de la red: Gracias a la capacidad de realizar el entrenamiento en el borde, las instituciones pueden escalar el aprendizaje federado en todo el mundo. Además, las instituciones solo necesitan transferir los pesos del modelo en lugar de conjuntos de datos completos, lo que permite un uso eficiente de los recursos de red.

En el siguiente diagrama, se muestra esta arquitectura.

Diagrama de la arquitectura del aprendizaje federado confidencial.

Los componentes clave de esta arquitectura incluyen los siguientes:

  • Servidor federado en el clúster de TEE: Es un entorno seguro y aislado en el que el servidor de aprendizaje federado coordina la colaboración de varios clientes. Para ello, primero envía un modelo inicial a los clientes de aprendizaje federado. Los clientes realizan el entrenamiento en sus conjuntos de datos locales y, luego, envían las actualizaciones del modelo al servidor de aprendizaje federado para que se agreguen y formen un modelo global.
  • Repositorio de modelos de aprendizaje federado: Un modelo de detección de fraudes previamente entrenado que sirve como punto de partida para el aprendizaje federado.
  • Motor de inferencia de la aplicación local: Es una aplicación que ejecuta tareas, realiza cálculos y aprendizaje locales con conjuntos de datos locales, y envía los resultados al servidor de aprendizaje federado para una agregación segura.
  • Datos privados locales: Cada banco tiene sus propios datos de transacciones privados y encriptados que incluyen etiquetas de fraude. Estos datos permanecen encriptados durante todo el proceso, lo que garantiza la privacidad de los datos.
  • Protocolo de agregación segura (simbolizado con la línea azul punteada): El servidor de aprendizaje federado no necesita acceder a la actualización de ningún banco individual para entrenar el modelo; solo requiere los promedios ponderados por elementos de los vectores de actualización, tomados de un subconjunto aleatorio de bancos o sitios. El uso de un protocolo de agregación seguro para calcular estos promedios ponderados ayuda a garantizar que el servidor solo pueda saber que uno o más bancos de este subconjunto seleccionado de forma aleatoria escribieron una palabra determinada, pero no qué bancos, lo que preserva la privacidad de cada participante en el proceso de aprendizaje federado.
  • Modelo global entrenado en datos de fraude y pesos agregados (simbolizados con la línea verde): El modelo de detección de fraude mejorado, junto con sus pesos aprendidos, se envía de forma segura a los bancos participantes. Luego, los bancos pueden implementar este modelo mejorado de forma local para detectar fraudes en sus propias transacciones.

¿Qué sigue?

Colaboradores