En este documento se ofrece una descripción general de la computación confidencial, incluido cómo puedes usarla para colaborar de forma segura con los datos, entrenar modelos de IA y usar el aprendizaje federado. El documento también proporciona información sobre los servicios de computación confidencial enGoogle Cloud y referencias de arquitectura para diferentes casos prácticos.
El objetivo de este documento es ayudar a los ejecutivos del sector tecnológico a comprender el potencial empresarial de la computación confidencial con IA generativa y aplicada en varios sectores, como los servicios financieros y la sanidad.
¿Qué es la computación confidencial?
Las prácticas de seguridad de los datos se han centrado tradicionalmente en proteger los datos en reposo y en tránsito mediante el cifrado. Confidential Computing añade una nueva capa de protección al abordar la vulnerabilidad de los datos durante su uso activo. Esta tecnología asegura que la información sensible siga siendo confidencial incluso mientras se procesa, lo que ayuda a cubrir una laguna crítica en la seguridad de los datos.
Un entorno de computación confidencial implementa la protección de los datos en uso con un entorno de ejecución de confianza (TEE) basado en hardware. Un TEE es un área segura dentro de un procesador que protege la confidencialidad y la integridad del código y los datos cargados en su interior. El TEE actúa como una sala segura para operaciones sensibles, lo que reduce el riesgo para los datos incluso si el sistema se ve comprometido. Con la computación confidencial, los datos se pueden mantener cifrados en la memoria durante el procesamiento.
Por ejemplo, puedes usar Confidential Computing para el análisis de datos y el aprendizaje automático para conseguir lo siguiente:
- Privacidad mejorada: analiza conjuntos de datos sensibles (por ejemplo, historiales médicos o datos financieros) sin exponer los datos a la infraestructura subyacente ni a las partes implicadas en el cálculo.
- Colaboración segura: entrena conjuntamente modelos de aprendizaje automático o realiza análisis en los conjuntos de datos combinados de varias partes sin revelar datos individuales entre sí. La computación confidencial fomenta la confianza y permite desarrollar modelos más sólidos y generalizables, sobre todo en sectores como la sanidad y las finanzas.
- Seguridad de los datos mejorada: reduce el riesgo de que se produzcan brechas de seguridad y accesos no autorizados a los datos, lo que garantiza el cumplimiento de las normativas de protección de datos, como el Reglamento General de Protección de Datos (RGPD) o la Ley de Transferencia y Responsabilidad de los Seguros Médicos (HIPAA).
- Mayor confianza y transparencia: proporciona pruebas verificables de que los cálculos se realizan en los datos previstos y en un entorno seguro, lo que aumenta la confianza entre las partes interesadas.
Cómo funciona un entorno de computación confidencial
Los entornos de computación confidencial tienen las siguientes propiedades:
- Cifrado en tiempo de ejecución: el procesador mantiene cifrados en la memoria todos los datos del entorno de computación confidencial. Cualquier componente del sistema o atacante de hardware que intente leer datos del entorno de computación confidencial directamente de la memoria solo verá datos cifrados. Del mismo modo, el cifrado evita que se modifiquen los datos del entorno de computación confidencial mediante el acceso directo a la memoria.
- Aislamiento: el procesador bloquea el acceso basado en software al entorno de computación confidencial. El sistema operativo y otras aplicaciones solo pueden comunicarse con el entorno de computación confidencial a través de interfaces específicas.
Certificación: en el contexto de Confidential Computing, la certificación verifica la fiabilidad del entorno de Confidential Computing. Mediante la atestación, los usuarios pueden ver las pruebas de que la computación confidencial protege sus datos, ya que la atestación le permite autenticar la instancia de TEE.
Durante el proceso de certificación, el chip de la CPU que admite el TEE genera un informe firmado criptográficamente (conocido como informe de certificación) de la medición de la instancia. A continuación, la medición se envía a un servicio de certificación. Una certificación de aislamiento de procesos autentica una aplicación. Una atestación de aislamiento de la VM autentica una VM, el firmware virtual que se usa para iniciar la VM o ambos.
Seguridad del ciclo de vida de los datos: la computación confidencial crea un entorno de procesamiento seguro para proporcionar protección basada en hardware a los datos en uso.
Tecnología de computación confidencial
Las siguientes tecnologías permiten el uso de computación confidencial:
- Los enclaves seguros, también conocidos como computación confidencial basada en aplicaciones
- Máquinas virtuales y GPUs confidenciales, también conocido como Confidential Computing basado en máquinas virtuales
Google Cloud usa Confidential VM para habilitar la computación confidencial. Para obtener más información, consulta Implementar Confidential Computing enGoogle Cloud.
Enclaves seguros
Un enclave seguro es un entorno de computación que aísla el código y los datos del sistema operativo mediante aislamiento basado en hardware o aislando una VM completa colocando el hipervisor en la base de computación de confianza (TCB). Los enclaves seguros se han diseñado para asegurar que ni siquiera los usuarios con acceso físico o de superusuario a las máquinas y al sistema operativo puedan conocer el contenido de la memoria del enclave seguro ni manipular la ejecución del código dentro del enclave. Un ejemplo de enclave seguro es Intel Software Guard Extension (SGX).
Máquinas virtuales confidenciales y GPUs confidenciales
Una VM confidencial es un tipo de VM que usa el cifrado de memoria basado en hardware para proteger los datos y las aplicaciones. Las máquinas virtuales confidenciales ofrecen aislamiento y certificación para mejorar la seguridad. Las tecnologías de computación de máquinas virtuales confidenciales incluyen AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE y Nvidia Confidential GPU.
Las GPUs confidenciales ayudan a proteger los datos y acelerar la computación, especialmente en entornos compartidos y en la nube. Utilizan técnicas de cifrado y aislamiento basadas en hardware para proteger los datos mientras se procesan en la GPU, lo que garantiza que ni siquiera el proveedor de la nube ni los agentes maliciosos puedan acceder a la información sensible.
Casos prácticos de analíticas de datos confidenciales, IA y aprendizaje federado
En las siguientes secciones se proporcionan ejemplos de casos prácticos de computación confidencial en varios sectores.
Sanidad y ciencias biológicas
La computación confidencial permite compartir y analizar datos de forma segura entre organizaciones, al tiempo que se protege la privacidad de los pacientes. La computación confidencial permite a las organizaciones sanitarias participar en investigaciones colaborativas, modelos de enfermedades, descubrimiento de fármacos y planes de tratamiento personalizados.
En la siguiente tabla se describen algunos ejemplos de usos de la computación confidencial en el sector sanitario.
Caso práctico | Descripción |
---|---|
Predicción y detección temprana de enfermedades |
Los hospitales entrenan un modelo de aprendizaje federado para detectar lesiones cancerosas a partir de datos de imágenes médicas (por ejemplo, resonancias magnéticas o tomografías computarizadas de varios hospitales o regiones hospitalarias) sin dejar de proteger la confidencialidad de los pacientes. |
Monitorización de pacientes en tiempo real |
Los proveedores de atención sanitaria analizan los datos de los dispositivos de salud wearables y las aplicaciones de salud móviles para monitorizar y enviar alertas en tiempo real. Por ejemplo, los dispositivos wearables recogen datos sobre los niveles de glucosa, la actividad física y los hábitos alimenticios para ofrecer recomendaciones personalizadas y alertas tempranas sobre las fluctuaciones del azúcar en sangre. |
Descubrimiento colaborativo de fármacos |
Las empresas farmacéuticas entrenan modelos con conjuntos de datos propios para acelerar el descubrimiento de fármacos, lo que mejora la colaboración y protege la propiedad intelectual. |
Servicios financieros
Confidential Computing permite a las instituciones financieras crear un sistema financiero más seguro y resiliente.
En la siguiente tabla se describen algunos ejemplos de uso de la computación confidencial en servicios financieros.
Caso práctico | Descripción |
---|---|
Delitos financieros |
Las instituciones financieras pueden colaborar en iniciativas contra el blanqueo de capitales o en modelos generales de fraude compartiendo información sobre transacciones sospechosas y, al mismo tiempo, protegiendo la privacidad de los clientes. Gracias a la computación confidencial, las instituciones pueden analizar estos datos compartidos de forma segura y entrenar los modelos para identificar y desmantelar tramas complejas de blanqueo de dinero de forma más eficaz. |
Evaluación del riesgo crediticio que protege la privacidad |
Las entidades financieras pueden evaluar el riesgo de crédito usando una gama más amplia de fuentes de datos, incluidos datos de otras entidades financieras o incluso de entidades no financieras. Gracias a la computación confidencial, las entidades financieras pueden acceder a estos datos y analizarlos sin exponerlos a terceros no autorizados, lo que mejora la precisión de los modelos de puntuación crediticia y, al mismo tiempo, mantiene la privacidad de los datos. |
Descubrimiento de precios que protege la privacidad |
En el mundo financiero, especialmente en áreas como los mercados extrabursátiles o los activos ilíquidos, es fundamental que los precios sean precisos. La computación confidencial permite que varias instituciones calculen precios precisos de forma colaborativa sin revelar sus datos sensibles entre sí. |
Sector público
Confidential Computing permite a los Gobiernos crear servicios más transparentes, eficientes y eficaces, al tiempo que conservan el control y la soberanía de sus datos.
En la siguiente tabla se describen algunos ejemplos de usos de la computación confidencial en el sector público.
Caso práctico | Descripción |
---|---|
Soberanía digital |
La computación confidencial asegura que los datos estén siempre cifrados, incluso mientras se procesan. Permite realizar migraciones seguras a la nube de los datos de los ciudadanos, que se protegen incluso cuando se alojan en infraestructuras externas, en entornos híbridos, públicos o multinube. La computación confidencial admite y fomenta la soberanía y la autonomía digitales, con un mayor control de los datos y protección de los datos en uso, de modo que el proveedor de la nube no pueda acceder a las claves de cifrado. |
Analíticas confidenciales entre varias agencias |
La computación confidencial permite realizar analíticas de datos entre varias partes en varias agencias públicas (por ejemplo, de sanidad, impuestos y educación) o entre varios gobiernos de diferentes regiones o países. La computación confidencial ayuda a proteger los límites de confianza y la privacidad de los datos, al tiempo que permite el análisis de datos (mediante la prevención de la pérdida de datos [DLP], el análisis a gran escala y los motores de políticas), así como el entrenamiento y el servicio de IA. |
IA de confianza |
Los datos públicos son fundamentales y se pueden usar para entrenar modelos de IA privados de forma fiable con el fin de mejorar los servicios internos y las interacciones con los ciudadanos. El Confidential Computing permite usar frameworks de IA de confianza, con peticiones confidenciales o entrenamiento de generación aumentada de recuperación (RAG) confidencial, para mantener la privacidad y la seguridad de los datos y los modelos de los ciudadanos. |
Cadena de suministro
La computación confidencial permite a las organizaciones gestionar su cadena de suministro y colaborar en materia de sostenibilidad, así como compartir información valiosa, sin dejar de proteger la privacidad de los datos.
En la siguiente tabla se describen algunos ejemplos de usos de la computación confidencial en cadenas de suministro.
Caso práctico | Descripción |
---|---|
Previsión de la demanda y optimización del inventario |
Con la computación confidencial, cada empresa entrena su propio modelo de previsión de la demanda con sus propios datos de ventas e inventario. Estos modelos se agregan de forma segura en un modelo global, lo que proporciona una visión más precisa y holística de los patrones de demanda en toda la cadena de suministro. |
Evaluación de riesgos de proveedores que protege la privacidad |
Cada organización implicada en la evaluación de riesgos de proveedores (por ejemplo, compradores, instituciones financieras y auditores) entrena su propio modelo de evaluación de riesgos con sus propios datos. Estos modelos se agregan para crear un perfil de riesgo de proveedor completo y que protege la privacidad, lo que permite identificar de forma temprana los posibles riesgos de los proveedores, mejorar la resiliencia de la cadena de suministro y tomar mejores decisiones en la selección y gestión de proveedores. |
Seguimiento y reducción de la huella de carbono |
La computación confidencial ofrece una solución para abordar los retos de la privacidad y la transparencia de los datos en los esfuerzos de seguimiento y reducción de la huella de carbono. La computación confidencial permite a las organizaciones compartir y analizar datos sin revelar su formato sin procesar, lo que les permite tomar decisiones fundamentadas y emprender acciones eficaces para lograr un futuro más sostenible. |
Publicidad digital
La publicidad digital ha dejado de usar cookies de terceros y ha adoptado alternativas que protegen más la privacidad, como Privacy Sandbox. Privacy Sandbox admite casos prácticos de publicidad cruciales y, al mismo tiempo, limita el seguimiento entre sitios y aplicaciones. Privacy Sandbox usa TEEs para asegurar que las empresas publicitarias procesen los datos de los usuarios de forma segura.
Puedes usar TEEs en los siguientes casos prácticos de publicidad digital:
- Algoritmos de emparejamiento: buscan correspondencias o relaciones en conjuntos de datos.
- Atribución: vinculación de efectos o eventos con sus causas probables.
- Agregación: cálculo de resúmenes o estadísticas a partir de los datos sin procesar.
Implementar la computación confidencial en Google Cloud
Google Cloud incluye los siguientes servicios que permiten la computación confidencial:
- Máquina virtual confidencial: habilita el cifrado de datos en uso para cargas de trabajo que usen máquinas virtuales
- GKE Confidencial: habilita el cifrado de datos en uso para cargas de trabajo que usan contenedores.
- Dataflow confidencial: habilita el cifrado de los datos en uso para las analíticas de streaming y el aprendizaje automático.
- Confidential Dataproc: habilita el cifrado de datos en uso para el procesamiento de datos.
- Espacio confidencial: habilita el cifrado de los datos en uso para el análisis conjunto de datos y el aprendizaje automático
Estos servicios te permiten reducir el límite de confianza para que menos recursos tengan acceso a tus datos confidenciales. Por ejemplo, en un Google Cloud entorno sin computación confidencial, el límite de confianza incluye la infraestructuraGoogle Cloud (hardware, hipervisor y SO del host) y el SO invitado. En un entorno que incluye la computación confidencial (sin Confidential Space), el límite de confianza solo incluye el SO invitado y la aplicación. Google Cloud En un Google Cloud entorno con Confidential Space, el límite de confianza es solo la aplicación y su espacio de memoria asociado. En la siguiente tabla se muestra cómo se reduce el límite de confianza con Computación Confidencial y Espacio Confidencial.
Elementos | Dentro del límite de confianza sin usar Confidential Computing | Dentro del límite de confianza al usar Confidential Computing | Dentro del límite de confianza al usar Confidential Space |
---|---|---|---|
Pila de nube y administradores |
Sí |
No |
No |
BIOS y firmware |
Sí |
No |
No |
Sistema operativo host e hipervisor |
Sí |
No |
No |
Administrador de invitado de VM |
Sí |
Sí |
No |
Sistema operativo invitado de la VM |
Sí |
Sí |
Sí, medidas y certificadas |
Aplicaciones |
Sí |
Sí |
Sí, medidas y certificadas |
Datos confidenciales |
Sí |
Sí |
Sí |
Confidential Space crea un área segura dentro de una máquina virtual para proporcionar el máximo nivel de aislamiento y protección a los datos y las aplicaciones sensibles. Estas son las principales ventajas de Confidential Space en cuanto a seguridad:
- Defensa en profundidad: añade una capa adicional de seguridad a las tecnologías de computación confidencial.
- Superficie de ataque reducida: aísla las aplicaciones de posibles vulnerabilidades en el SO invitado.
- Control mejorado: proporciona un control granular sobre el acceso y los permisos en el entorno seguro.
- Mayor confianza: ofrece una mayor garantía de confidencialidad e integridad de los datos.
Confidential Space se ha diseñado para gestionar cargas de trabajo muy sensibles, especialmente en sectores regulados o en situaciones que impliquen colaboraciones entre varias partes en las que la privacidad de los datos sea fundamental.
Referencias de arquitectura para analíticas confidenciales, IA y aprendizaje federado
Puedes implementar Confidential Computing en Google Cloud para abordar los siguientes casos prácticos:
- Analíticas confidenciales
- IA confidencial
- Aprendizaje federado confidencial
En las secciones siguientes se proporciona más información sobre la arquitectura de estos casos prácticos, incluidos ejemplos de empresas financieras y sanitarias.
Arquitectura de analíticas confidenciales para instituciones sanitarias
La arquitectura de analíticas confidenciales muestra cómo pueden colaborar varias instituciones sanitarias (como proveedores, empresas biofarmacéuticas e instituciones de investigación) para acelerar la investigación de fármacos. Esta arquitectura usa técnicas de informática confidencial para crear una sala blanca digital en la que se puedan ejecutar analíticas colaborativas confidenciales.
Esta arquitectura tiene las siguientes ventajas:
- Estadísticas mejoradas: la analítica colaborativa permite a las organizaciones sanitarias obtener estadísticas más amplias y reducir el tiempo de lanzamiento de los fármacos mejorados.
- Privacidad de los datos: los datos de las transacciones sensibles permanecen cifrados y nunca se exponen a otros participantes ni al TEE, lo que garantiza la confidencialidad.
- Cumplimiento de las normativas: la arquitectura ayuda a las instituciones sanitarias a cumplir las normativas de protección de datos manteniendo un control estricto sobre sus datos.
- Confianza y colaboración: la arquitectura permite una colaboración segura entre instituciones competidoras, lo que fomenta un esfuerzo colectivo para descubrir fármacos.
En el siguiente diagrama se muestra esta arquitectura.
Entre los componentes clave de esta arquitectura se incluyen los siguientes:
- Servidor de agregación OLAP de TEE: un entorno seguro y aislado en el que se llevan a cabo el entrenamiento y la inferencia de modelos de aprendizaje automático. Los datos y el código del TEE están protegidos frente a accesos no autorizados, incluso desde el sistema operativo subyacente o el proveedor de la nube.
- Colaboradores: cada centro sanitario participante tiene un entorno local que actúa como intermediario entre los datos privados del centro y el TEE.
- Datos cifrados específicos de cada proveedor: cada centro sanitario almacena sus propios datos de pacientes privados y cifrados, incluidos los historiales médicos electrónicos. Estos datos permanecen cifrados durante el proceso de analíticas, lo que garantiza la privacidad de los datos. Los datos solo se envían al TEE después de validar las reclamaciones de atestación de los proveedores individuales.
- Cliente de analíticas: las instituciones sanitarias participantes pueden ejecutar consultas confidenciales en sus datos para obtener estadísticas inmediatas.
Arquitectura de IA confidencial para instituciones financieras
Este patrón de arquitectura muestra cómo pueden las instituciones financieras entrenar de forma colaborativa un modelo de detección de fraudes y, al mismo tiempo, usar etiquetas de fraude para proteger la confidencialidad de sus datos de transacciones sensibles. La arquitectura usa técnicas de computación confidencial para permitir el aprendizaje automático seguro entre varias partes.
Esta arquitectura tiene las siguientes ventajas:
- Detección de fraude mejorada: el entrenamiento colaborativo usa un conjunto de datos más grande y diverso, lo que da lugar a un modelo de detección de fraude más preciso y eficaz.
- Privacidad de los datos: los datos de las transacciones sensibles permanecen cifrados y nunca se exponen a otros participantes ni al TEE, lo que garantiza la confidencialidad.
- Cumplimiento de las normativas: la arquitectura ayuda a las instituciones financieras a cumplir las normativas de protección de datos manteniendo un control estricto sobre sus datos.
- Confianza y colaboración: esta arquitectura permite una colaboración segura entre instituciones competidoras, lo que fomenta un esfuerzo colectivo para combatir el fraude financiero.
En el siguiente diagrama se muestra esta arquitectura.
Entre los componentes clave de esta arquitectura se incluyen los siguientes:
- Servidor de agregación OLAP de TEE: un entorno seguro y aislado en el que se llevan a cabo el entrenamiento y la inferencia de modelos de aprendizaje automático. Los datos y el código del TEE están protegidos frente a accesos no autorizados, incluso desde el sistema operativo subyacente o el proveedor de la nube.
- Entrenamiento del modelo de TEE: el modelo base de fraude global se empaqueta como contenedores para ejecutar el entrenamiento de aprendizaje automático. En el TEE, el modelo global se entrena aún más con los datos cifrados de todos los bancos participantes. El proceso de entrenamiento emplea técnicas como el aprendizaje federado o la computación multipartita segura para garantizar que no se expongan datos sin procesar.
- Partners colaboradores: cada institución financiera participante tiene un entorno local que actúa como intermediario entre los datos privados de la institución y el TEE.
- Datos cifrados específicos de cada banco: cada banco tiene sus propios datos de transacciones privados y cifrados, que incluyen etiquetas de fraude. Estos datos permanecen cifrados durante todo el proceso, lo que garantiza la privacidad de los datos. Los datos solo se proporcionan al TEE después de validar las reclamaciones de certificación de los bancos individuales.
- Repositorio de modelos: un modelo de detección de fraude preentrenado que sirve como punto de partida para el entrenamiento colaborativo.
- Modelo y pesos entrenados de fraude global (simbolizados por la línea verde): el modelo de detección de fraude mejorado, junto con sus pesos aprendidos, se devuelve de forma segura a los bancos participantes. Después, pueden implementar este modelo mejorado de forma local para detectar fraudes en sus propias transacciones.
Arquitectura de aprendizaje federado confidencial para instituciones financieras
El aprendizaje federado ofrece una solución avanzada a los clientes que valoran la privacidad y la soberanía de los datos. La arquitectura de aprendizaje federado confidencial proporciona una forma segura, escalable y eficiente de usar datos para aplicaciones de IA. Esta arquitectura lleva los modelos a la ubicación donde se almacenan los datos, en lugar de centralizar los datos en una única ubicación, lo que reduce los riesgos asociados a las filtraciones de datos.
Este patrón de arquitectura muestra cómo pueden varias instituciones financieras entrenar de forma colaborativa un modelo de detección de fraudes y, al mismo tiempo, proteger la confidencialidad de sus datos de transacciones sensibles con etiquetas de fraude. Utiliza el aprendizaje federado junto con técnicas de computación confidencial para permitir el aprendizaje automático seguro entre varias partes sin que se muevan los datos de entrenamiento.
Esta arquitectura tiene las siguientes ventajas:
- Mayor privacidad y seguridad de los datos: el aprendizaje federado permite proteger la privacidad y la ubicación de los datos, ya que garantiza que los datos sensibles permanezcan en cada sitio. Además, las entidades financieras pueden usar técnicas que protegen la privacidad, como el cifrado homomórfico y los filtros de privacidad diferencial, para proteger aún más los datos transferidos (como los pesos del modelo).
- Mayor precisión y diversidad: al entrenar con una variedad de fuentes de datos de diferentes clientes, las instituciones financieras pueden desarrollar un modelo global sólido y generalizable para representar mejor los conjuntos de datos heterogéneos.
- Escalabilidad y eficiencia de la red: gracias a la posibilidad de realizar el entrenamiento en el extremo, las instituciones pueden escalar el aprendizaje federado en todo el mundo. Además, las instituciones solo tienen que transferir los pesos del modelo en lugar de conjuntos de datos completos, lo que permite un uso eficiente de los recursos de red.
En el siguiente diagrama se muestra esta arquitectura.
Entre los componentes clave de esta arquitectura se incluyen los siguientes:
- Servidor federado en el clúster de TEE: un entorno seguro y aislado en el que el servidor de aprendizaje federado coordina la colaboración de varios clientes. Para ello, primero envía un modelo inicial a los clientes de aprendizaje federado. Los clientes entrenan sus conjuntos de datos locales y, a continuación, envían las actualizaciones del modelo al servidor de aprendizaje federado para que las agregue y forme un modelo global.
- Repositorio de modelos de aprendizaje federado: un modelo de detección de fraudes preentrenado que sirve como punto de partida para el aprendizaje federado.
- Motor de inferencia de aplicaciones locales: una aplicación que ejecuta tareas, realiza cálculos y aprendizaje locales con conjuntos de datos locales y envía los resultados al servidor de aprendizaje federado para que se agreguen de forma segura.
- Datos privados locales: cada banco tiene sus propios datos de transacciones privadas cifradas, que incluyen etiquetas de fraude. Estos datos permanecen cifrados durante todo el proceso, lo que garantiza la privacidad de los datos.
- Protocolo de agregación segura (simbolizado por la línea azul de puntos): el servidor de aprendizaje federado no necesita acceder a la actualización de ningún banco para entrenar el modelo. Solo requiere las medias ponderadas de los vectores de actualización, tomadas de un subconjunto aleatorio de bancos o sitios. Usar un protocolo de agregación seguro para calcular estas medias ponderadas ayuda a asegurar que el servidor solo pueda saber que uno o varios bancos de este subconjunto seleccionado aleatoriamente han escrito una palabra determinada, pero no qué bancos, lo que protege la privacidad de cada participante en el proceso de aprendizaje federado.
- Modelo global entrenado para detectar fraudes y pesos agregados (simbolizados por la línea verde): el modelo de detección de fraudes mejorado, junto con sus pesos aprendidos, se envía de forma segura a los bancos participantes. Los bancos pueden implementar este modelo mejorado de forma local para detectar fraudes en sus propias transacciones.
Siguientes pasos
Lee el artículo Confidential AI: Intel seeks to overcome AI's data protection problem (Confidential AI: Intel busca solucionar el problema de protección de datos de la IA).
Consulta Habilitar la colaboración segura entre varias partes con computación confidencial por Keith Moyer (Google) | OC3 (YouTube).
Consulta las novedades de Confidential Computing. (YouTube).
Implementa Computación confidencial y Confidential Space en tu entorno.
Más información sobre los conceptos básicos de Confidential Computing enGoogle Cloud
Consulta más información sobre cómo habilitar una IA generativa más privada.
Colaboradores
- Arun Santhanagopalan | Director de Tecnología e Incubación, Google Cloud
- Pablo Rodríguez | Director técnico, Departamento de CTO
- Vineet Dave | Jefe de Tecnología e Incubación, Google Cloud