Ce document offre un aperçu général du confidential computing, y compris de la façon dont vous pouvez l'utiliser pour la collaboration sécurisée sur les données, l'entraînement de modèles d'IA et l'apprentissage fédéré. Il fournit également des informations sur les services informatique confidentielle dansGoogle Cloud et des références d'architecture pour différents cas d'utilisation.
Ce document vise à aider les responsables technologiques à comprendre le potentiel commercial du confidential computing avec l'IA générative et l'IA appliquée dans divers secteurs, y compris les services financiers et la santé.
Qu'est-ce que l'informatique confidentielle ?
Les pratiques de sécurité des données ont toujours consisté à protéger les données au repos et en transit par le biais du chiffrement. L'informatique confidentielle ajoute une nouvelle couche de protection en s'attaquant à la vulnérabilité des données pendant leur utilisation active. Cette technologie garantit la confidentialité des informations sensibles, même lorsqu'elles sont traitées, ce qui permet de combler une lacune critique en matière de sécurité des données.
Un environnement d'informatique confidentielle protège les données en cours d'utilisation à l'aide d'un environnement d'exécution sécurisé (TEE) basé sur le matériel. Un TEE est une zone sécurisée au sein d'un processeur qui protège la confidentialité et l'intégrité du code et des données qui y sont chargés. Le TEE agit comme une salle sécurisée pour les opérations sensibles, ce qui atténue les risques pour les données, même si le système est compromis. Grâce à l'informatique confidentielle, les données peuvent rester chiffrées en mémoire pendant le traitement.
Par exemple, vous pouvez utiliser l'informatique confidentielle pour l'analyse de données et le machine learning afin d'atteindre les objectifs suivants :
- Confidentialité renforcée : effectuez des analyses sur des ensembles de données sensibles (par exemple, des dossiers médicaux ou des données financières) sans exposer les données à l'infrastructure sous-jacente ni aux parties impliquées dans le calcul.
- Collaboration sécurisée : entraînez conjointement des modèles de machine learning ou effectuez des analyses sur les ensembles de données combinés de plusieurs parties sans révéler les données individuelles les unes aux autres. L'informatique confidentielle favorise la confiance et permet de développer des modèles plus robustes et généralisables, en particulier dans des secteurs comme la santé et la finance.
- Sécurité des données améliorée : réduisez le risque de fuite de données et d'accès non autorisé, et assurez la conformité avec les réglementations sur la protection des données, comme le Règlement général sur la protection des données (RGPD) ou la loi HIPAA (Health Insurance Portability and Accountability Act).
- Confiance et transparence accrues : fournissez une preuve vérifiable que les calculs sont effectués sur les données prévues et dans un environnement sécurisé, ce qui renforce la confiance des parties prenantes.
Fonctionnement d'un environnement de confidential computing
Les environnements de confidential computing présentent les propriétés suivantes :
- Chiffrement du temps d'exécution : le processeur conserve toutes les données de l'environnement d'informatique confidentielle chiffrées en mémoire. Tout composant système ou pirate informatique matériel qui tente de lire les données de l'environnement de confidential computing directement à partir de la mémoire ne voit que des données chiffrées. De même, le chiffrement empêche la modification des données de l'environnement d'informatique confidentielle par accès direct à la mémoire.
- Isolation : le processeur bloque l'accès logiciel à l'environnement de calcul confidentiel. Le système d'exploitation et les autres applications ne peuvent communiquer avec l'environnement de confidential computing que via des interfaces spécifiques.
Attestation : dans le contexte de l'informatique confidentielle, l'attestation permet de vérifier la fiabilité de l'environnement de calcul confidentiel. Grâce à l'attestation, les utilisateurs peuvent voir la preuve que l'informatique confidentielle protège leurs données, car elle vous permet d'authentifier l'instance TEE.
Au cours du processus d'attestation, le processeur compatible avec le TEE produit un rapport signé de manière cryptographique (appelé rapport d'attestation) de la mesure de l'instance. La mesure est ensuite envoyée à un service d'attestation. Une attestation pour l'isolation des processus authentifie une application. Une attestation d'isolation de VM authentifie une VM, le micrologiciel virtuel utilisé pour lancer la VM, ou les deux.
Sécurité du cycle de vie des données : l'informatique confidentielle crée un environnement de traitement sécurisé pour fournir une protection matérielle aux données en cours d'utilisation.
Technologie d'informatique confidentielle
Les technologies suivantes permettent l'informatique confidentielle :
- Enclaves sécurisées, également appelées informatique confidentielle basée sur les applications
- Confidential VMs et GPU, également appelés informatique confidentielle basée sur des VM
Google Cloud utilise Confidential VM pour activer l'informatique confidentielle. Pour en savoir plus, consultez Implémenter l'informatique confidentielle surGoogle Cloud.
Enclaves sécurisées
Une enclave sécurisée est un environnement de calcul qui isole le code et les données du système d'exploitation à l'aide d'une isolation matérielle ou en isolant une VM entière en plaçant l'hyperviseur dans la base de calcul sécurisée (TCB). Les enclaves sécurisées sont conçues pour garantir que même les utilisateurs ayant un accès physique ou root aux machines et au système d'exploitation ne peuvent pas connaître le contenu de la mémoire de l'enclave sécurisée ni altérer l'exécution du code à l'intérieur de l'enclave. Intel Software Guard Extensions (SGX) est un exemple d'enclave sécurisée.
Confidential VMs et GPU confidentiels
Une Confidential VM est un type de VM qui utilise le chiffrement de la mémoire basé sur le matériel pour protéger les données et les applications. Les Confidential VM offrent l'isolation et l'attestation pour améliorer la sécurité. Les technologies de calcul des Confidential VM incluent AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE et Nvidia Confidential GPU.
Les GPU confidentiels permettent de protéger les données et d'accélérer le calcul, en particulier dans les environnements cloud et partagés. Elles utilisent des techniques de chiffrement et d'isolation matérielles pour protéger les données pendant leur traitement sur le GPU, en veillant à ce que même le fournisseur de services cloud ou les acteurs malveillants ne puissent pas accéder aux informations sensibles.
Cas d'utilisation de l'analyse de données confidentielles, de l'IA et de l'apprentissage fédéré
Les sections suivantes fournissent des exemples de cas d'utilisation du confidential computing pour différents secteurs.
Santé et sciences de la vie
L'informatique confidentielle permet de partager et d'analyser des données de manière sécurisée entre les organisations, tout en préservant la confidentialité des patients. L'informatique confidentielle permet aux organismes de santé de participer à des recherches collaboratives, à la modélisation de maladies, à la découverte de médicaments et à des plans de traitement personnalisés.
Le tableau suivant décrit quelques exemples d'utilisation du confidential computing dans le secteur de la santé.
Cas d'utilisation | Description |
---|---|
Prédiction et détection précoce des maladies |
Les hôpitaux entraînent un modèle d'apprentissage fédéré pour détecter les lésions cancéreuses à partir de données d'imagerie médicale (par exemple, des IRM ou des scanners dans plusieurs hôpitaux ou régions hospitalières) tout en préservant la confidentialité des patients. |
Surveillance des patients en temps réel |
Les professionnels de santé analysent les données des appareils de santé connectés et des applications mobiles de santé pour la surveillance et les alertes en temps réel. Par exemple, les appareils connectés collectent des données sur la glycémie, l'activité physique et les habitudes alimentaires pour fournir des recommandations personnalisées et des alertes précoces en cas de fluctuations de la glycémie. |
Découverte collaborative de médicaments |
Les entreprises pharmaceutiques entraînent des modèles sur des ensembles de données propriétaires pour accélérer la découverte de médicaments, améliorer la collaboration et protéger la propriété intellectuelle. |
Services financiers
L'informatique confidentielle permet aux institutions financières de créer un système financier plus sécurisé et résilient.
Le tableau suivant décrit quelques exemples d'utilisation du confidential computing dans les services financiers.
Cas d'utilisation | Description |
---|---|
Infractions financières |
Les établissements financiers peuvent collaborer sur des modèles de lutte contre le blanchiment d'argent ou la fraude en général en partageant des informations sur les transactions suspectes tout en protégeant la confidentialité des clients. Grâce au confidential computing, les institutions peuvent analyser ces données partagées de manière sécurisée et entraîner les modèles à identifier et à déjouer plus efficacement les systèmes complexes de blanchiment d'argent. |
Évaluation du risque de crédit respectueuse de la confidentialité |
Les prêteurs peuvent évaluer le risque de crédit à l'aide d'un plus large éventail de sources de données, y compris des données provenant d'autres institutions financières ou même d'entités non financières. Grâce à l'informatique confidentielle, les prêteurs peuvent accéder à ces données et les analyser sans les exposer à des tiers non autorisés. Ils peuvent ainsi améliorer la précision des modèles de scoring de crédit tout en préservant la confidentialité des données. |
Découverte des prix respectueuse de la confidentialité |
Dans le monde de la finance, en particulier dans des domaines tels que les marchés de gré à gré ou les actifs illiquides, une tarification précise est essentielle. Le calcul confidentiel permet à plusieurs institutions de calculer des prix précis de manière collaborative, sans se révéler mutuellement leurs données sensibles. |
Secteur public
L'informatique confidentielle permet aux gouvernements de créer des services plus transparents, efficaces et performants, tout en conservant le contrôle et la souveraineté de leurs données.
Le tableau suivant décrit quelques exemples d'utilisation du confidential computing dans le secteur public.
Cas d'utilisation | Description |
---|---|
Souveraineté numérique |
L'informatique confidentielle garantit que les données sont toujours chiffrées, même lorsqu'elles sont traitées. Il permet de migrer les données des citoyens vers le cloud de manière sécurisée, en les protégeant même lorsqu'elles sont hébergées sur une infrastructure externe, dans des environnements hybrides, publics ou multicloud. L'informatique confidentielle soutient et renforce la souveraineté et l'autonomie numériques, avec un contrôle et une protection supplémentaires des données en cours d'utilisation, de sorte que les clés de chiffrement ne sont pas accessibles au fournisseur de services cloud. |
Analyses confidentielles multi-agences |
L'informatique confidentielle permet l'analyse de données multipartites dans plusieurs organismes gouvernementaux (par exemple, la santé, les impôts et l'éducation) ou dans plusieurs gouvernements de différentes régions ou pays. Le confidential computing permet de s'assurer que les limites de confiance et la confidentialité des données sont protégées, tout en permettant l'analyse des données (à l'aide de la protection contre la perte de données (DLP), de l'analyse à grande échelle et des moteurs de règles), ainsi que l'entraînement et le service d'IA. |
IA de confiance |
Les données gouvernementales sont essentielles et peuvent être utilisées pour entraîner des modèles d'IA privés de manière fiable afin d'améliorer les services internes ainsi que les interactions avec les citoyens. L'informatique confidentielle permet d'utiliser des frameworks d'IA fiables, avec un entraînement RAG (Retrieval Augmented Generation) ou des requêtes confidentielles pour préserver la confidentialité et la sécurité des données et des modèles citoyens. |
Chaîne d'approvisionnement
L'informatique confidentielle permet aux entreprises de gérer leur chaîne d'approvisionnement et leur durabilité, de collaborer et de partager des insights tout en préservant la confidentialité des données.
Le tableau suivant décrit quelques exemples d'utilisation du confidential computing dans les chaînes d'approvisionnement.
Cas d'utilisation | Description |
---|---|
Prévision de la demande et optimisation des stocks |
Avec le confidential computing, chaque entreprise entraîne son propre modèle de prévision de la demande sur ses propres données de ventes et d'inventaire. Ces modèles sont ensuite agrégés de manière sécurisée dans un modèle global, ce qui permet d'obtenir une vue plus précise et plus globale des tendances de la demande tout au long de la chaîne logistique. |
Évaluation des risques liés aux fournisseurs respectueuse de la confidentialité |
Chaque organisation impliquée dans l'évaluation des risques liés aux fournisseurs (par exemple, les acheteurs, les établissements financiers et les auditeurs) entraîne son propre modèle d'évaluation des risques sur ses propres données. Ces modèles sont agrégés pour créer un profil de risque fournisseur complet et respectueux de la confidentialité, ce qui permet d'identifier rapidement les risques potentiels liés aux fournisseurs, d'améliorer la résilience de la chaîne d'approvisionnement et de prendre de meilleures décisions lors de la sélection et de la gestion des fournisseurs. |
Suivi et réduction de l'empreinte carbone |
L'informatique confidentielle offre une solution pour relever les défis liés à la confidentialité et à la transparence des données dans les efforts de suivi et de réduction de l'empreinte carbone. Le confidential computing permet aux organisations de partager et d'analyser des données sans en révéler la forme brute. Elles peuvent ainsi prendre des décisions éclairées et agir efficacement pour un avenir plus durable. |
Publicité digitale
La publicité digitale a abandonné les cookies tiers au profit d'alternatives plus respectueuses de la confidentialité, comme la Privacy Sandbox. La Privacy Sandbox prend en charge les cas d'utilisation publicitaires critiques tout en limitant le suivi intersites et inter-applications. La Privacy Sandbox utilise des TEE pour assurer le traitement sécurisé des données utilisateur par les entreprises publicitaires.
Vous pouvez utiliser les TEEs dans les cas d'utilisation suivants pour la publicité numérique :
- Algorithmes de correspondance : ils permettent de trouver des correspondances ou des relations dans les ensembles de données.
- Attribution : associer des effets ou des événements à leurs causes probables.
- Agrégation : calcul de résumés ou de statistiques à partir des données brutes.
Implémenter l'informatique confidentielle sur Google Cloud
Google Cloud inclut les services suivants qui permettent l'informatique confidentielle :
- Confidential VM : permet de chiffrer les données utilisées pour les charges de travail qui utilisent des VM.
- Confidential GKE : activez le chiffrement des données utilisées pour les charges de travail qui utilisent des conteneurs.
- Dataflow confidentiel : activez le chiffrement des données en cours d'utilisation pour le streaming d'analyses et le machine learning.
- Informatique confidentielle Dataproc : activez le chiffrement des données en cours d'utilisation pour le traitement des données.
- Confidential Space : permet de chiffrer les données utilisées pour l'analyse conjointe des données et le machine learning
Ces services vous permettent de réduire votre périmètre de confiance afin que moins de ressources aient accès à vos données confidentielles. Par exemple, dans un environnement Google Cloudsans Confidential Computing, la limite de confiance inclut l'infrastructureGoogle Cloud (matériel, hyperviseur et OS hôte) et l'OS invité. Dans un environnement Google Cloud qui inclut l'informatique confidentielle (sans Confidential Space), la limite de confiance n'inclut que l'OS invité et l'application. Dans un environnement Google Cloudavec Confidential Space, la limite de confiance n'est que l'application et son espace mémoire associé. Le tableau suivant montre comment la limite de confiance est réduite avec le informatique confidentielle et Confidential Space.
Éléments | Dans la limite de confiance sans utiliser l'informatique confidentielle | Dans la limite de confiance lors de l'utilisation de l'informatique confidentielle | Dans la limite de confiance lors de l'utilisation de Confidential Space |
---|---|---|---|
Pile Cloud et administrateurs |
Oui |
Non |
Non |
BIOS et micrologiciel |
Oui |
Non |
Non |
OS hôte et hyperviseur |
Oui |
Non |
Non |
Administrateur invité de VM |
Oui |
Oui |
Non |
OS invité de la VM |
Oui |
Oui |
Oui, mesurée et attestée |
Applications |
Oui |
Oui |
Oui, mesurée et attestée |
Données confidentielles |
Oui |
Oui |
Oui |
Confidential Space crée une zone sécurisée dans une VM pour offrir le plus haut niveau d'isolation et de protection aux données et applications sensibles. Voici les principaux avantages de l'Confidential Space en termes de sécurité :
- Défense en profondeur : ajoute une couche de sécurité supplémentaire aux technologies de calcul confidentiel existantes.
- Surface d'attaque réduite : isole les applications des failles potentielles du système d'exploitation invité.
- Contrôle amélioré : offre un contrôle précis des accès et des autorisations dans l'environnement sécurisé.
- Confiance renforcée : offre une assurance plus élevée de la confidentialité et de l'intégrité des données.
Confidential Space est conçu pour gérer les charges de travail hautement sensibles, en particulier dans les secteurs réglementés ou les scénarios impliquant des collaborations multipartites où la confidentialité des données est primordiale.
Références d'architecture pour l'analyse confidentielle, l'IA et l'apprentissage fédéré
Vous pouvez implémenter l'informatique confidentielle sur Google Cloud pour répondre aux cas d'utilisation suivants :
- Analyses confidentielles
- IA confidentielle
- Apprentissage fédéré confidentiel
Les sections suivantes fournissent plus d'informations sur l'architecture de ces cas d'utilisation, y compris des exemples pour les entreprises financières et de santé.
Architecture d'analyse confidentielle pour les établissements de santé
L'architecture d'analyse confidentielle montre comment plusieurs établissements de santé (fournisseurs, établissements biopharmaceutiques et de recherche, par exemple) peuvent collaborer pour accélérer la recherche sur les médicaments. Cette architecture utilise des techniques d'informatique confidentielle pour créer une salle blanche numérique permettant d'exécuter des analyses collaboratives confidentielles.
Cette architecture présente les avantages suivants :
- Insights améliorés : l'analyse collaborative permet aux organismes de santé d'obtenir des insights plus larges et de réduire les délais de commercialisation pour une découverte de médicaments améliorée.
- Confidentialité des données : les données de transaction sensibles restent chiffrées et ne sont jamais exposées aux autres participants ni à l'environnement d'exécution sécurisé, ce qui garantit leur confidentialité.
- Conformité réglementaire : l'architecture aide les établissements de santé à respecter les réglementations sur la protection des données en exerçant un contrôle strict sur leurs données.
- Confiance et collaboration : l'architecture permet une collaboration sécurisée entre les institutions concurrentes, favorisant un effort collectif pour découvrir des médicaments.
Le schéma suivant illustre cette architecture.
Voici les principaux composants de cette architecture :
- Serveur d'agrégation OLAP TEE : environnement sécurisé et isolé dans lequel l'entraînement et l'inférence des modèles de machine learning ont lieu. Les données et le code du TEE sont protégés contre les accès non autorisés, même depuis le système d'exploitation sous-jacent ou le fournisseur de services cloud.
- Partenaires de collaboration : chaque établissement de santé participant dispose d'un environnement local qui sert d'intermédiaire entre les données privées de l'établissement et l'environnement d'exécution sécurisé.
- Données chiffrées spécifiques aux fournisseurs : chaque établissement de santé stocke ses propres données patient privées et chiffrées, y compris les dossiers médicaux électroniques. Ces données restent chiffrées pendant le processus d'analyse, ce qui garantit la confidentialité des données. Les données ne sont transmises à l'environnement d'exécution sécurisé qu'après validation des revendications d'attestation des fournisseurs individuels.
- Client Analytics : les établissements de santé participants peuvent exécuter des requêtes confidentielles sur leurs données pour obtenir des insights immédiats.
Architecture d'IA confidentielle pour les établissements financiers
Ce modèle architectural montre comment les établissements financiers peuvent entraîner de manière collaborative un modèle de détection de fraude tout en utilisant des libellés de fraude pour préserver la confidentialité de leurs données de transaction sensibles. L'architecture utilise des techniques de confidential computing pour permettre un apprentissage automatique multipartite sécurisé.
Cette architecture présente les avantages suivants :
- Détection améliorée des fraudes : l'entraînement collaboratif utilise un ensemble de données plus volumineux et plus diversifié, ce qui permet d'obtenir un modèle de détection des fraudes plus précis et plus efficace.
- Confidentialité des données : les données de transaction sensibles restent chiffrées et ne sont jamais exposées aux autres participants ni à l'environnement d'exécution sécurisé, ce qui garantit leur confidentialité.
- Conformité réglementaire : l'architecture aide les institutions financières à respecter les réglementations sur la protection des données en gardant un contrôle strict sur leurs données.
- Confiance et collaboration : cette architecture permet une collaboration sécurisée entre des institutions concurrentes, favorisant un effort collectif pour lutter contre la fraude financière.
Le schéma suivant illustre cette architecture.
Voici les principaux composants de cette architecture :
- Serveur d'agrégation OLAP TEE : environnement sécurisé et isolé dans lequel l'entraînement et l'inférence des modèles de machine learning ont lieu. Les données et le code du TEE sont protégés contre les accès non autorisés, même depuis le système d'exploitation sous-jacent ou le fournisseur de services cloud.
- Entraînement du modèle TEE : le modèle de base global de détection des fraudes est empaqueté sous forme de conteneurs pour exécuter l'entraînement du ML. Dans le TEE, le modèle global est entraîné à l'aide des données chiffrées de toutes les banques participantes. Le processus d'entraînement utilise des techniques telles que l'apprentissage fédéré ou le calcul sécurisé multipartite pour s'assurer qu'aucune donnée brute n'est exposée.
- Partenaires collaborateurs : chaque établissement financier participant dispose d'un environnement local qui sert d'intermédiaire entre les données privées de l'établissement et l'environnement d'exécution sécurisé.
- Données chiffrées spécifiques à la banque : chaque banque détient ses propres données de transaction privées et chiffrées, y compris les libellés de fraude. Ces données restent chiffrées tout au long du processus, ce qui garantit leur confidentialité. Les données ne sont transmises à l'environnement d'exécution sécurisé qu'après validation des revendications d'attestation des différentes banques.
- Dépôt de modèles : modèle de détection des fraudes pré-entraîné qui sert de point de départ pour l'entraînement collaboratif.
- Modèle et pondérations entraînés pour la fraude à l'échelle mondiale (symbolisés par la ligne verte) : le modèle de détection de la fraude amélioré, ainsi que ses pondérations apprises, sont renvoyés de manière sécurisée aux banques participantes. Ils peuvent ensuite déployer ce modèle amélioré localement pour détecter les fraudes dans leurs propres transactions.
Architecture d'apprentissage fédéré confidentiel pour les institutions financières
L'apprentissage fédéré offre une solution avancée aux clients qui accordent de l'importance à la confidentialité et à la souveraineté des données. L'architecture d'apprentissage fédéré confidentiel offre un moyen sécurisé, évolutif et efficace d'utiliser les données pour les applications d'IA. Cette architecture permet de déplacer les modèles vers l'emplacement où les données sont stockées, plutôt que de centraliser les données dans un seul emplacement, ce qui réduit les risques associés aux fuites de données.
Ce modèle architectural montre comment plusieurs institutions financières peuvent entraîner conjointement un modèle de détection de fraude tout en préservant la confidentialité de leurs données de transaction sensibles avec des libellés de fraude. Il utilise l'apprentissage fédéré ainsi que des techniques de calcul confidentiel pour permettre un apprentissage automatique multipartite sécurisé sans déplacement des données d'entraînement.
Cette architecture présente les avantages suivants :
- Confidentialité et sécurité des données renforcées : l'apprentissage fédéré permet de préserver la confidentialité et la localité des données en s'assurant que les données sensibles restent sur chaque site. De plus, les institutions financières peuvent utiliser des techniques de préservation de la confidentialité, telles que le chiffrement homomorphe et les filtres de confidentialité différentielle, pour mieux protéger les données transférées (comme les pondérations du modèle).
- Précision et diversité améliorées : en s'entraînant avec diverses sources de données provenant de différents clients, les institutions financières peuvent développer un modèle global robuste et généralisable pour mieux représenter les ensembles de données hétérogènes.
- Scalabilité et efficacité du réseau : grâce à la possibilité d'effectuer l'entraînement en périphérie, les établissements peuvent étendre l'apprentissage fédéré à l'échelle mondiale. De plus, les établissements n'ont besoin de transférer que les pondérations du modèle plutôt que des ensembles de données entiers, ce qui permet une utilisation efficace des ressources réseau.
Le schéma suivant illustre cette architecture.
Voici les principaux composants de cette architecture :
- Serveur fédéré dans le cluster TEE : environnement sécurisé et isolé dans lequel le serveur d'apprentissage fédéré orchestre la collaboration de plusieurs clients en envoyant d'abord un modèle initial aux clients d'apprentissage fédéré. Les clients entraînent leurs ensembles de données locaux, puis renvoient les mises à jour du modèle au serveur d'apprentissage fédéré pour l'agrégation afin de former un modèle global.
- Dépôt de modèles d'apprentissage fédéré : modèle de détection des fraudes pré-entraîné qui sert de point de départ pour l'apprentissage fédéré.
- Moteur d'inférence d'application locale : application qui exécute des tâches, effectue des calculs et un apprentissage locaux avec des ensembles de données locaux, et renvoie les résultats au serveur d'apprentissage fédéré pour une agrégation sécurisée.
- Données privées locales : chaque banque détient ses propres données de transaction privées et chiffrées, y compris les libellés de fraude. Ces données restent chiffrées tout au long du processus, ce qui garantit leur confidentialité.
- Protocole d'agrégation sécurisé (symbolisé par la ligne bleue en pointillés) : le serveur d'apprentissage fédéré n'a pas besoin d'accéder à la mise à jour de chaque banque pour entraîner le modèle. Il n'a besoin que des moyennes pondérées élément par élément des vecteurs de mise à jour, extraites d'un sous-ensemble aléatoire de banques ou de sites. L'utilisation d'un protocole d'agrégation sécurisé pour calculer ces moyennes pondérées permet de s'assurer que le serveur ne peut apprendre que si une ou plusieurs banques de ce sous-ensemble sélectionné aléatoirement ont écrit un mot donné, mais pas lesquelles. La confidentialité de chaque participant au processus d'apprentissage fédéré est ainsi préservée.
- Modèle global entraîné à la détection des fraudes et pondérations agrégées (symbolisées par la ligne verte) : le modèle amélioré de détection des fraudes, ainsi que ses pondérations apprises, sont renvoyés aux banques participantes de manière sécurisée. Les banques peuvent ensuite déployer ce modèle amélioré localement pour détecter les fraudes sur leurs propres transactions.
Étapes suivantes
Consultez Confidential AI: Intel seeks to overcome AI's data protection problem (IA confidentielle : Intel cherche à résoudre le problème de protection des données de l'IA).
Consultez The Present and Future of Confidential Computing (Présent et avenir de l'informatique confidentielle).
Regardez Enabling secure multi-party collaboration with confidential computing by Keith Moyer (Google) | OC3 (YouTube).
Consultez Nouveautés en informatique confidentielle. (YouTube).
Implémentez l'informatique confidentielle et Confidential Space dans votre environnement.
En savoir plus sur les principes de base de l'informatique confidentielle surGoogle Cloud
En savoir plus sur l'activation de l'IA générative plus privée
Contributeurs
- Arun Santhanagopalan | Responsable de la technologie et de l'incubation, Google Cloud
- Pablo Rodriguez | Directeur technique, bureau du CTO
- Vineet Dave | Responsable de la technologie et de l'incubation, Google Cloud