Dieses Dokument bietet einen allgemeinen Überblick über Confidential Computing, einschließlich der Verwendung für die sichere Zusammenarbeit bei Daten, das Training von KI-Modellen und föderiertes Lernen. Das Dokument enthält auch Informationen zu den Confidential Computing-Diensten inGoogle Cloud und Architekturreferenzen für verschiedene Anwendungsfälle.
Dieses Dokument soll Führungskräften aus dem Technologiebereich helfen, das geschäftliche Potenzial von Confidential Computing mit generativer KI und angewandter KI in verschiedenen Branchen, einschließlich Finanzdienstleistungen und Gesundheitswesen, zu verstehen.
Was ist Confidential Computing?
Datensicherheitspraktiken konzentrierten sich bisher auf den Schutz von inaktiven Daten und Daten bei der Übertragung durch Verschlüsselung. Confidential Computing bietet eine zusätzliche Schutzebene, da es die Anfälligkeit von Daten während der aktiven Nutzung berücksichtigt. Diese Technologie sorgt dafür, dass vertrauliche Informationen auch während der Verarbeitung vertraulich bleiben, und trägt so dazu bei, eine kritische Lücke in der Datensicherheit zu schließen.
In einer Confidential Computing-Umgebung wird der Schutz aktiver Daten mit einer hardwarebasierten vertrauenswürdigen Ausführungsumgebung (Trusted Execution Environment, TEE) implementiert. Eine TEE ist ein sicherer Bereich in einem Prozessor, der die Vertraulichkeit und Integrität von darin geladenem Code und Daten schützt. TEE fungiert als sicherer Bereich für sensible Vorgänge, wodurch das Risiko für Daten verringert wird, selbst wenn das System manipuliert wird. Mit Confidential Computing können Daten während der Verarbeitung im Arbeitsspeicher verschlüsselt bleiben.
Sie können beispielsweise Confidential Computing für Datenanalyse und maschinelles Lernen verwenden, um Folgendes zu erreichen:
- Verbesserter Datenschutz:Analysieren Sie vertrauliche Datasets (z. B. Krankenakten oder Finanzdaten), ohne die Daten der zugrunde liegenden Infrastruktur oder den an der Berechnung beteiligten Parteien preiszugeben.
- Sichere Zusammenarbeit:Sie können gemeinsam Modelle für maschinelles Lernen trainieren oder Analysen für die kombinierten Datasets mehrerer Parteien ausführen, ohne dass die einzelnen Daten für die anderen Parteien sichtbar sind. Confidential Computing schafft Vertrauen und ermöglicht die Entwicklung robusterer und verallgemeinerbarer Modelle, insbesondere in Branchen wie dem Gesundheitswesen und dem Finanzwesen.
- Verbesserte Datensicherheit:Das Risiko von Datenpannen und unbefugtem Zugriff wird verringert und die Einhaltung von Datenschutzbestimmungen wie der Datenschutz-Grundverordnung (DSGVO) oder dem Health Insurance Portability and Accountability Act (HIPAA) wird sichergestellt.
- Mehr Vertrauen und Transparenz:Sie können nachweisen, dass Berechnungen mit den vorgesehenen Daten und in einer sicheren Umgebung durchgeführt werden. Das stärkt das Vertrauen der Stakeholder.
Funktionsweise einer Confidential Computing-Umgebung
Umgebungen für vertrauliches Computing haben die folgenden Eigenschaften:
- Laufzeitverschlüsselung:Der Prozessor hält alle Daten der Confidential Computing-Umgebung im Arbeitsspeicher verschlüsselt. Jede Systemkomponente oder Hardware, die versucht, vertrauliche Daten der Computing-Umgebung direkt aus dem Arbeitsspeicher zu lesen, sieht nur verschlüsselte Daten. Ebenso verhindert die Verschlüsselung die Änderung von Daten der Confidential Computing-Umgebung durch direkten Zugriff auf den Speicher.
- Isolation:Der Prozessor blockiert den softwarebasierten Zugriff auf die vertrauliche Computing-Umgebung. Das Betriebssystem und andere Anwendungen können nur über bestimmte Schnittstellen mit der vertraulichen Rechenumgebung kommunizieren.
Attestierung:Im Kontext von Confidential Computing wird durch die Attestierung die Vertrauenswürdigkeit der Confidential Computing-Umgebung überprüft. Mithilfe der Attestierung können Nutzer nachvollziehen, dass ihre Daten durch Confidential Computing geschützt werden, da Sie die TEE-Instanz authentifizieren können.
Während des Attestierungsprozesses erstellt der CPU-Chip, der die TEE unterstützt, einen kryptografisch signierten Bericht (Attestierungsbericht) der Messung der Instanz. Die Messung wird dann an einen Attestierungsdienst gesendet. Durch eine Attestierung für die Prozessisolierung wird eine Anwendung authentifiziert. Mit einem Attest für die VM-Isolation wird eine VM, die virtuelle Firmware, die zum Starten der VM verwendet wird, oder beides authentifiziert.
Sicherheit des Datenlebenszyklus:Confidential Computing schafft eine sichere Verarbeitungsumgebung, um hardwaregestützten Schutz für aktive Daten zu bieten.
Confidential Computing-Technologie
Die folgenden Technologien ermöglichen Confidential Computing:
- Sichere Enklaven, auch als anwendungsbasiertes Confidential Computing bezeichnet
- Confidential VMs und GPUs, auch als VM-basiertes Confidential Computing bezeichnet
Google Cloud verwendet Confidential VMs, um Confidential Computing zu ermöglichen. Weitere Informationen finden Sie unter Confidential Computing aufGoogle Cloud implementieren.
Secure Enclaves
Eine sichere Enclave ist eine Rechenumgebung, die Code und Daten mithilfe von hardwarebasierter Isolation vom Betriebssystem isoliert oder eine gesamte VM isoliert, indem der Hypervisor in die Trusted Computing Base (TCB) aufgenommen wird. Sichere Enclaves sind so konzipiert, dass selbst Nutzer mit physischem oder Root-Zugriff auf die Maschinen und das Betriebssystem nicht auf den Inhalt des Speichers der sicheren Enclave zugreifen oder die Ausführung von Code in der Enclave manipulieren können. Ein Beispiel für eine Secure Enclave ist Intel Software Guard Extension (SGX).
Confidential VMs und vertrauliche GPUs
Eine Confidential VM ist eine Art von VM, die hardwarebasierte Arbeitsspeicherverschlüsselung verwendet, um Daten und Anwendungen zu schützen. Confidential VM bietet Isolation und Attestierung zur Verbesserung der Sicherheit. Zu den Confidential VM-Computing-Technologien gehören AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE und Nvidia Confidential GPU.
Vertrauliche GPUs tragen zum Schutz von Daten und zur Beschleunigung von Berechnungen bei, insbesondere in Cloud- und freigegebenen Umgebungen. Sie verwenden hardwarebasierte Verschlüsselungs- und Isolationstechniken, um Daten während der Verarbeitung auf der GPU zu schützen. So wird sichergestellt, dass selbst der Cloud-Anbieter oder böswillige Akteure nicht auf vertrauliche Informationen zugreifen können.
Anwendungsfälle für vertrauliche Datenanalysen, KI und föderiertes Lernen
In den folgenden Abschnitten finden Sie Beispiele für Anwendungsfälle von Confidential Computing für verschiedene Branchen.
Gesundheitswesen und Biowissenschaften
Vertrauliche Datenverarbeitung ermöglicht die sichere Freigabe und Analyse von Daten über Organisationen hinweg und schützt gleichzeitig die Privatsphäre der Patienten. Mit Confidential Computing können Gesundheitsorganisationen an gemeinsamer Forschung, Krankheitsmodellierung, Arzneimittelforschung und personalisierten Behandlungsplänen teilnehmen.
In der folgenden Tabelle werden einige Beispiele für die Verwendung von Confidential Computing im Gesundheitswesen beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Krankheitsvorhersage und Früherkennung |
Krankenhäuser trainieren ein föderiertes Lernmodell, um Krebsläsionen anhand von medizinischen Bildgebungsdaten (z. B. MRT- oder CT-Scans in mehreren Krankenhäusern oder Krankenhausregionen) zu erkennen und gleichzeitig die Vertraulichkeit der Patientendaten zu wahren. |
Patientenüberwachung in Echtzeit |
Gesundheitsdienstleister analysieren Daten von tragbaren Gesundheitsgeräten und mobilen Gesundheits-Apps für die Echtzeitüberwachung und Benachrichtigungen. Wearables erfassen beispielsweise Daten zu Blutzuckerspiegel, körperlicher Aktivität und Ernährungsgewohnheiten, um personalisierte Empfehlungen und Frühwarnungen bei Blutzuckerschwankungen zu geben. |
Gemeinsame Arzneimittelforschung |
Pharmaunternehmen trainieren Modelle mit proprietären Datasets, um die Entwicklung von Medikamenten zu beschleunigen und die Zusammenarbeit zu verbessern, während sie gleichzeitig geistiges Eigentum schützen. |
Finanzdienstleistungen
Confidential Computing ermöglicht Finanzinstituten, ein sichereres und stabileres Finanzsystem zu schaffen.
In der folgenden Tabelle werden einige Anwendungsbeispiele für Confidential Computing im Finanzdienstleistungssektor beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Finanzkriminalität |
Finanzinstitute können bei der Bekämpfung von Geldwäsche oder bei allgemeinen Betrugsmodellen zusammenarbeiten, indem sie Informationen über verdächtige Transaktionen austauschen und gleichzeitig die Privatsphäre der Kunden schützen. Mithilfe von Confidential Computing können Finanzinstitute diese freigegebenen Daten sicher analysieren und die Modelle so trainieren, dass sie komplexe Geldwäscheschemata effektiver erkennen und unterbrechen. |
Datenschutzfreundliche Bewertung des Kreditrisikos |
Kreditgeber können das Kreditrisiko anhand einer größeren Bandbreite von Datenquellen bewerten, einschließlich Daten von anderen Finanzinstituten oder sogar nicht finanziellen Unternehmen. Mit Confidential Computing können Kreditgeber auf diese Daten zugreifen und sie analysieren, ohne sie unbefugten Dritten preiszugeben. So lässt sich die Genauigkeit von Modellen zur Kreditbewertung verbessern und gleichzeitig der Datenschutz wahren. |
Datenschutzfreundliche Preisfindung |
In der Finanzwelt, insbesondere in Bereichen wie OTC-Märkten oder illiquiden Assets, ist eine genaue Preisgestaltung von entscheidender Bedeutung. Mit Confidential Computing können mehrere Institutionen gemeinsam genaue Preise berechnen, ohne ihre vertraulichen Daten preiszugeben. |
Öffentlicher Sektor
Mit Confidential Computing können Behörden transparentere, effizientere und effektivere Dienste erstellen und gleichzeitig die Kontrolle und Hoheit über ihre Daten behalten.
In der folgenden Tabelle werden einige Beispiele für die Verwendung von Confidential Computing im öffentlichen Sektor beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Digitale Datenhoheit |
Confidential Computing sorgt dafür, dass Daten immer verschlüsselt sind, auch während der Verarbeitung. Sie ermöglicht sichere Cloud-Migrationen von Bürgerdaten, wobei die Daten auch dann geschützt sind, wenn sie auf externer Infrastruktur in Hybrid-, öffentlichen oder Multi-Cloud-Umgebungen gehostet werden. Confidential Computing unterstützt und fördert digitale Souveränität und digitale Autonomie mit zusätzlicher Datenkontrolle und zusätzlichem Schutz für aktive Daten, sodass Verschlüsselungsschlüssel für den Cloud-Anbieter nicht zugänglich sind. |
Vertrauliche Analysen für mehrere Agenturen |
Vertrauliches Computing ermöglicht die Datenanalyse durch mehrere Parteien über mehrere Behörden hinweg (z. B. Gesundheits-, Steuer- und Bildungsbehörden) oder über mehrere Regierungen in verschiedenen Regionen oder Ländern hinweg. Confidential Computing trägt dazu bei, dass Vertrauensgrenzen und Datenschutz geschützt werden. Gleichzeitig werden Datenanalysen (mit Schutz vor Datenverlust, Analysen im großen Maßstab und Richtlinien-Engines) sowie KI-Training und ‑Bereitstellung ermöglicht. |
Vertrauenswürdige KI |
Behördendaten sind von entscheidender Bedeutung und können verwendet werden, um private KI-Modelle auf vertrauenswürdige Weise zu trainieren, um interne Dienste sowie die Interaktion mit Bürgern zu verbessern. Vertrauliches Computing ermöglicht vertrauenswürdige KI-Frameworks mit vertraulichen Prompts oder vertraulichem RAG-Training (Retrieval Augmented Generation), um Bürgerdaten und Modelle privat und sicher zu halten. |
Lieferkette
Mit Confidential Computing können Unternehmen ihre Lieferkette und Nachhaltigkeit verwalten und zusammenarbeiten und Erkenntnisse austauschen, ohne die Vertraulichkeit der Daten zu gefährden.
In der folgenden Tabelle werden einige Beispiele für die Verwendung von Confidential Computing in Lieferketten beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Bedarfsprognose und Inventaroptimierung |
Beim vertraulichen Computing trainiert jedes Unternehmen sein eigenes Modell zur Bedarfsprognose mit seinen eigenen Umsatz- und Inventardaten. Diese Modelle werden dann sicher in einem globalen Modell zusammengefasst, das einen genaueren und ganzheitlicheren Überblick über die Nachfragemuster in der gesamten Lieferkette bietet. |
Datenschutzfreundliche Bewertung von Anbieterrisiken |
Jede Organisation, die an der Risikobewertung von Lieferanten beteiligt ist (z. B. Käufer, Finanzinstitute und Prüfer), trainiert ihr eigenes Risikobewertungsmodell mit ihren eigenen Daten. Diese Modelle werden zusammengefasst, um ein umfassendes und datenschutzfreundliches Risikoprofil für Lieferanten zu erstellen. So können potenzielle Lieferantenrisiken frühzeitig erkannt, die Widerstandsfähigkeit der Lieferkette verbessert und bessere Entscheidungen bei der Auswahl und Verwaltung von Lieferanten getroffen werden. |
CO₂-Bilanz erfassen und reduzieren |
Confidential Computing bietet eine Lösung für die Herausforderungen des Datenschutzes und der Transparenz bei der Erfassung und Reduzierung der CO₂-Bilanz. Mit Confidential Computing können Unternehmen Daten freigeben und analysieren, ohne ihre Rohform preiszugeben. So können sie fundierte Entscheidungen treffen und effektive Maßnahmen für eine nachhaltigere Zukunft ergreifen. |
Digitale Werbung
Bei der digitalen Werbung werden Drittanbieter-Cookies zunehmend durch datenschutzfreundlichere Alternativen wie die Privacy Sandbox ersetzt. Die Privacy Sandbox unterstützt wichtige Anwendungsfälle für Werbung und schränkt gleichzeitig das website- und appübergreifende Tracking ein. Bei der Privacy Sandbox werden TEEs verwendet, um die sichere Verarbeitung von Nutzerdaten durch Werbeunternehmen zu gewährleisten.
Sie können TEEs in den folgenden Anwendungsfällen für digitale Werbung verwenden:
- Abgleichsalgorithmen:Suchen nach Entsprechungen oder Beziehungen in Datasets.
- Attribution:Effekte oder Ereignisse mit ihren wahrscheinlichen Ursachen in Verbindung bringen.
- Aggregation:Zusammenfassungen oder Statistiken aus den Rohdaten berechnen.
Confidential Computing auf Google Cloudimplementieren
Google Cloud umfasst die folgenden Dienste, die Confidential Computing ermöglichen:
- Confidential VM:Ermöglicht die Verschlüsselung aktiver Daten für Arbeitslasten, für die VMs verwendet werden.
- Confidential GKE:Aktivieren Sie die Verschlüsselung von aktiven Daten für Arbeitslasten, die Container verwenden.
- Confidential Dataflow:Verschlüsselung von aktiven Daten für Streaminganalysen und Machine Learning aktivieren
- Confidential Dataproc:Ermöglicht die Verschlüsselung von Daten während der Datenverarbeitung.
- Confidential Space:Ermöglicht die Verschlüsselung von aktiven Daten für gemeinsame Datenanalyse und maschinelles Lernen
Mit diesen Diensten können Sie die Vertrauensgrenze verkleinern, sodass weniger Ressourcen Zugriff auf Ihre vertraulichen Daten haben. In einer Google CloudUmgebung ohne Confidential Computing umfasst die Vertrauensgrenze beispielsweise dieGoogle Cloud Infrastruktur (Hardware, Hypervisor und Host-Betriebssystem) und das Gastbetriebssystem. In einer Google Cloud Umgebung, die Confidential Computing (ohne Confidential Space) umfasst, umfasst die Vertrauensgrenze nur das Gastbetriebssystem und die Anwendung. In einer Google Cloud-Umgebung mit Confidential Space ist die Vertrauensgrenze nur die Anwendung und der zugehörige Speicherbereich. In der folgenden Tabelle sehen Sie, wie die Vertrauensgrenze durch Confidential Computing und Confidential Space verringert wird.
Elemente | Innerhalb der Vertrauensgrenze ohne Confidential Computing | Innerhalb der Vertrauensgrenze bei Verwendung von Confidential Computing | Innerhalb der Vertrauensgrenze bei Verwendung von Confidential Space |
---|---|---|---|
Cloud-Stack und Administratoren |
Ja |
Nein |
Nein |
BIOS und Firmware |
Ja |
Nein |
Nein |
Hostbetriebssystem und Hypervisor |
Ja |
Nein |
Nein |
VM-Gastadministrator |
Ja |
Ja |
Nein |
VM-Gastbetriebssystem |
Ja |
Ja |
Ja, gemessen und attestiert |
Anwendungen |
Ja |
Ja |
Ja, gemessen und attestiert |
Vertrauliche Daten |
Ja |
Ja |
Ja |
Mit Confidential Space wird ein sicherer Bereich in einer VM erstellt, um ein Höchstmaß an Isolation und Schutz für sensible Daten und Anwendungen zu bieten. Die wichtigsten Sicherheitsvorteile von Confidential Space sind:
- Gestaffelte Sicherheitsebenen:Bietet eine zusätzliche Sicherheitsebene zusätzlich zu den vorhandenen Technologien für vertrauliches Computing.
- Reduzierte Angriffsfläche:Anwendungen werden von potenziellen Sicherheitslücken im Gastbetriebssystem isoliert.
- Mehr Kontrolle: Ermöglicht eine detaillierte Steuerung von Zugriff und Berechtigungen in der sicheren Umgebung.
- Höheres Vertrauen:Bietet eine höhere Gewährleistung der Vertraulichkeit und Integrität von Daten.
Confidential Space wurde für die Verarbeitung hochsensibler Arbeitslasten entwickelt, insbesondere in regulierten Branchen oder Szenarien mit mehreren Parteien, in denen Datenschutz von größter Bedeutung ist.
Architekturreferenzen für vertrauliche Analysen, KI und föderiertes Lernen
Sie können Confidential Computing auf Google Cloud implementieren, um die folgenden Anwendungsfälle zu berücksichtigen:
- Vertrauliche Analysen
- Vertrauliche KI
- Vertrauliches föderiertes Lernen
In den folgenden Abschnitten finden Sie weitere Informationen zur Architektur für diese Anwendungsfälle, einschließlich Beispielen für Finanz- und Gesundheitsunternehmen.
Architektur für vertrauliche Analysen für Gesundheitseinrichtungen
Die Architektur für vertrauliche Analysen zeigt, wie mehrere Gesundheitseinrichtungen (z. B. Anbieter, biopharmazeutische und Forschungseinrichtungen) zusammenarbeiten können, um die Arzneimittelforschung zu beschleunigen. Bei dieser Architektur werden Confidential Computing-Techniken verwendet, um einen digitalen Cleanroom für vertrauliche kollaborative Analysen zu erstellen.
Diese Architektur bietet folgende Vorteile:
- Bessere Statistiken: Durch die gemeinsame Analyse können Gesundheitsorganisationen umfassendere Statistiken erhalten und die Markteinführungszeit für die Entwicklung neuer Medikamente verkürzen.
- Datenschutz:Sensible Transaktionsdaten bleiben verschlüsselt und werden niemals anderen Teilnehmern oder dem TEE offengelegt, um die Vertraulichkeit zu gewährleisten.
- Compliance mit gesetzlichen Vorschriften:Die Architektur hilft Gesundheitseinrichtungen, Datenschutzbestimmungen einzuhalten, indem sie die Daten streng kontrollieren.
- Vertrauen und Zusammenarbeit:Die Architektur ermöglicht eine sichere Zusammenarbeit zwischen konkurrierenden Einrichtungen und fördert gemeinsame Bemühungen zur Entwicklung von Medikamenten.
Das folgende Diagramm zeigt diese Architektur.
Die wichtigsten Komponenten dieser Architektur sind:
- TEE-OLAP-Aggregationsserver:Eine sichere, isolierte Umgebung, in der das Training und die Inferenz von Modellen für maschinelles Lernen stattfinden. Daten und Code innerhalb der TEE sind vor unbefugtem Zugriff geschützt, auch vor dem zugrunde liegenden Betriebssystem oder Cloud-Anbieter.
- Zusammenarbeitspartner:Jede teilnehmende Gesundheitseinrichtung hat eine lokale Umgebung, die als Vermittler zwischen den privaten Daten der Einrichtung und der TEE fungiert.
- Anbieterspezifische verschlüsselte Daten:Jede Gesundheitseinrichtung speichert ihre eigenen privaten, verschlüsselten Patientendaten, einschließlich elektronischer Patientenakten. Diese Daten bleiben während des Analyseprozesses verschlüsselt, was den Datenschutz gewährleistet. Die Daten werden erst an das TEE freigegeben, nachdem die Attestierungsansprüche der einzelnen Anbieter validiert wurden.
- Analytics-Client:Teilnehmende Gesundheitseinrichtungen können vertrauliche Abfragen für ihre Daten ausführen, um sofort Erkenntnisse zu gewinnen.
Architektur für vertrauliche KI für Finanzinstitute
Dieses Architekturmuster zeigt, wie Finanzinstitute gemeinsam ein Betrugserkennungsmodell trainieren können, während sie Betrugs-Labels verwenden, um die Vertraulichkeit ihrer sensiblen Transaktionsdaten zu wahren. Die Architektur nutzt Confidential Computing-Techniken, um sicheres Machine Learning mit mehreren Parteien zu ermöglichen.
Diese Architektur bietet folgende Vorteile:
- Verbesserte Betrugserkennung:Beim kollaborativen Training wird ein größerer, vielfältigerer Datensatz verwendet, was zu einem genaueren und effektiveren Modell für die Betrugserkennung führt.
- Datenschutz:Sensible Transaktionsdaten bleiben verschlüsselt und werden niemals anderen Teilnehmern oder dem TEE offengelegt, um die Vertraulichkeit zu gewährleisten.
- Einhaltung von Vorschriften:Die Architektur hilft Finanzinstituten, Datenschutzbestimmungen einzuhalten, indem sie die Daten streng kontrollieren.
- Vertrauen und Zusammenarbeit:Diese Architektur ermöglicht eine sichere Zusammenarbeit zwischen konkurrierenden Einrichtungen und fördert gemeinsame Bemühungen zur Bekämpfung von Finanzbetrug.
Das folgende Diagramm zeigt diese Architektur.
Die wichtigsten Komponenten dieser Architektur sind:
- TEE-OLAP-Aggregationsserver:Eine sichere, isolierte Umgebung, in der das Training und die Inferenz von Modellen für maschinelles Lernen stattfinden. Daten und Code innerhalb der TEE sind vor unbefugtem Zugriff geschützt, auch vor dem zugrunde liegenden Betriebssystem oder Cloud-Anbieter.
- TEE-Modelltraining:Das globale Betrugsbasismodell wird als Container verpackt, um das ML-Training auszuführen. Im TEE wird das globale Modell mit den verschlüsselten Daten aller teilnehmenden Banken weiter trainiert. Beim Training werden Techniken wie föderiertes Lernen oder sichere Mehrparteienberechnung eingesetzt, um sicherzustellen, dass keine Rohdaten offengelegt werden.
- Collaborator-Partner:Jedes teilnehmende Finanzinstitut hat eine lokale Umgebung, die als Vermittler zwischen den privaten Daten des Instituts und der TEE fungiert.
- Bankenspezifische verschlüsselte Daten:Jede Bank verfügt über eigene private, verschlüsselte Transaktionsdaten, die Betrugskennzeichnungen enthalten. Diese Daten bleiben während des gesamten Prozesses verschlüsselt, um den Datenschutz zu gewährleisten. Die Daten werden erst an die TEE weitergegeben, nachdem die Attestierungsansprüche der einzelnen Banken validiert wurden.
- Modellrepository:Ein vortrainiertes Modell zur Betrugserkennung, das als Ausgangspunkt für das gemeinsame Training dient.
- Globales, mit Betrugsdaten trainiertes Modell und Gewichte (grüne Linie): Das verbesserte Betrugserkennungsmodell wird zusammen mit den gelernten Gewichten sicher an die teilnehmenden Banken zurückgegeben. Anschließend können sie dieses optimierte Modell lokal für die Betrugserkennung bei ihren eigenen Transaktionen bereitstellen.
Vertrauliche Architektur für föderiertes Lernen für Finanzinstitute
Federated Learning ist eine fortschrittliche Lösung für Kunden, die Wert auf strengen Datenschutz und Datensouveränität legen. Die Architektur für vertrauliches föderiertes Lernen bietet eine sichere, skalierbare und effiziente Möglichkeit, Daten für KI-Anwendungen zu nutzen. Bei dieser Architektur werden die Modelle an den Ort gebracht, an dem die Daten gespeichert sind, anstatt die Daten an einem zentralen Ort zu speichern. Dadurch werden die Risiken im Zusammenhang mit Datenlecks verringert.
Dieses Architekturmuster zeigt, wie mehrere Finanzinstitute gemeinsam ein Betrugserkennungsmodell trainieren können, ohne die Vertraulichkeit ihrer sensiblen Transaktionsdaten mit Betrugslabels zu gefährden. Es nutzt föderiertes Lernen in Kombination mit vertraulichen Computertechniken, um sicheres, mehrseitiges maschinelles Lernen ohne Übertragung von Trainingsdaten zu ermöglichen.
Diese Architektur bietet folgende Vorteile:
- Verbesserter Datenschutz und verbesserte Sicherheit:Föderiertes Lernen ermöglicht Datenschutz und Datenlokalität, da sensible Daten an jedem Standort verbleiben. Außerdem können Finanzinstitute datenschutzfreundliche Verfahren wie homomorphe Verschlüsselung und Differential Privacy-Filter verwenden, um übertragene Daten (z. B. die Modellgewichte) zusätzlich zu schützen.
- Höhere Genauigkeit und Vielfalt:Durch das Training mit einer Vielzahl von Datenquellen bei verschiedenen Kunden können Finanzinstitute ein robustes und verallgemeinerbares globales Modell entwickeln, um heterogene Datasets besser darzustellen.
- Skalierbarkeit und Netzwerkeffizienz:Da das Training am Edge durchgeführt werden kann, können Bildungseinrichtungen föderiertes Lernen weltweit skalieren. Außerdem müssen Institutionen nur die Modellgewichte und nicht ganze Datasets übertragen, was eine effiziente Nutzung von Netzwerkressourcen ermöglicht.
Das folgende Diagramm zeigt diese Architektur.
Die wichtigsten Komponenten dieser Architektur sind:
- Föderierter Server im TEE-Cluster:Eine sichere, isolierte Umgebung, in der der Server für föderiertes Lernen die Zusammenarbeit mehrerer Clients koordiniert, indem er zuerst ein erstes Modell an die Clients für föderiertes Lernen sendet. Die Clients führen das Training mit ihren lokalen Datasets durch und senden die Modellaktualisierungen dann zur Aggregation an den Server für föderiertes Lernen, um ein globales Modell zu erstellen.
- Repository für Modelle für föderiertes Lernen:Ein vortrainiertes Modell zur Betrugserkennung, das als Ausgangspunkt für das föderierte Lernen dient.
- Lokale Inferenz-Engine für Anwendungen:Eine Anwendung, die Aufgaben ausführt, lokale Berechnungen und Lernvorgänge mit lokalen Datasets durchführt und Ergebnisse zur sicheren Aggregation an den Server für föderiertes Lernen zurücksendet.
- Lokale private Daten:Jede Bank verfügt über eigene private, verschlüsselte Transaktionsdaten, die Betrugs-Labels enthalten. Diese Daten bleiben während des gesamten Prozesses verschlüsselt, um den Datenschutz zu gewährleisten.
- Sicheres Aggregationsprotokoll (symbolisiert durch die blaue gepunktete Linie): Der Server für föderiertes Lernen muss nicht auf die Aktualisierung einer einzelnen Bank zugreifen, um das Modell zu trainieren. Er benötigt nur die elementweisen gewichteten Durchschnittswerte der Aktualisierungsvektoren, die aus einer zufälligen Teilmenge von Banken oder Websites stammen. Die Verwendung eines sicheren Aggregationsprotokolls zur Berechnung dieser gewichteten Durchschnittswerte trägt dazu bei, dass der Server nur erfährt, dass eine oder mehrere Banken in dieser zufällig ausgewählten Teilmenge ein bestimmtes Wort geschrieben haben, aber nicht welche Banken. So wird die Privatsphäre jedes Teilnehmers am föderierten Lernprozess geschützt.
- Globales, auf Betrug trainiertes Modell und aggregierte Gewichte (grüne Linie): Das verbesserte Betrugserkennungsmodell wird zusammen mit den gelernten Gewichten sicher an die teilnehmenden Banken zurückgesendet. Die Banken können dieses optimierte Modell dann lokal für die Betrugserkennung bei ihren eigenen Transaktionen bereitstellen.
Nächste Schritte
Confidential AI: Intel seeks to overcome AI's data protection problem lesen
Das ist neu bei Confidential Computing (YouTube)
Implementieren Sie Confidential Computing und Confidential Space in Ihrer Umgebung.
Weitere Informationen zu den Grundlagen von Confidential Computing aufGoogle Cloud.
Weitere Informationen zum Aktivieren von privater generativer KI
Beitragende
- Arun Santhanagopalan | Head of Technology and Incubation, Google Cloud
- Pablo Rodriguez | Technical Director, Office of CTO
- Vineet Dave | Head of Technology and Incubation, Google Cloud