Dieses Dokument bietet einen allgemeinen Überblick über Confidential Computing, einschließlich der Verwendung von Confidential Computing für eine sichere Zusammenarbeit, das Trainieren von KI-Modellen und föderiertes Lernen. Das Dokument enthält auch Informationen zu den Confidential Computing-Diensten inGoogle Cloud sowie Architekturreferenzen für verschiedene Anwendungsfälle.
Dieses Dokument soll Führungskräften im Technologiebereich helfen, das Geschäftspotenzial von Confidential Computing mit generativer KI und angewandter KI in verschiedenen Branchen wie dem Finanzdienstleistungssektor und dem Gesundheitswesen zu verstehen.
Was ist Confidential Computing?
Bei Datensicherheitsmaßnahmen geht es seit jeher darum, ruhende Daten und Daten bei der Übertragung durch Verschlüsselung zu schützen. Confidential Computing bietet eine neue Schutzebene, da es die Sicherheitslücke von Daten während ihrer aktiven Nutzung beseitigt. Diese Technologie sorgt dafür, dass vertrauliche Informationen selbst während der Verarbeitung vertraulich bleiben, und trägt so dazu bei, eine kritische Lücke in der Datensicherheit zu schließen.
In einer vertraulichen Rechenumgebung werden aktive Daten mit einer hardwarebasierten vertrauenswürdigen Ausführungsumgebung (Trusted Execution Environment, TEE) geschützt. Ein TEE ist ein sicherer Bereich innerhalb eines Prozessors, der die Vertraulichkeit und Integrität von Code und darin geladenen Daten schützt. TEE bietet einen sicheren Raum für sensible Vorgänge, wodurch das Risiko für Daten minimiert wird, selbst wenn das System gehackt wurde. Mit dem Confidential Computing können Daten während der Verarbeitung verschlüsselt im Arbeitsspeicher aufbewahrt werden.
Sie können beispielsweise Confidential Computing für Datenanalysen und maschinelles Lernen verwenden, um Folgendes zu erreichen:
- Verbesserter Datenschutz:Sie können sensible Datasets (z. B. medizinische oder Finanzdaten) analysieren, ohne die Daten der zugrunde liegenden Infrastruktur oder den an der Berechnung beteiligten Parteien offenzulegen.
- Sichere Zusammenarbeit: Trainieren Sie gemeinsam Modelle für maschinelles Lernen oder analysieren Sie die kombinierten Datasets mehrerer Parteien, ohne einander individuelle Daten preiszugeben. Confidential Computing fördert Vertrauen und ermöglicht die Entwicklung robusterer und generalisierbarer Modelle, insbesondere in Bereichen wie dem Gesundheitswesen und dem Finanzwesen.
- Verbesserte Datensicherheit:Reduzieren Sie das Risiko von Datenpannen und unbefugtem Zugriff und stellen Sie so die Einhaltung von Datenschutzbestimmungen wie der EU-Datenschutz-Grundverordnung (DSGVO) oder dem US-Gesetz zur Übertragbarkeit von Krankenversicherungen und Verantwortlichkeit von Versicherern (Health Insurance Portability and Accountability Act, HIPAA) sicher.
- Mehr Vertrauen und Transparenz:Sie müssen einen nachweisbaren Nachweis dafür erbringen, dass Berechnungen mit den beabsichtigten Daten in einer sicheren Umgebung durchgeführt werden, wodurch das Vertrauen zwischen den Beteiligten gestärkt wird.
Funktionsweise einer vertraulichen Computing-Umgebung
Confidential Computing-Umgebungen haben die folgenden Eigenschaften:
- Laufzeitverschlüsselung:Der Prozessor sorgt dafür, dass alle vertraulichen Daten der Rechenumgebung im Arbeitsspeicher verschlüsselt sind. Systemkomponenten oder Hardware-Angreifer, die versuchen, vertrauliche Daten zur Rechenumgebung direkt aus dem Speicher zu lesen, sehen nur verschlüsselte Daten. Ebenso verhindert die Verschlüsselung die Änderung vertraulicher Daten zur Rechenumgebung durch direkten Zugriff auf den Arbeitsspeicher.
- Isolation:Der Prozessor blockiert den softwarebasierten Zugriff auf die vertrauliche Rechenumgebung. Das Betriebssystem und andere Anwendungen können nur über bestimmte Schnittstellen mit der vertraulichen Rechenumgebung kommunizieren.
Attestierung: Im Zusammenhang mit Confidential Computing überprüft die Attestierung die Vertrauenswürdigkeit der vertraulichen Computing-Umgebung. Mithilfe der Attestierung können Nutzer den Nachweis dafür sehen, dass Confidential Computing ihre Daten schützt, da Sie damit die TEE-Instanz authentifizieren können.
Während des Attestierungsprozesses erstellt der CPU-Chip, der das TEE unterstützt, einen kryptografisch signierten Bericht (bekannt als Attestierungsbericht) über die Messung der Instanz. Die Messung wird dann an einen Attestierungsdienst gesendet. Mit einer Attestierung für die Prozessisolation wird eine Anwendung authentifiziert. Eine Attestierung für die VM-Isolierung authentifiziert eine VM, die virtuelle Firmware, die zum Starten der VM verwendet wird, oder beides.
Sicherheit des Datenlebenszyklus:Confidential Computing erstellt eine sichere Verarbeitungsumgebung und bietet hardwaregestützten Schutz für aktive Daten.
Confidential Computing-Technologie
Die folgenden Technologien ermöglichen Confidential Computing:
- Sichere Enklaven, auch als anwendungsbasiertes Confidential Computing bezeichnet
- Confidential VMs und GPUs, auch als VM-basiertes Confidential Computing bezeichnet
Google Cloud verwendet Confidential VM, um Confidential Computing zu aktivieren. Weitere Informationen finden Sie unter Confidential Computing aufGoogle Cloudimplementieren.
Sichere Enklaven
Eine sichere Enklave ist eine Rechenumgebung, die Code und Daten vom Betriebssystem durch hardwarebasierte Isolation isoliert oder eine gesamte VM isoliert, indem der Hypervisor in der Trusted Computing Base (TCB) platziert wird. Sichere Enklaven sind so konzipiert, dass selbst Nutzer mit physischem oder Root-Zugriff auf die Maschinen und das Betriebssystem nicht den Inhalt des sicheren Enclave-Speichers lernen oder die Codeausführung in der Enklave manipulieren können. Ein Beispiel für eine sichere Enklave ist die Intel Software Guard Extension (SGX).
Confidential VMs und Confidential GPUs
Eine Confidential VM ist eine Art von VM, die eine hardwarebasierte Speicherverschlüsselung verwendet, um Daten und Anwendungen zu schützen. Confidential VM bietet Isolation und Attestierung, um die Sicherheit zu verbessern. Zu den Confidential VM-Computing-Technologien gehören AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE und Nvidia Confidential GPU.
Confidential GPUs tragen zum Schutz von Daten und zum Beschleunigen der Datenverarbeitung bei, insbesondere in Cloud- und gemeinsam genutzten Umgebungen. Sie verwenden hardwarebasierte Verschlüsselungs- und Isolationstechniken, um Daten zu schützen, während sie auf der GPU verarbeitet werden. So sorgen sie dafür, dass selbst der Cloud-Anbieter oder böswillige Akteure nicht auf vertrauliche Informationen zugreifen können.
Anwendungsfälle für vertrauliche Datenanalysen, KI und föderiertes Lernen
Die folgenden Abschnitte enthalten Beispiele für Confidential Computing-Anwendungsfälle für verschiedene Branchen.
Gesundheitswesen und Biowissenschaften
Confidential Computing ermöglicht den sicheren Austausch und die Analyse von Daten innerhalb von Organisationen unter Wahrung der Privatsphäre der Patienten. Mit Confidential Computing können Organisationen des Gesundheitswesens an kollaborativer Forschung, Krankheitsmodellierung, Arzneimittelforschung und personalisierten Behandlungsplänen teilnehmen.
In der folgenden Tabelle werden einige Anwendungsbeispiele für Confidential Computing im Gesundheitswesen beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Krankheitsprognose und Früherkennung |
Krankenhäuser trainieren ein Modell für föderiertes Lernen, um Krebsläsionen aus medizinischen Bildgebungsdaten zu erkennen (z. B. MRT- oder CT-Scans in mehreren Krankenhäusern oder Krankenhausregionen), wobei die Vertraulichkeit der Patienten gewahrt bleibt. |
Patientenüberwachung in Echtzeit |
Gesundheitsdienstleister analysieren Daten von am Körper tragbaren Gesundheitsgeräten und mobilen Gesundheits-Apps, um Daten in Echtzeit zu überwachen und Warnungen zu erhalten. Am Körper tragbare Geräte erfassen beispielsweise Daten zum Blutzuckerspiegel, zu körperlicher Aktivität und zu Ernährungsgewohnheiten, um personalisierte Empfehlungen und Frühwarnungen vor Schwankungen des Blutzuckerspiegels bereitzustellen. |
Kollaborative Arzneimittelforschung |
Pharmaunternehmen trainieren Modelle anhand proprietärer Datasets, um die Wirkstoffsuche zu beschleunigen, die Zusammenarbeit zu verbessern und gleichzeitig geistiges Eigentum zu schützen. |
Finanzdienstleistungen
Confidential Computing ermöglicht es Finanzinstituten, ein sichereres und robusteres Finanzsystem aufzubauen.
In der folgenden Tabelle werden einige Anwendungsbeispiele für Confidential Computing in Finanzdienstleistungen beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Finanzkriminalität |
Finanzinstitute können bei der Bekämpfung von Geldwäsche oder allgemeinen Betrugsmodellen zusammenarbeiten, indem sie Informationen über verdächtige Transaktionen teilen und gleichzeitig die Privatsphäre der Kunden schützen. Mit Confidential Computing können Institutionen diese freigegebenen Daten auf sichere Weise analysieren und die Modelle trainieren, um komplexe Geldwäscheprogramme effektiver zu identifizieren und zu stören. |
Datenschutzfreundliche Kreditrisikobewertung |
Kreditgeber können das Kreditrisiko mithilfe einer breiteren Palette von Datenquellen bewerten, einschließlich Daten von anderen Finanzinstituten oder auch Nicht-Finanzinstituten. Mit Confidential Computing können Kreditgeber auf diese Daten zugreifen und sie analysieren, ohne sie nicht autorisierten Dritten zugänglich zu machen. Dadurch wird die Genauigkeit der Kreditbewertungsmodelle verbessert und gleichzeitig der Datenschutz gewährleistet. |
Datenschutzfreundliche Preisgestaltung |
In der Finanzwelt, insbesondere in Bereichen wie rezeptfreie Märkte oder illiquiden Vermögenswerte, ist eine genaue Preisgestaltung entscheidend. Mit Confidential Computing können mehrere Institutionen gemeinsam genaue Preise berechnen, ohne ihre sensiblen Daten preiszugeben. |
Öffentlicher Sektor
Mit Confidential Computing können Behörden transparentere, effizientere und effektivere Dienste erstellen und dabei die Kontrolle und Souveränität über ihre Daten behalten.
In der folgenden Tabelle werden einige Anwendungsbeispiele für Confidential Computing im öffentlichen Sektor beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Digitale Datenhoheit |
Confidential Computing stellt sicher, dass Daten auch während der Verarbeitung immer verschlüsselt sind. Es ermöglicht die sichere Migration von Bürgerdaten in die Cloud, wobei die Daten auch beim Hosten in einer externen Infrastruktur in Hybrid-, öffentlichen oder Multi-Cloud-Umgebungen geschützt werden. Confidential Computing unterstützt und unterstützt die digitale Souveränität und digitale Autonomie mit zusätzlicher Datenkontrolle und ‐schutz für die aktiven Daten, sodass der Cloud-Anbieter auf Verschlüsselungsschlüssel nicht zugreifen kann. |
Vertrauliche Analysen für mehrere Agenturen |
Confidential Computing ermöglicht die Analyse von Daten mehrerer Parteien über mehrere Behörden (z. B. Gesundheit, Steuern und Bildung) oder mehrere Regierungen in verschiedenen Regionen oder Ländern hinweg. Confidential Computing trägt dazu bei, dass Vertrauensgrenzen und Datenschutz geschützt werden. Gleichzeitig werden Datenanalysen (mithilfe des Schutzes vor Datenverlust (Data Loss Prevention, DLP), umfangreiche Analysen und Richtlinien-Engines) sowie das Trainieren und Bereitstellen von KI ermöglicht. |
Vertrauenswürdige KI |
Behördliche Daten sind wichtig und können verwendet werden, um private KI-Modelle auf vertrauenswürdige Weise zu trainieren, um interne Dienste sowie die Interaktion mit Bürgern zu verbessern. Confidential Computing ermöglicht vertrauenswürdige KI-Frameworks mit Confidential Prompts oder RAG-Training (Confidential Retrieval Augmented Generation), um Bürgerdaten und Modelle privat und sicher zu halten. |
Lieferkette
Mit Confidential Computing können Organisationen ihre Lieferkette und Nachhaltigkeit verwalten und dabei zusammenarbeiten und Informationen austauschen, während der Datenschutz gewährleistet bleibt.
In der folgenden Tabelle werden einige Anwendungsbeispiele für Confidential Computing in Lieferketten beschrieben.
Anwendungsfall | Beschreibung |
---|---|
Nachfrageprognose und Inventaroptimierung |
Mit Confidential Computing trainiert jedes Unternehmen sein eigenes Nachfrageprognosemodell anhand seiner eigenen Verkaufs- und Inventardaten. Diese Modelle werden dann sicher zu einem globalen Modell aggregiert und liefern so eine genauere und ganzheitliche Ansicht der Nachfragemuster in der gesamten Lieferkette. |
Datenschutzfreundliche Risikobewertung für Lieferanten |
Jede an der Risikobewertung von Zulieferern beteiligte Organisation (z. B. Käufer, Finanzinstitute und Auditoren) trainiert ihr eigenes Risikobewertungsmodell mit ihren eigenen Daten. Diese Modelle werden aggregiert, um ein umfassendes und datenschutzfreundliches Lieferantenrisikoprofil zu erstellen. Dadurch können potenzielle Lieferantenrisiken frühzeitig identifiziert, die Resilienz der Lieferkette verbessert und die Entscheidungsfindung bei der Auswahl und Verwaltung von Lieferanten optimiert werden. |
Tracking und Reduzierung der CO2-Bilanz |
Confidential Computing bietet eine Lösung, um die Herausforderungen des Datenschutzes und der Transparenz bei der Verfolgung und Reduzierung der CO2-Bilanz zu meistern. Mit Confidential Computing können Unternehmen Daten teilen und analysieren, ohne ihre Rohform preiszugeben. So können sie fundierte Entscheidungen treffen und effektive Maßnahmen für eine nachhaltigere Zukunft ergreifen. |
Digitale Werbung
Bei digitaler Werbung werden keine Drittanbieter-Cookies mehr verwendet. Stattdessen werden datenschutzfreundlichere Alternativen wie die Privacy Sandbox eingesetzt. Die Privacy Sandbox unterstützt kritische Anwendungsfälle für Werbung und schränkt dabei das website- und appübergreifende Tracking ein. Privacy Sandbox nutzt TEEs, um eine sichere Verarbeitung der Nutzerdaten durch Werbeagenturen zu gewährleisten.
Sie können TEEs in den folgenden Anwendungsfällen für digitale Werbung verwenden:
- Abgleichalgorithmen:Suchen von Übereinstimmungen oder Beziehungen in Datasets.
- Attribution:Verknüpfen Sie Auswirkungen oder Ereignisse mit ihrer wahrscheinlichen Ursache.
- Aggregation:Zusammenfassungen oder Statistiken aus den Rohdaten berechnen
Confidential Computing auf Google Cloudimplementieren
Google Cloud umfasst die folgenden Dienste, die Confidential Computing ermöglichen:
- Confidential VM: Verschlüsselung der verwendeten Daten für Arbeitslasten aktivieren, die VMs verwenden
- Confidential GKE:Verschlüsselung von aktiven Daten für Arbeitslasten aktivieren, die Container verwenden
- Confidential Dataflow:Verschlüsselung der verwendeten Daten für Streaminganalysen und maschinelles Lernen aktivieren
- Confidential Dataproc: Verschlüsselung der für die Datenverarbeitung verwendeten Daten aktivieren
- Confidential Space:Verschlüsselung von aktiven Daten für gemeinsame Datenanalyse und maschinelles Lernen ermöglichen
Mit diesen Diensten können Sie Ihre Vertrauensgrenze reduzieren, sodass weniger Ressourcen Zugriff auf Ihre vertraulichen Daten haben. In einer Google Cloud-Umgebung ohne Confidential Computing umfasst die Vertrauensgrenze beispielsweise dieGoogle Cloud -Infrastruktur (Hardware, Hypervisor und Hostbetriebssystem) und das Gastbetriebssystem. In einer Google Cloud -Umgebung, die Confidential Computing (ohne Confidential Space) enthält, umfasst die Vertrauensgrenze nur das Gastbetriebssystem und die Anwendung. In einer Google Cloud-Umgebung mit Confidential Space besteht die Vertrauensgrenze nur aus der Anwendung und dem zugehörigen Arbeitsspeicher. Die folgende Tabelle zeigt, wie die Vertrauensgrenze mit Confidential Computing und Confidential Space reduziert wird.
Elemente | Innerhalb der Vertrauensgrenze ohne Verwendung von Confidential Computing | Innerhalb der Vertrauensgrenze bei Verwendung von Confidential Computing | Innerhalb der Vertrauensgrenze bei der Verwendung von Confidential Space |
---|---|---|---|
Cloud-Stack und Administratoren |
Ja |
Nein |
Nein |
BIOS und Firmware |
Ja |
Nein |
Nein |
Hostbetriebssystem und Hypervisor |
Ja |
Nein |
Nein |
VM-Gastadministrator |
Ja |
Ja |
Nein |
VM-Gastbetriebssystem |
Ja |
Ja |
Ja, gemessen und attestiert |
Anwendungen |
Ja |
Ja |
Ja, gemessen und attestiert |
Vertrauliche Daten |
Ja |
Ja |
Ja |
Confidential Space erstellt einen sicheren Bereich innerhalb einer VM, um ein maximales Maß an Isolation und Schutz für sensible Daten und Anwendungen zu bieten. Zu den wichtigsten Sicherheitsvorteilen von Confidential Space gehören:
- Defense in Depth: Ergänzt die vorhandenen Confidential Computing-Technologien um eine zusätzliche Sicherheitsebene.
- Reduzierte Angriffsfläche:Anwendungen werden von potenziellen Sicherheitslücken im Gastbetriebssystem isoliert.
- Erweiterte Kontrolle:Bietet detaillierte Kontrolle über den Zugriff und die Berechtigungen in der sicheren Umgebung.
- Stärkeres Vertrauen:Bietet eine höhere Sicherheit für die Vertraulichkeit und Integrität von Daten.
Confidential Space wurde für die Verarbeitung hochsensibler Arbeitslasten entwickelt. Dies gilt insbesondere für regulierte Branchen oder Szenarien mit Mehrparteien-Zusammenarbeit, in denen Datenschutz oberste Priorität hat.
Architekturreferenzen für vertrauliche Analysen, KI und föderiertes Lernen
Für die folgenden Anwendungsfälle können Sie Confidential Computing auf Google Cloud implementieren:
- Confidential Analytics
- Confidential AI
- Confidential föderiertes Lernen
In den folgenden Abschnitten finden Sie weitere Informationen zur Architektur für diese Anwendungsfälle, einschließlich Beispielen für Finanz- und Gesundheitsunternehmen.
Confidential Analytics-Architektur für Gesundheitseinrichtungen
Die vertrauliche Analysearchitektur zeigt, wie mehrere Gesundheitseinrichtungen (z. B. Anbieter, biopharmazeutische und Forschungseinrichtungen) zusammenarbeiten können, um die Arzneimittelforschung zu beschleunigen. Diese Architektur verwendet Confidential Computing-Techniken, um einen digitalen Data-Clean-Room für die Ausführung vertraulicher kollaborativer Analysen zu schaffen.
Diese Architektur bietet folgende Vorteile:
- Erweiterte Erkenntnisse: Durch kollaborative Analysen können Gesundheitseinrichtungen umfassendere Informationen gewinnen und die Produkteinführungszeit für eine verbesserte Arzneimittelforschung verkürzen.
- Datenschutz: Sensible Transaktionsdaten bleiben verschlüsselt und werden niemals anderen Teilnehmern oder dem TEE zugänglich gemacht, um die Vertraulichkeit zu gewährleisten.
- Einhaltung gesetzlicher Vorgaben:Die Architektur hilft Gesundheitseinrichtungen bei der Einhaltung von Datenschutzbestimmungen, da sie eine strenge Kontrolle über ihre Daten wahrt.
- Vertrauen und Zusammenarbeit: Die Architektur ermöglicht eine sichere Zusammenarbeit zwischen konkurrierenden Einrichtungen und fördert die gemeinsame Bemühungen bei der Erkennung von Arzneimitteln.
Das folgende Diagramm zeigt diese Architektur.
Diese Architektur umfasst die folgenden Hauptkomponenten:
- TEE OLAP-Aggregationsserver: Eine sichere, isolierte Umgebung, in der das Modelltraining für maschinelles Lernen und die Inferenz stattfinden. Daten und Code innerhalb des TEE sind vor unbefugtem Zugriff geschützt, auch durch das zugrunde liegende Betriebssystem oder den Cloud-Anbieter.
- Zusammenarbeitspartner:Jede teilnehmende Gesundheitseinrichtung hat eine lokale Umgebung, die als Vermittler zwischen den privaten Daten der Einrichtung und dem TEE fungiert.
- Anbieterspezifische verschlüsselte Daten:Jede Einrichtung im Gesundheitswesen speichert eigene private, verschlüsselte Patientendaten, darunter auch elektronische Gesundheitsdaten. Diese Daten bleiben während des Analyseprozesses verschlüsselt, um den Datenschutz zu gewährleisten. Die Daten werden erst für das TEE freigegeben, nachdem die Bescheinigungsanforderungen der einzelnen Anbieter überprüft wurden.
- Analytics-Client:Teilnehmende Gesundheitseinrichtungen können ihre Daten vertraulich abfragen, um sofortige Erkenntnisse zu gewinnen.
Confidential AI-Architektur für Finanzinstitute
Dieses Architekturmuster zeigt, wie Finanzinstitute gemeinsam ein Betrugserkennungsmodell trainieren und gleichzeitig Betrugslabels verwenden können, um die Vertraulichkeit ihrer sensiblen Transaktionsdaten zu wahren. Die Architektur verwendet Confidential Computing-Techniken, um sicheres maschinelles Lernen durch mehrere Parteien zu ermöglichen.
Diese Architektur bietet folgende Vorteile:
- Verbesserte Betrugserkennung:Beim kollaborativen Training wird ein größeres, vielfältigeres Dataset verwendet, was zu einem genaueren und effektiveren Betrugserkennungsmodell führt.
- Datenschutz: Sensible Transaktionsdaten bleiben verschlüsselt und werden niemals anderen Teilnehmern oder dem TEE zugänglich gemacht, um die Vertraulichkeit zu gewährleisten.
- Einhaltung gesetzlicher Vorschriften:Die Architektur hilft Finanzinstituten bei der Einhaltung von Datenschutzbestimmungen, da sie die strenge Kontrolle über ihre Daten wahrt.
- Vertrauen und Zusammenarbeit: Diese Architektur ermöglicht eine sichere Zusammenarbeit zwischen konkurrierenden Institutionen und fördert gemeinsam die Bekämpfung von Finanzbetrug.
Das folgende Diagramm zeigt diese Architektur.
Zu den Hauptkomponenten dieser Architektur gehören:
- TEE OLAP-Aggregationsserver: Eine sichere, isolierte Umgebung, in der das Modelltraining für maschinelles Lernen und die Inferenz stattfinden. Daten und Code innerhalb des TEE sind vor unbefugtem Zugriff geschützt, auch durch das zugrunde liegende Betriebssystem oder den Cloud-Anbieter.
- TEE-Modelltraining: Das globale Betrugsbasismodell wird als Container zum Ausführen des ML-Trainings verpackt. Innerhalb des TEE wird das globale Modell mit den verschlüsselten Daten aller teilnehmenden Banken weiter trainiert. Der Trainingsprozess setzt Techniken wie föderiertes Lernen oder sichere Mehrparteienberechnung ein, um sicherzustellen, dass keine Rohdaten offengelegt werden.
- Mitbearbeiterpartner:Jedes teilnehmende Finanzinstitut hat eine lokale Umgebung, die als Vermittler zwischen den privaten Daten des Instituts und dem TEE fungiert.
- Bankspezifische verschlüsselte Daten: Jede Bank besitzt ihre eigenen privaten, verschlüsselten Transaktionsdaten, die Betrugslabels enthalten. Diese Daten bleiben während des gesamten Prozesses verschlüsselt, wodurch der Datenschutz gewährleistet wird. Die Daten werden erst an das TEE freigegeben, nachdem die Bescheinigungsansprüche einzelner Banken überprüft wurden.
- Modell-Repository: Ein vortrainiertes Modell zur Betrugserkennung, das als Ausgangspunkt für das gemeinsame Training dient.
- Weltweites, von Betrug trainiertes Modell und Gewichtungen (symbolisiert durch die grüne Linie): Das verbesserte Modell zur Betrugserkennung wird zusammen mit den erlernten Gewichtungen sicher an die teilnehmenden Banken zurückgegeben. Sie können dieses optimierte Modell dann lokal bereitstellen, um die Betrugserkennung bei ihren eigenen Transaktionen zu ermöglichen.
Confidential föderierte Lernarchitektur für Finanzinstitute
Föderiertes Lernen bietet eine fortschrittliche Lösung für Kunden, die Wert auf strengen Datenschutz und strikte Datenhoheit legen. Die vertrauliche Architektur für föderiertes Lernen bietet eine sichere, skalierbare und effiziente Möglichkeit, Daten für KI-Anwendungen zu nutzen. Durch diese Architektur werden die Modelle an den Speicherort gebracht, an dem die Daten gespeichert sind, anstatt die Daten an einem einzigen Ort zu zentralisieren. Dadurch werden die mit Datenlecks verbundenen Risiken minimiert.
Dieses Architekturmuster zeigt, wie mehrere Finanzinstitute gemeinsam ein Betrugserkennungsmodell trainieren und gleichzeitig die Vertraulichkeit ihrer sensiblen Transaktionsdaten mit Betrugslabels wahren. Dabei werden föderiertes Lernen und Confidential Computing-Techniken verwendet, um sicheres maschinelles Lernen durch mehrere Parteien zu ermöglichen, ohne Trainingsdaten verschieben zu müssen.
Diese Architektur bietet folgende Vorteile:
- Verbesserter Datenschutz und mehr Sicherheit:Föderiertes Lernen ermöglicht den Datenschutz und die Datenlokalität, da sichergestellt wird, dass sensible Daten an jedem Standort verbleiben. Darüber hinaus können Finanzinstitute datenschutzfreundliche Techniken wie homomorphe Verschlüsselung und Differential Privacy-Filter anwenden, um übertragene Daten (z. B. Modellgewichtungen) zusätzlich zu schützen.
- Verbesserte Genauigkeit und Vielfalt: Durch das Training mit einer Vielzahl von Datenquellen verschiedener Clients können Finanzinstitute ein robustes und generalisierbares globales Modell entwickeln, um heterogene Datasets besser darzustellen.
- Skalierbarkeit und Netzwerkeffizienz: Da Bildungseinrichtungen das Training auf Edge-Geräten durchführen können, können sie föderiertes Lernen weltweit skalieren. Darüber hinaus müssen Institutionen nur die Modellgewichtungen übertragen und nicht ganze Datasets, was eine effiziente Nutzung von Netzwerkressourcen ermöglicht.
Das folgende Diagramm zeigt diese Architektur.
Zu den Hauptkomponenten dieser Architektur gehören:
- Föderierter Server im TEE-Cluster:Eine sichere, isolierte Umgebung, in der der Server für föderiertes Lernen die Zusammenarbeit mehrerer Clients orchestriert. Dazu sendet er zuerst ein anfängliches Modell an die Clients für föderiertes Lernen. Die Clients führen ein Training für ihre lokalen Datasets durch und senden dann die Modellaktualisierungen zur Aggregation an den föderierten Lernserver zurück, um ein globales Modell zu erstellen.
- Modell-Repository für föderiertes Lernen:Ein vortrainiertes Modell zur Betrugserkennung, das als Ausgangspunkt für föderiertes Lernen dient.
- Lokale Inferenz-Engine für Anwendungen: Eine Anwendung, die Aufgaben ausführt, lokale Berechnungen und Lernvorgänge mit lokalen Datasets durchführt und Ergebnisse zur sicheren Aggregation an den Server für föderiertes Lernen zurücksendet.
- Lokale private Daten:Jede Bank besitzt ihre eigenen privaten, verschlüsselten Transaktionsdaten, die Betrugslabels enthalten. Diese Daten bleiben während des gesamten Prozesses verschlüsselt, wodurch der Datenschutz gewährleistet wird.
- Sicheres Aggregationsprotokoll (symbolisiert durch die gestrichelte blaue Linie): Der Server für föderiertes Lernen muss nicht auf die Aktualisierung einer einzelnen Bank zugreifen, um das Modell zu trainieren. Er erfordert nur die elementweise gewichteten Durchschnitte der Aktualisierungsvektoren, die aus einer zufälligen Teilmenge von Banken oder Standorten entnommen werden. Die Verwendung eines sicheren Aggregationsprotokolls zur Berechnung dieser gewichteten Mittelwerte trägt dazu bei, dass der Server nur lernen kann, dass eine oder mehrere Banken in dieser zufällig ausgewählten Teilmenge ein bestimmtes Wort geschrieben haben, aber nicht welche Banken, wodurch die Privatsphäre aller Teilnehmer im Prozess des föderierten Lernens gewahrt wird.
- Globales, von Betrug trainiertes Modell und aggregierte Gewichtungen (symbolisiert durch die grüne Linie): Das verbesserte Modell zur Betrugserkennung sowie die erlernten Gewichtungen werden sicher an die teilnehmenden Banken zurückgesendet. Die Banken können dieses optimierte Modell dann lokal bereitstellen, um die Betrugserkennung für ihre eigenen Transaktionen zu ermöglichen.
Nächste Schritte
Lesen Sie den Artikel Confidential AI: Intel versucht, das Datenschutzproblem von KI zu überwinden.
Weitere Informationen finden Sie unter Sichere Zusammenarbeit mit mehreren Parteien mit Confidential Computing von Keith Moyer (Google) | OC3 (YouTube) lesen.
Weitere Informationen finden Sie unter Was ist neu beim Confidential Computing? (YouTube)
Confidential Computing und Confidential Space in Ihrer Umgebung implementieren
Weitere Informationen zu den Grundlagen von Confidential Computing aufGoogle Cloud
Weitere Informationen zum Aktivieren von privateren generativer KI.
Beitragende
- Arun Santhanagopalan | Head of Technology and Incubation, Google Cloud
- Pablo Rodriguez | Technical Director, Office of CTO
- Vineet Dave | Head of Technology and Incubation, Google Cloud