KI sicher und verantwortungsvoll einsetzen

Dieses Prinzip der Sicherheitssäule des Google Cloud Well-Architected Framework gibt Empfehlungen zum Schutz Ihrer KI-Systeme. Diese Empfehlungen stimmen mit dem Secure AI Framework (SAIF) von Google überein, das einen praktischen Ansatz zur Bewältigung der Sicherheits- und Risikoaspekte von KI-Systemen bietet. Das SAIF ist ein konzeptionelles Framework, das branchenweite Standards für die verantwortungsvolle Entwicklung und Nutzung von KI-Systemen bieten soll.

Prinzip – Übersicht

Damit Ihre KI-Systeme Ihre Sicherheits-, Datenschutz- und Compliance-Anforderungen erfüllen, müssen Sie eine ganzheitliche Strategie verfolgen, die vom ersten Design bis zur Bereitstellung und zum Betrieb reicht. Sie können diese ganzheitliche Strategie umsetzen, indem Sie die sechs Kernelemente des SAIF anwenden.

Google nutzt KI, um Sicherheitsmaßnahmen zu verbessern, z. B. Bedrohungen zu erkennen, Sicherheitsaufgaben zu automatisieren und Erkennungsfunktionen zu verbessern. Dabei werden Menschen bei wichtigen Entscheidungen einbezogen.

Google setzt auf einen kooperativen Ansatz, um die KI-Sicherheit voranzutreiben. Dabei arbeiten wir mit Kunden, Branchen und Behörden zusammen, um die SAIF-Richtlinien zu verbessern und praktische, umsetzbare Ressourcen anzubieten.

Die Empfehlungen zur Implementierung dieses Prinzips sind in den folgenden Abschnitten gruppiert:

Empfehlungen für die sichere Nutzung von KI

Für die sichere Nutzung von KI sind sowohl grundlegende Sicherheitskontrollen als auch KI-spezifische Sicherheitskontrollen erforderlich. Dieser Abschnitt bietet einen Überblick über Empfehlungen, mit denen Sie dafür sorgen können, dass Ihre KI- und ML-Bereitstellungen die Sicherheits-, Datenschutz- und Compliance-Anforderungen Ihrer Organisation erfüllen. Eine Übersicht über architektonische Prinzipien und Empfehlungen, die speziell für KI- und ML-Arbeitslasten in Google Cloudgelten, finden Sie im Well-Architected Framework unter KI und ML.

Klare Ziele und Anforderungen für die KI-Nutzung definieren

Diese Empfehlung ist für die folgenden Schwerpunkte relevant:

  • Cloud-Governance, -Risiken und -Compliance
  • KI- und ML-Sicherheit

Diese Empfehlung entspricht dem SAIF-Element zur Kontextualisierung von KI-Systemrisiken in den zugehörigen Geschäftsprozessen. Wenn Sie KI-Systeme entwerfen und weiterentwickeln, ist es wichtig, Ihre spezifischen Geschäftsziele, Risiken und Compliance-Anforderungen zu kennen.

Daten schützen und Verlust oder unsachgemäße Handhabung verhindern

Diese Empfehlung ist für die folgenden Schwerpunkte relevant:

  • Sichere Infrastruktur
  • Identitäts- und Zugriffsverwaltung
  • Datensicherheit
  • Anwendungssicherheit
  • KI- und ML-Sicherheit

Diese Empfehlung entspricht den folgenden SAIF-Elementen:

  • Bewährte Sicherheitsgrundlagen auf das KI-Ökosystem ausweiten Dieses Element umfasst die Datenerhebung, -speicherung, Zugriffssteuerung und den Schutz vor Datenmanipulation.
  • Kontextualisierung von KI‑Sicherheitsrisiken Betonen Sie die Datensicherheit, um Geschäftsziele und Compliance zu unterstützen.

KI-Pipelines sicher und manipulationssicher machen

Diese Empfehlung ist für die folgenden Schwerpunkte relevant:

  • Sichere Infrastruktur
  • Identitäts- und Zugriffsverwaltung
  • Datensicherheit
  • Anwendungssicherheit
  • KI- und ML-Sicherheit

Diese Empfehlung entspricht den folgenden SAIF-Elementen:

  • Bewährte Sicherheitsgrundlagen auf das KI-Ökosystem ausweiten Ein wichtiger Schritt zum Aufbau eines sicheren KI-Systems ist der Schutz von Code- und Modellartefakten.
  • Anpassung der Einstellungen für schnellere Feedbackschleifen Es ist wichtig, Ihre Assets und Pipelineausführungen im Blick zu behalten, um Maßnahmen zur Risikobewältigung und Reaktion auf Vorfälle zu ergreifen.

Apps mit sicheren Tools und Artefakten auf sicheren Systemen bereitstellen

Diese Empfehlung ist für die folgenden Schwerpunkte relevant:

  • Sichere Infrastruktur
  • Identitäts- und Zugriffsverwaltung
  • Datensicherheit
  • Anwendungssicherheit
  • KI- und ML-Sicherheit

Die Verwendung sicherer Systeme und validierter Tools und Artefakte in KI-basierten Anwendungen entspricht dem SAIF-Element zur Ausweitung starker Sicherheitsgrundlagen auf das KI-Ökosystem und die Lieferkette. Sie können diese Empfehlung so umsetzen:

Eingaben schützen und überwachen

Diese Empfehlung ist für die folgenden Schwerpunkte relevant:

  • Logging, Auditing und Monitoring
  • Sicherheitsabläufe
  • KI- und ML-Sicherheit

Diese Empfehlung entspricht dem SAIF-Element zur Ausweitung der Erkennung und Reaktion, um KI in das Bedrohungsumfeld eines Unternehmens einzubinden. Um Probleme zu vermeiden, ist es wichtig, Aufforderungen für Generative AI-Systeme zu verwalten, Eingaben zu überwachen und den Nutzerzugriff zu steuern.

Empfehlungen für die KI-Governance

Alle Empfehlungen in diesem Abschnitt sind für den folgenden Fokusbereich relevant: Cloud-Governance, Risiko und Compliance.

Google Cloud bietet eine robuste Auswahl an Tools und Diensten, mit denen Sie verantwortungsvolle und ethische KI-Systeme erstellen können. Wir bieten auch ein Rahmenwerk aus Richtlinien, Verfahren und ethischen Überlegungen, das die Entwicklung, Bereitstellung und Nutzung von KI-Systemen beeinflussen kann.

Wie in unseren Empfehlungen dargelegt, basiert der Ansatz von Google für die KI-Governance auf den folgenden Grundsätzen:

  • Fairness
  • Transparenz
  • Rechenschaftspflicht
  • Datenschutz
  • Sicherheit

Fairness-Indikatoren verwenden

Mit Vertex AI können Sie Verzerrungen während der Datenerhebung oder der Bewertung nach dem Training feststellen. Vertex AI bietet Modellbewertungsmesswerte wie Datenverzerrung und Modellverzerrung, mit denen Sie Ihr Modell auf Verzerrungen bewerten können.

Diese Messwerte beziehen sich auf Fairness in verschiedenen Kategorien wie Rasse, Geschlecht und sozialer Schicht. Die Interpretation statistischer Abweichungen ist jedoch keine einfache Aufgabe, da Unterschiede zwischen Kategorien möglicherweise nicht auf Verzerrungen oder ein Signal für Schäden zurückzuführen sind.

Vertex Explainable AI verwenden

Verwenden Sie Vertex Explainable AI, um zu verstehen, wie die KI-Modelle Entscheidungen treffen. Mit dieser Funktion können Sie potenzielle Verzerrungen erkennen, die in der Logik des Modells verborgen sein könnten.

Dieses Erklärbarkeitsfeature ist in BigQuery ML und Vertex AI eingebunden, die featurebasierte Erklärungen bieten. Sie können entweder Erklärbarkeit in BigQuery ML oder Ihr Modell in Vertex AI registrieren und Erklärbarkeit in Vertex AI vornehmen.

Datenherkunft verfolgen

Ursprung und Transformation von Daten in Ihren KI-Systemen verfolgen Diese Verfolgung hilft Ihnen, den Verlauf der Daten zu verstehen und potenzielle Quellen von Verzerrungen oder Fehlern zu identifizieren.

Die Datenherkunft ist eine Dataplex-Funktion, mit der Sie verfolgen können, wie sich Daten durch Ihre Systeme bewegen – woher sie kommen, wohin sie übergeben werden und welche Transformationen auf sie angewendet werden.

Verantwortlichkeit schaffen

Legen Sie eine klare Verantwortung für die Entwicklung, Bereitstellung und Ergebnisse Ihrer KI-Systeme fest.

Mit Cloud Logging können Sie Schlüsselereignisse und Entscheidungen Ihrer KI-Systeme protokollieren. Die Protokolle dienen als Prüfpfad, mit dem Sie die Leistung des Systems nachvollziehen und Verbesserungsmöglichkeiten erkennen können.

Verwenden Sie Error Reporting, um von den KI-Systemen verursachte Fehler systematisch zu analysieren. Mit dieser Analyse können Muster aufgedeckt werden, die auf zugrunde liegende Verzerrungen oder Bereiche hinweisen, in denen das Modell weiter verfeinert werden muss.

Differential Privacy implementieren

Fügen Sie während des Modelltrainings Rauschen zu den Daten hinzu, um die Identifizierung einzelner Datenpunkte zu erschweren, das Modell aber trotzdem effektiv lernen zu lassen. Mit SQL in BigQuery können Sie die Ergebnisse einer Abfrage mit differenziell privaten Aggregationen transformieren.