Dieses Prinzip im Sicherheitsbereich des Google Cloud Well-Architected Framework enthält Empfehlungen, die Ihnen helfen, Ihre KI-Systeme zu schützen. Diese Empfehlungen entsprechen dem Secure AI Framework (SAIF) von Google, das einen praktischen Ansatz für die Sicherheits- und Risikobedenken von KI‑Systemen bietet. Das SAIF ist ein konzeptionelles Framework, das branchenweite Standards für die verantwortungsvolle Entwicklung und Bereitstellung von KI schaffen soll.
Übersicht über die Grundsätze
Damit Ihre KI-Systeme Ihre Anforderungen an Sicherheit, Datenschutz und Compliance erfüllen, müssen Sie eine ganzheitliche Strategie verfolgen, die mit dem ursprünglichen Design beginnt und sich auf die Bereitstellung und den Betrieb erstreckt. Sie können diese ganzheitliche Strategie umsetzen, indem Sie die sechs zentralen Elemente des SAIF anwenden.
Google nutzt KI, um Sicherheitsmaßnahmen zu verbessern, z. B. durch die Identifizierung von Bedrohungen, die Automatisierung von Sicherheitsaufgaben und die Verbesserung der Erkennungsfunktionen. Bei wichtigen Entscheidungen werden jedoch weiterhin Menschen einbezogen.
Google setzt auf einen kollaborativen Ansatz, um die KI-Sicherheit zu verbessern. Dazu arbeiten wir mit Kunden, Branchen und Regierungen zusammen, um die SAIF-Richtlinien zu verbessern und praktische, umsetzbare Ressourcen anzubieten.
Die Empfehlungen zur Umsetzung dieses Grundsatzes sind in den folgenden Abschnitten gruppiert:
Empfehlungen für die sichere Nutzung von KI
Um KI sicher zu verwenden, benötigen Sie sowohl grundlegende als auch KI-spezifische Sicherheitskontrollen. In diesem Abschnitt finden Sie eine Übersicht über Empfehlungen, mit denen Sie sicherstellen können, dass Ihre KI- und ML-Bereitstellungen die Sicherheits-, Datenschutz- und Compliance-Anforderungen Ihrer Organisation erfüllen. Eine Übersicht über Architekturprinzipien und Empfehlungen, die speziell für KI- und ML-Arbeitslasten in Google Cloudgelten, finden Sie im Well-Architected Framework unter KI- und ML-Perspektive.
Klare Ziele und Anforderungen für die KI-Nutzung definieren
Diese Empfehlung ist für die folgenden Schwerpunktbereiche relevant:
- Cloud-Governance, ‑Risiko und ‑Compliance
- Sicherheit von KI und ML
Diese Empfehlung entspricht dem SAIF-Element zur Kontextualisierung von KI-Systemrisiken in den umgebenden Geschäftsprozessen. Wenn Sie KI-Systeme entwickeln und weiterentwickeln, ist es wichtig, dass Sie Ihre spezifischen Geschäftsziele, Risiken und Compliance-Anforderungen kennen.
Daten schützen und Verlust oder Missbrauch verhindern
Diese Empfehlung ist für die folgenden Schwerpunktbereiche relevant:
- Sichere Infrastruktur
- Identitäts- und Zugriffsverwaltung
- Datensicherheit
- Anwendungssicherheit
- Sicherheit von KI und ML
Diese Empfehlung entspricht den folgenden SAIF-Elementen:
- Bewährte Sicherheitsgrundlagen auf das KI-Ökosystem ausweiten. Dazu gehören die Datenerhebung, die Speicherung, die Zugriffssteuerung und der Schutz vor Data Poisoning.
- Sicherheitsrisiken für KI-Systeme in den richtigen Kontext setzen. Datensicherheit betonen, um Geschäftsziele und Compliance zu unterstützen.
KI-Pipelines schützen und vor Manipulationen absichern
Diese Empfehlung ist für die folgenden Schwerpunktbereiche relevant:
- Sichere Infrastruktur
- Identitäts- und Zugriffsverwaltung
- Datensicherheit
- Anwendungssicherheit
- Sicherheit von KI und ML
Diese Empfehlung entspricht den folgenden SAIF-Elementen:
- Bewährte Sicherheitsgrundlagen auf das KI-Ökosystem ausweiten. Sichern Sie Ihren Code und Ihre Modellartefakte, um ein sicheres KI-System zu schaffen.
- Schutzmaßnahmen anpassen, um effizientere Feedback-Schleifen zu schaffen. Da dies für die Eindämmung und Reaktion auf Vorfälle wichtig ist, sollten Sie Ihre Assets und Pipeline-Ausführungen im Blick behalten.
Apps auf sicheren Systemen mit sicheren Tools und Artefakten bereitstellen
Diese Empfehlung ist für die folgenden Schwerpunktbereiche relevant:
- Sichere Infrastruktur
- Identitäts- und Zugriffsverwaltung
- Datensicherheit
- Anwendungssicherheit
- Sicherheit von KI und ML
Die Verwendung sicherer Systeme und validierter Tools und Artefakte in KI-basierten Anwendungen entspricht dem SAIF-Element, das sich auf die Ausweitung starker Sicherheitsgrundlagen auf das KI-Ökosystem und die Lieferkette bezieht. Diese Empfehlung kann durch die folgenden Schritte umgesetzt werden:
- Sichere Umgebung für ML-Training und ‑Bereitstellung implementieren
- Validierte Container-Images verwenden
- Supply Chain Levels for Software Artifacts (SLSA)-Richtlinien anwenden
Eingaben schützen und überwachen
Diese Empfehlung ist für die folgenden Schwerpunktbereiche relevant:
- Logging, Auditing und Monitoring
- Sicherheitsabläufe
- Sicherheit von KI und ML
Diese Empfehlung entspricht dem SAIF-Element zur Ausweitung der Bedrohungserkennung und ‑abwehr, damit sich Unternehmen mithilfe von KI vor Bedrohungen schützen können. Um Probleme zu vermeiden, ist es wichtig, Prompts für generative KI-Systeme zu verwalten, Eingaben zu überwachen und den Nutzerzugriff zu steuern.
Empfehlungen für die KI-Governance
Alle Empfehlungen in diesem Abschnitt beziehen sich auf den folgenden Fokusbereich: Cloud Governance, Risiko und Compliance.
Google Cloud bietet eine Vielzahl von Tools und Diensten, mit denen Sie verantwortungsbewusste und ethische KI-Systeme entwickeln können. Wir bieten auch ein Framework aus Richtlinien, Verfahren und ethischen Erwägungen, das die Entwicklung, Bereitstellung und Nutzung von KI-Systemen leiten kann.
Wie in unseren Empfehlungen dargelegt, basiert der Ansatz von Google für die KI-Governance auf den folgenden Grundsätzen:
- Fairness
- Transparenz
- Rechenschaftspflicht
- Datenschutz
- Sicherheit
Fairnessindikatoren verwenden
Mit Vertex AI lassen sich Verzerrungen während der Datenerfassung oder der Bewertung nach dem Training erkennen. Vertex AI bietet Messwerte für die Modellbewertung wie Datenverzerrung und Modellverzerrung, mit denen Sie Ihr Modell auf Verzerrungen bewerten können.
Diese Messwerte beziehen sich auf die Fairness in verschiedenen Kategorien wie Rasse, Geschlecht und Klasse. Die Interpretation statistischer Abweichungen ist jedoch nicht einfach, da Unterschiede zwischen Kategorien möglicherweise nicht auf Bias oder Schäden zurückzuführen sind.
Vertex Explainable AI verwenden
Mit Vertex Explainable AI können Sie nachvollziehen, wie die KI-Modelle Entscheidungen treffen. Mit dieser Funktion können Sie potenzielle Verzerrungen erkennen, die in der Logik des Modells verborgen sein könnten.
Diese Funktion zur Erklärbarkeit ist in BigQuery ML und Vertex AI integriert und bietet featurebasierte Erklärungen. Sie können die Erklärbarkeit entweder in BigQuery ML oder in Vertex AI durchführen, nachdem Sie Ihr Modell in Vertex AI registriert haben.
Datenherkunft verfolgen
Nachverfolgen des Ursprungs und der Transformation von Daten, die in Ihren KI-Systemen verwendet werden So können Sie nachvollziehen, wie die Daten erfasst werden, und potenzielle Quellen für Bias oder Fehler identifizieren.
Die Datenherkunft ist eine Dataplex Universal Catalog-Funktion, mit der Sie verfolgen können, wie sich Daten durch Ihre Systeme bewegen – woher sie kommen, wohin sie übergeben werden und welche Transformationen auf sie angewendet werden.
Verantwortlichkeit festlegen
Legen Sie klare Verantwortlichkeiten für die Entwicklung, Bereitstellung und Ergebnisse Ihrer KI-Systeme fest.
Verwenden Sie Cloud Logging, um wichtige Ereignisse und Entscheidungen Ihrer KI-Systeme zu protokollieren. Die Protokolle bieten einen Prüfpfad, mit dem Sie die Leistung des Systems nachvollziehen und verbesserungswürdige Bereiche ermitteln können.
Verwenden Sie Error Reporting, um Fehler, die von den KI-Systemen gemacht wurden, systematisch zu analysieren. Diese Analyse kann Muster aufdecken, die auf zugrunde liegende Verzerrungen oder Bereiche hinweisen, in denen das Modell weiter verfeinert werden muss.
Differential Privacy implementieren
Während des Modelltrainings fügen wir den Daten Rauschen hinzu, um die Identifizierung einzelner Datenpunkte zu erschweren, aber dem Modell dennoch ein effektives Lernen zu ermöglichen. Mit SQL in BigQuery können Sie die Ergebnisse einer Abfrage mit differenziell privaten Aggregationen transformieren.