KI und ML – Sicherheit

Dieses Dokument in Well-Architected Framework: AI and MLperspektive bietet einen Überblick über Prinzipien und Empfehlungen, mit denen Sie dafür sorgen können, dass Ihre KI- und ML-Bereitstellungen die Sicherheits- und Compliance-Anforderungen Ihres Unternehmens erfüllen. Die Empfehlungen in diesem Dokument entsprechen den Sicherheitspfeilern des Google Cloud Well-Architected Framework.

Die sichere Bereitstellung von KI- und ML-Arbeitslasten ist insbesondere in Unternehmensumgebungen von entscheidender Bedeutung. Damit Sie diese Anforderung erfüllen können, ist ein ganzheitlicher Sicherheitsansatz erforderlich, der von der ersten Konzeption Ihrer KI- und ML-Lösungen bis hin zur Entwicklung, Bereitstellung und zum laufenden Betrieb reicht. Google Cloud bietet robuste Tools und Dienste, die zum Schutz Ihrer KI- und ML-Arbeitslasten konzipiert sind.

Klare Ziele und Anforderungen definieren

Es ist einfacher, die erforderlichen Sicherheits- und Compliancekontrollen frühzeitig in Ihren Design- und Entwicklungsprozess zu integrieren, als die Kontrollen nach der Entwicklung hinzuzufügen. Treffen Sie von Anfang an Entscheidungen, die für Ihre spezifische Risikoumgebung und Ihre spezifischen Geschäftsprioritäten geeignet sind.

Beachten Sie die folgenden Empfehlungen:

  • Identifizieren Sie von Anfang an potenzielle Angriffsvektoren und übernehmen Sie Sicherheits- und Compliance-Perspektiven. Behalten Sie bei der Gestaltung und Weiterentwicklung Ihrer KI-Systeme die Angriffsfläche sowie potenzielle Risiken und Verpflichtungen im Blick.
  • Stimmen Sie Ihre KI- und ML-Sicherheitsmaßnahmen auf Ihre Geschäftsziele ab und achten Sie darauf, dass Sicherheit ein wesentlicher Bestandteil Ihrer Gesamtstrategie ist. Auswirkungen Ihrer Sicherheitseinstellungen auf Ihre wichtigsten Geschäftsziele verstehen

Daten schützen und Verlust oder unsachgemäße Handhabung verhindern

Daten sind ein wertvolles und sensibles Asset, das geschützt werden muss. Datensicherheit hilft Ihnen, das Vertrauen der Nutzer aufrechtzuerhalten, Ihre Geschäftsziele zu unterstützen und Ihre Compliance-Anforderungen zu erfüllen.

Beachten Sie die folgenden Empfehlungen:

  • Erheben, aufbewahren oder verwenden Sie keine Daten, die für Ihre Geschäftsziele nicht unbedingt erforderlich sind. Verwenden Sie nach Möglichkeit synthetische oder vollständig anonymisierte Daten.
  • Datenerfassung, -speicherung und -transformation überwachen. Erstellen Sie Logs für alle Datenzugriffs- und Datenbearbeitungsaktivitäten. Mit den Logs können Sie Datenzugriffe prüfen, nicht autorisierte Zugriffsversuche erkennen und unerwünschten Zugriff verhindern.
  • Implementieren Sie je nach Nutzerrollen verschiedene Zugriffsebenen (z. B. kein Zugriff, Lesezugriff oder Schreibzugriff). Berechtigungen sollten gemäß dem Prinzip der geringsten Berechtigung zugewiesen werden. Nutzer dürfen nur die Berechtigungen haben, die minimal erforderlich sind, um ihre Rollenaktivitäten ausführen zu können.
  • Implementieren Sie Maßnahmen wie Verschlüsselung, sichere Perimeter und Einschränkungen bei der Datenübertragung. Diese Maßnahmen tragen dazu bei, Daten-Exfiltration und -verluste zu verhindern.
  • Schützen Sie Ihre ML-Trainingssysteme vor Data Poisoning.

KI-Pipelines sicher und manipulationssicher machen

Ihr KI- und ML-Code sowie die codedefinierten Pipelines sind wichtige Assets. Nicht gesicherter Code kann manipuliert werden, was zu Datenlecks, Compliance-Fehlern und einer Unterbrechung kritischer Geschäftsaktivitäten führen kann. Durch die Sicherheit Ihres KI- und ML-Codes können Sie die Integrität und den Wert Ihrer Modelle und Modellausgaben gewährleisten.

Beachten Sie die folgenden Empfehlungen:

  • Verwenden Sie während der Modellentwicklung sichere Codierungspraktiken wie Abhängigkeitsmanagement oder Eingabevalidierung und -bereinigung, um Sicherheitslücken zu vermeiden.
  • Schützen Sie Ihren Pipelinecode und Ihre Modellartefakte wie Dateien, Modellgewichte und Bereitstellungsspezifikationen vor unbefugtem Zugriff. Implementieren Sie je nach Nutzerrollen und Anforderungen unterschiedliche Zugriffsebenen für jedes Artefakt.
  • Erzwingen Sie die Herkunft und das Tracking Ihrer Assets und Pipelineausführungen. So können Sie Compliance-Anforderungen erfüllen und eine Manipulation von Produktionssystemen vermeiden.

Mit sicheren Tools und Artefakten auf sicheren Systemen bereitstellen

Sorgen Sie dafür, dass Ihr Code und Ihre Modelle in einer sicheren Umgebung ausgeführt werden, in der es ein robustes Zugriffssteuerungssystem mit Sicherheitsgarantien für die in der Umgebung bereitgestellten Tools und Artefakte gibt.

Beachten Sie die folgenden Empfehlungen:

  • Trainieren und implementieren Sie Ihre Modelle in einer sicheren Umgebung mit entsprechenden Zugriffssteuerungen und Schutz vor unbefugter Nutzung oder Manipulation.
  • Halten Sie sich bei Ihren KI-spezifischen Artefakten wie Modellen und Softwarepaketen an die standardmäßigen SLSA-Richtlinien (Supply Chain Levels for Software Artifacts).
  • Bevorzugen Sie validierte vordefinierte Container-Images, die speziell für KI-Arbeitslasten entwickelt wurden.

Eingaben schützen und überwachen

KI-Systeme benötigen Eingaben, um Vorhersagen zu treffen, Inhalte zu generieren oder Aktionen zu automatisieren. Einige Eingaben können Risiken darstellen oder als Angriffsvektoren verwendet werden, die erkannt und bereinigt werden müssen. Wenn Sie potenzielle schädliche Eingaben frühzeitig erkennen, können Sie dafür sorgen, dass Ihre KI-Systeme sicher sind und wie vorgesehen funktionieren.

Beachten Sie die folgenden Empfehlungen:

  • Implementieren Sie sichere Praktiken, um Aufforderungen für Generative AI-Systeme zu entwickeln und zu verwalten, und achten Sie darauf, dass die Aufforderungen auf schädliche Absichten geprüft werden.
  • Überwachen Sie Eingaben in prädiktive oder generative Systeme, um Probleme wie überlastete Endpunkte oder Eingabeaufforderungen zu vermeiden, für die die Systeme nicht ausgelegt sind.
  • Achten Sie darauf, dass nur die vorgesehenen Nutzer eines bereitgestellten Systems es verwenden können.

Ausgaben überwachen, bewerten und darauf reagieren

KI-Systeme bieten einen Mehrwert, da sie Ausgaben erzeugen, die die menschliche Entscheidungsfindung erweitern, optimieren oder automatisieren. Um die Integrität und Vertrauenswürdigkeit Ihrer KI-Systeme und -Anwendungen zu wahren, müssen Sie darauf achten, dass die Ausgaben sicher sind und die erwarteten Parameter einhalten. Sie benötigen auch einen Plan, um auf Vorfälle zu reagieren.

Beachten Sie die folgenden Empfehlungen:

  • Überwachen Sie die Ausgaben Ihrer KI- und ML-Modelle in der Produktion und ermitteln Sie Leistungs-, Sicherheits- und Complianceprobleme.
  • Bewerten Sie die Modellleistung, indem Sie robuste Messwerte und Sicherheitsmaßnahmen implementieren, z. B. generative Antworten, die nicht im Umfang enthalten sind, oder extreme Ausgaben in Vorhersagemodellen identifizieren. Nutzerfeedback zur Modellleistung einholen.
  • Implementieren Sie zuverlässige Verfahren für Benachrichtigungen und Reaktionen auf Vorfälle, um potenzielle Probleme zu beheben.

Beitragende

Autoren:

Weitere Beitragende: