AI Protection hilft Ihnen, den Sicherheitsstatus Ihrer KI-Arbeitslasten zu verwalten, indem Bedrohungen erkannt und Risiken für Ihr KI-Asset-Inventar minimiert werden. Dieses Dokument bietet einen allgemeinen Überblick über AI Protection, einschließlich der Vorteile und einiger wichtiger Konzepte.
AI Protection – Übersicht
AI Protection bietet mehrere Funktionen, mit denen Sie Bedrohungen und Risiken für Ihre KI-Systeme verwalten können, darunter:
- KI-Inventar bewerten: Bewerten und verstehen Sie Ihre KI-Systeme und KI-Assets, einschließlich Ihrer Modelle und Datasets.
- Risiken und Compliance verwalten: Risiken für Ihre KI-Assets proaktiv verwalten und prüfen, ob Ihre KI-Bereitstellungen den relevanten Sicherheitsstandards entsprechen.
- Rechtliche und finanzielle Risiken minimieren: Reduzieren Sie die finanziellen, reputationsbezogenen und rechtlichen Risiken, die mit Sicherheitsverstößen und Nichteinhaltung von Vorschriften verbunden sind.
- Bedrohungen erkennen und verwalten: Erkennen Sie potenzielle Bedrohungen für Ihre KI-Systeme und ‑Assets rechtzeitig und reagieren Sie darauf.
- Ein Dashboard aufrufen: Alle KI-bezogenen Risiken und Bedrohungen lassen sich über ein zentrales Dashboard verwalten.
Anwendungsfälle
AI Protection hilft Unternehmen, ihre Sicherheit zu verbessern, indem Bedrohungen und Risiken im Zusammenhang mit KI‑Systemen und sensiblen Daten erkannt und minimiert werden. Die folgenden Anwendungsfälle sind Beispiele dafür, wie AI Protection in verschiedenen Organisationen eingesetzt werden kann:
Finanzdienstleister: Finanzdaten von Kunden
Ein großes Finanzdienstleistungsunternehmen verwendet KI-Modelle, die sensible Finanzdaten verarbeiten.
- Herausforderung:Die Verarbeitung hochsensibler Finanzdaten mit KI-Modellen birgt mehrere Risiken, darunter das Risiko von Datenpannen, Daten-Exfiltration während des Trainings oder der Inferenz sowie Schwachstellen in der zugrunde liegenden KI-Infrastruktur.
- Anwendungsfall:AI Protection überwacht KI-Arbeitsabläufe kontinuierlich auf verdächtige Aktivitäten, erkennt unbefugten Datenzugriff und anomales Modellverhalten, klassifiziert sensible Daten und trägt dazu bei, die Einhaltung von Vorschriften wie PCI DSS und DSGVO zu verbessern.
Gesundheitsdienstleister: Datenschutz und Compliance
Ein großer Gesundheitsdienstleister verwaltet elektronische Gesundheitsakten und verwendet KI für Diagnosen und Behandlungsplanung. Dabei werden geschützte Gesundheitsinformationen (Protected Health Information, PHI) verarbeitet.
- Herausforderung:PHI, das von KI-Modellen analysiert wird, unterliegt strengen Vorschriften wie HIPAA. Zu den Risiken gehören die versehentliche Offenlegung von vertraulichen Gesundheitsinformationen durch Fehlkonfigurationen oder böswillige Angriffe, die auf KI-Systeme für Patientendaten abzielen.
- Anwendungsfall:AI Protection erkennt potenzielle HIPAA-Verstöße und benachrichtigt Sie darüber. Außerdem wird unbefugter PHI-Zugriff durch Modelle oder Nutzer erkannt, anfällige und potenziell falsch konfigurierte KI-Dienste werden gekennzeichnet und es wird auf Datenlecks geachtet.
Fertigungs- und Robotikunternehmen: proprietäres geistiges Eigentum
Ein Fertigungsunternehmen, das sich auf fortschrittliche Robotik und Automatisierung spezialisiert hat, setzt stark auf KI, um Produktionslinien und Robotersteuerung zu optimieren. Wichtiges geistiges Eigentum ist in den KI-Algorithmen und Fertigungsdaten enthalten.
- Herausforderung:Proprietäre KI-Algorithmen und vertrauliche Betriebsdaten sind anfällig für Diebstahl durch Insider oder externe Angreifer, was möglicherweise zu Wettbewerbsnachteilen oder Betriebsunterbrechungen führt.
- Anwendungsfall:AI Protection überwacht den unbefugten Zugriff auf KI-Modelle und Code-Repositories, erkennt Versuche, trainierte Modelle zu exfiltrieren, und ungewöhnliche Datenzugriffsmuster und kennzeichnet Schwachstellen in KI-Entwicklungsumgebungen, um den Diebstahl von geistigem Eigentum zu verhindern.
Framework für KI-Schutz
AI Protection besteht aus einem Framework mit spezifischen Cloud-Steuerelementen, die automatisch im Erkennungsmodus bereitgestellt werden. Im Detektivmodus wird die Cloud-Steuerung auf die definierten Ressourcen angewendet, um sie zu überwachen. Alle Verstöße werden erkannt und Benachrichtigungen werden generiert. Sie verwenden Frameworks und Cloud-Steuerelemente, um Ihre AI Protection-Anforderungen zu definieren und auf Ihre Google Cloud Umgebung anzuwenden. AI Protection umfasst das Standard-Framework, in dem empfohlene grundlegende Kontrollen für AI Protection definiert sind. Wenn Sie AI Protection aktivieren, wird das Standard-Framework automatisch auf die Organisation Google Cloud im Erkennungsmodus angewendet.
Bei Bedarf können Sie Kopien des Frameworks erstellen, um benutzerdefinierte AI Protection-Frameworks zu erstellen. Sie können die Cloud-Kontrollen Ihren benutzerdefinierten Frameworks hinzufügen und die benutzerdefinierten Frameworks auf die Organisation, Ordner oder Projekte anwenden. Sie können beispielsweise benutzerdefinierte Frameworks erstellen, mit denen bestimmte rechtliche Kontrollen auf bestimmte Ordner angewendet werden. So lässt sich sicherstellen, dass Daten in diesen Ordnern in einer bestimmten geografischen Region verbleiben.
Cloud-Kontrollen im Standard-Framework für AI Protection
Die folgenden Cloud-Kontrollen sind Teil des standardmäßigen AI Protection-Frameworks.
Name der Cloud-Kontrolle | Beschreibung |
---|---|
Standard-VPC-Netzwerk für Vertex AI Workbench-Instanzen blockieren |
Erstellen Sie keine Workbench-Instanzen im VPC-Netzwerk, um die Verwendung der übermäßig permissiven Standardfirewallregeln zu verhindern. |
Öffentliche IP-Adresse für Vertex AI Workbench-Instanzen blockieren |
Lassen Sie keine externen IP-Adressen für Workbench-Instanzen zu, um die Gefährdung durch das Internet zu verringern und das Risiko unbefugter Zugriffe zu minimieren. |
CMEK für benutzerdefinierte Vertex AI-Jobs aktivieren |
Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für benutzerdefinierte Vertex AI-Trainingsjobs, um mehr Kontrolle über die Verschlüsselung von Job-Ein- und ‑Ausgaben zu erhalten. |
CMEK für Vertex AI Feature Store aktivieren |
Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI Feature Store, um mehr Kontrolle über die Datenverschlüsselung und den Zugriff zu erhalten. |
CMEK für Vertex AI-Hyperparameter-Abstimmungsjobs aktivieren |
Sie können vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Hyperparameter-Abstimmungsjobs verwenden, um mehr Kontrolle über die Verschlüsselung von Modelltrainingsdaten und Jobkonfigurationen zu erhalten. |
CMEK für Vertex AI-Modelle aktivieren |
Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI-Modelle, um mehr Kontrolle über die Datenverschlüsselung und die Schlüsselverwaltung zu erhalten. |
CMEK für Vertex AI Notebook-Laufzeitvorlagen aktivieren |
Sie können die Verwendung von vom Kunden verwalteten Verschlüsselungsschlüsseln (Customer-Managed Encryption Keys, CMEK) für Colab Enterprise-Laufzeitvorlagen erzwingen, um Laufzeitumgebungen und zugehörige Daten zu schützen. |
CMEK für Vertex AI TensorBoard aktivieren |
Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI TensorBoard, um mehr Kontrolle über die Verschlüsselung von Testdaten und Modellvisualisierungen zu erhalten. |
CMEK für Vertex AI-Trainingspipelines aktivieren |
Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI-Trainingspipelines, um mehr Kontrolle über die Verschlüsselung von Trainingsdaten und resultierenden Artefakten zu erhalten. |
CMEK für Vertex AI Workbench-Instanzen aktivieren |
Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI Workbench-Instanzen, um mehr Kontrolle über die Datenverschlüsselung zu erhalten. |
Leerlauf-Shutdown für Vertex AI-Laufzeitvorlagen aktivieren |
Aktivieren Sie das automatische Herunterfahren im Leerlauf in Colab Enterprise-Laufzeitvorlagen, um Cloud-Kosten zu optimieren, das Ressourcenmanagement zu verbessern und die Sicherheit zu erhöhen. |
Integritätsmonitoring für Vertex AI Workbench-Instanzen aktivieren |
Aktivieren Sie die Integritätsüberwachung für Workbench-Instanzen, um die Integrität beim Booten Ihrer VMs kontinuierlich anhand einer vertrauenswürdigen Baseline zu prüfen. |
Secure Boot für Vertex AI Workbench-Instanzen aktivieren |
Aktivieren Sie Secure Boot für Workbench-Instanzen, um zu verhindern, dass während des Startvorgangs nicht autorisierte oder schädliche Software ausgeführt wird. |
vTPM auf Vertex AI Workbench-Instanzen aktivieren |
Aktivieren Sie das Virtual Trusted Platform Module (vTPM) auf Workbench-Instanzen, um den Startvorgang zu schützen und mehr Kontrolle über die Verschlüsselung zu erhalten. |
Verwendung des Standarddienstkontos für Vertex AI Workbench-Instanzen einschränken |
Beschränken Sie die Verwendung des Standarddienstkontos mit den sehr permissiven Berechtigungen für Workbench-Instanzen, um das Risiko eines unbefugten Zugriffs auf Google Cloud-Dienste zu verringern. |
Unterstützte Funktionsbereiche
In diesem Abschnitt werden die Funktionsbereiche definiert, in denen AI Protection für mehr Sicherheit sorgen kann.
- KI-Arbeitslasten: KI-Anwendungen reichen von internen Tools zur Steigerung der Mitarbeiterproduktivität bis hin zu kundenorientierten Lösungen zur Verbesserung der Nutzerfreundlichkeit und zur Steigerung des Umsatzes. Beispiele hierfür sind KI-basierte Kundenservicemitarbeiter, virtuelle Assistenten, konversationelle KI-Chatbots und personalisierte Empfehlungen.
- KI-Modelle: KI-Modelle werden in grundlegende KI-Modelle, optimierte KI-Modelle, Standard-KI-Modelle auf Grundlage selbst erhobener Daten und benutzerdefinierte KI-Modelle unterteilt. Beispiele sind Gemini, Llama, Übersetzungsmodelle und benutzerdefinierte Modelle für bestimmte Aufgaben.
- KI-Assets: KI-Assets tragen zu Pipelines für maschinelles Lernen bei und werden von KI-Arbeitslasten verwendet. Zu den Arten von KI-Assets gehören die folgenden:
- Deklarative KI-Assets: Tools zur Verwaltung des KI-Lebenszyklus wie Vertex AI verfolgen diese Assets.
- Abgeleitete KI-Assets: Allzweck-Assets wie Compute- und Speicher-Assets, die zum Verarbeiten von KI-Daten oder ‑Arbeitslasten verwendet werden.
- Model-as-a-Service (nur API): Assets mit programmatischen Aufrufen von eigenen oder KI-Modellen von Drittanbietern.
AI Security-Dashboard verwenden
Das AI Security-Dashboard bietet einen umfassenden Überblick über das KI-Asset-Inventar Ihrer Organisation und schlägt potenzielle Maßnahmen zur Verbesserung des Risiko- und Bedrohungsmanagements vor.
Auf Dashboard zugreifen
Rufen Sie in der Google Cloud -Konsole Risikoübersicht > KI-Sicherheit auf, um auf das Dashboard für KI-Sicherheit zuzugreifen.
Weitere Informationen finden Sie unter Dashboard für KI-Sicherheit.
Risikoinformationen verstehen
Dieser Abschnitt enthält Informationen zu potenziellen Risiken, die mit KI-Systemen verbunden sind. Sie können sich die größten Risiken in Ihrem KI-Inventar ansehen.
Wenn Sie auf ein Problem klicken, wird ein Detailbereich mit einer Visualisierung des Problems geöffnet.
KI-Bedrohungen ansehen
Dieser Abschnitt enthält Informationen zu Bedrohungen im Zusammenhang mit KI-Systemen. Sie können sich die fünf letzten Bedrohungen ansehen, die mit Ihren KI-Ressourcen in Verbindung stehen.
Auf dieser Seite haben Sie folgende Möglichkeiten:
- Klicken Sie auf Alle ansehen, um Bedrohungen aufzurufen, die mit Ihren KI-Ressourcen verknüpft sind.
- Klicken Sie auf eine beliebige Bedrohung, um weitere Details dazu aufzurufen.
Inventar visualisieren
Im Dashboard finden Sie eine Visualisierung Ihres KI-Inventars mit einer Zusammenfassung der Projekte, die generative KI umfassen, der selbst erhobenen und Drittanbietermodelle, die aktiv verwendet werden, und der Datasets, die zum Trainieren der Drittanbietermodelle verwendet werden.
Auf dieser Seite haben Sie folgende Möglichkeiten:
- Klicken Sie auf einen der Knoten in der Visualisierung, um die Seite mit den Inventardetails aufzurufen.
- Wenn Sie eine detaillierte Liste der einzelnen Assets (z. B. Basismodelle und benutzerdefinierte Modelle) aufrufen möchten, klicken Sie auf die Kurzinfo.
- Klicken Sie auf das Modell, um eine detaillierte Ansicht zu öffnen. In dieser Ansicht werden Details wie die Endpunkte, an denen das Modell gehostet wird, und das Dataset angezeigt, das zum Trainieren des Modells verwendet wurde. Wenn Sensitive Data Protection aktiviert ist, wird in der Dataset-Ansicht auch angezeigt, ob das Dataset sensible Daten enthält.
Zusammenfassung der Ergebnisse
In diesem Abschnitt erfahren Sie, wie Sie die Ergebnisse, die von KI-Framework- und Datensicherheitsrichtlinien generiert werden, bewerten und verwalten. Dieser Abschnitt umfasst Folgendes:
- Ergebnisse: In diesem Abschnitt wird eine Zusammenfassung der Ergebnisse angezeigt, die von KI-Sicherheitsrichtlinien und Datensicherheitsrichtlinien generiert wurden. Klicken Sie auf Alle Ergebnisse ansehen oder auf die Anzahl neben jeder Ergebniskategorie, um die Detailseite für Ergebnisse aufzurufen. Klicken Sie auf ein Ergebnis, um zusätzliche Informationen dazu aufzurufen.
- Sensible Daten in Vertex AI-Datasets: In diesem Abschnitt wird eine Zusammenfassung der Ergebnisse basierend auf sensiblen Daten in Datasets angezeigt, die von Sensitive Data Protection gemeldet wurden.
Model Armor-Ergebnisse untersuchen
Ein Diagramm zeigt die Gesamtzahl der von Model Armor gescannten Prompts oder Antworten sowie die Anzahl der von Model Armor erkannten Probleme. Außerdem werden zusammenfassende Statistiken für verschiedene Arten von erkannten Problemen angezeigt, z. B. Prompt-Injection, Jailbreak-Erkennung und Erkennung vertraulicher Daten.
Diese Informationen werden anhand der Messwerte ausgefüllt, die Model Armor in Cloud Monitoring veröffentlicht.
Nächste Schritte
- Informationen zum Konfigurieren von AI Protection
- Um das Risiko zu bewerten, rufen Sie die Dashboarddaten auf.