Model Armor ist ein vollständig verwalteter Google Cloud Dienst, der die Sicherheit von KI-Anwendungen verbessert. Model Armor prüft LLM-Prompts und ‑Antworten auf verschiedene Sicherheitsrisiken. Model Armor bietet die folgenden Funktionen:
- Modell- und cloudunabhängig: Model Armor ist so konzipiert, dass es jedes Modell auf jeder Cloud-Plattform unterstützt. Dazu gehören Multi-Cloud- und Multi-Modell-Szenarien, damit Sie die besten KI-Lösungen für Ihre spezifischen Anforderungen auswählen können.
- Zentrale Verwaltung und Durchsetzung: Model Armor ermöglicht die zentrale Verwaltung und Durchsetzung von Sicherheitsrichtlinien.
- Öffentliche REST APIs: Model Armor bietet eine öffentliche REST API, mit der Sie die Überprüfung von Prompts und Antworten direkt in Ihre Anwendungen einbinden können. Dieser API-basierte Ansatz unterstützt verschiedene Bereitstellungsszenarien.
- Rollenbasierte Zugriffssteuerung (Role-Based Access Control, RBAC): Model Armor enthält RBAC, um den Zugriff und die Berechtigungen innerhalb des Dienstes zu verwalten. So haben verschiedene Nutzerrollen ein angemessenes Maß an Kontrolle und Sichtbarkeit.
- Endpunkte: Die Model Armor API bietet sowohl regionale Endpunkte für geringe Latenz als auch multiregionale Endpunkte für hohe Verfügbarkeit. Weitere Informationen finden Sie unter Model Armor-Endpunkte.
- Einbindung in Security Command Center: Model Armor ist in Security Command Center eingebunden. Das bedeutet, dass Sie die Ergebnisse im Security Command Center-Dashboard ansehen und Verstöße an der Quelle erkennen und beheben können.
- Sicherheitsfunktionen:
- Filter für Sicherheit und verantwortungsbewusste KI: Model Armor bietet Filter für die Sicherheit von Inhalten, die sich mit sexuell expliziten oder gefährlichen Inhalten oder Inhalten mit Diskriminierung oder Hassreden befassen.
- Erkennung von Prompt Injection und Jailbreaking: Model Armor umfasst Funktionen zum Erkennen und Verhindern von Prompt Injection und Jailbreaking-Angriffen.
- Data Loss Prevention (DLP) mit Sensitive Data Protection: Model Armor umfasst alle Funktionen des Google Cloud-Dienstes Sensitive Data Protection, um Funktionen zur Data Loss Prevention bereitzustellen. Model Armor kann sensible Daten erkennen, klassifizieren und schützen und so eine unbefugte Offenlegung bei LLM-Interaktionen verhindern.
- Erkennung schädlicher URLs: Model Armor kann schädliche URLs sowohl in Prompts als auch in Antworten erkennen und so die Sicherheit von KI-Anwendungen verbessern.
- Unterstützung für die Dokumentprüfung: Model Armor unterstützt die Prüfung von Text in den folgenden Dokumenttypen auf schädliche Inhalte.
- PDF-Dateien
- DOCX-, DOCM-, DOTX- und DOTM-Dokumente
- PPTX-, PPTM-, POTX- und POT-Präsentationen
- XLSX-, XLSM-, XLTX- und XLTM-Tabellen
Vorteile
Model Armor bietet Unternehmen mehrere Vorteile, darunter:
- Verbesserte KI-Sicherheit: Model Armor hilft Unternehmen, die Sicherheitsrisiken im Zusammenhang mit der Verwendung von LLMs zu minimieren. Model Armor begegnet Bedenken wie Prompt Injection und Jailbreak-Versuchen, der Generierung schädlicher Inhalte, schädlichen URLs und dem Verlust sensibler Daten und ermöglicht so sichere und zuverlässige Integrationen von LLMs in Produkte und Dienste.
- Zentrale Sichtbarkeit und Steuerung: Model Armor bietet eine zentrale Verwaltung für alle LLM-Anwendungen, sodass CISOs und Sicherheitsarchitekten Sicherheits- und Schutzrichtlinien überwachen und steuern können.
- Flexible Bereitstellungsoptionen: Model Armor unterstützt Multi-Cloud-, Multi-Modell- und Multi-LLM-Szenarien und kann an verschiedenen Stellen in der LLM-Anwendungsarchitektur bereitgestellt werden. So können Unternehmen Model Armor flexibel in ihre bestehende Infrastruktur und ihre Workflows einbinden.
- Anpassung und Integration: Model Armor ermöglicht die Anpassung von Richtlinien an bestimmte Anwendungsfälle und lässt sich in bestehende operative Workflows einbinden.
Architektur
Dieses Architekturdiagramm zeigt eine Anwendung, die Model Armor verwendet, um ein LLM und einen Nutzer zu schützen. Im Folgenden wird der Datenfluss beschrieben.
- Ein Nutzer gibt einen Prompt in die Anwendung ein.
- Model Armor prüft den eingehenden Prompt auf potenziell sensible Inhalte.
- Der Prompt (oder der bereinigte Prompt) wird an das LLM gesendet.
- Das LLM generiert eine Antwort.
- Model Armor prüft die generierte Antwort auf potenziell sensible Inhalte.
- Die Antwort (oder bereinigte Antwort) wird an den Nutzer gesendet. Model Armor sendet eine detaillierte Beschreibung der ausgelösten und nicht ausgelösten Filter in der Antwort.
Kurz gesagt: Model Armor fungiert als Filter, der sowohl die Eingabe (Prompt) als auch die Ausgabe (Antwort) prüft, um sicherzustellen, dass das LLM nicht mit schädlichen oder sensiblen Ein- oder Ausgaben in Berührung kommt.
Anwendungsfälle
Model Armor hat mehrere Anwendungsfälle in verschiedenen Branchen:
Sicherheit
- Organisationen können das Risiko verringern, dass sensibles geistiges Eigentum und personenidentifizierbare Informationen in LLM-Prompts oder -Antworten enthalten sind.
- Unternehmen können sich vor Prompt-Injection- und Jailbreak-Angriffen schützen und so verhindern, dass böswillige Akteure KI-Systeme manipulieren, um unbeabsichtigte Aktionen auszuführen.
- Organisationen können Text in PDFs auf sensible oder schädliche Inhalte scannen.
Sicherheit und verantwortungsbewusste KI
- Unternehmen können verhindern, dass ihr Chatbot Lösungen von Mitbewerbern empfiehlt, um die Markenintegrität und Kundentreue zu wahren.
- Organisationen können Social-Media-Beiträge filtern, die von ihrer KI generiert wurden und schädliche Inhalte wie gefährliche oder hasserfüllte Inhalte enthalten.
Sprachunterstützung
Model Armor-Filter unterstützen das Bereinigen von Prompts und Antworten in mehreren Sprachen.
- Der Filter für den Schutz sensibler Daten unterstützt Englisch und andere Sprachen, je nachdem, welche infoTypes Sie ausgewählt haben.
- Die Filter Verantwortungsbewusste KI und Erkennung von Prompt-Injection und Jailbreak werden auf Deutsch, Englisch, Spanisch, Französisch, Italienisch, Portugiesisch, Chinesisch (Mandarin), Japanisch und Koreanisch getestet. Diese Filter können auch in anderen Sprachen funktionieren, die Qualität der Ergebnisse kann jedoch variieren.
Es gibt zwei Möglichkeiten, die Erkennung mehrerer Sprachen zu aktivieren:
Für jede Anfrage aktivieren: Für eine detaillierte Steuerung können Sie die mehrsprachige Erkennung für jede Anfrage aktivieren, wenn Sie einen Nutzer-Prompt und eine Modellantwort bereinigen. Weitere Informationen finden Sie unter Nutzer-Prompt bereinigen, wenn die mehrsprachige Erkennung aktiviert ist und Modellantwort bereinigen, wenn die mehrsprachige Erkennung aktiviert ist.
Einmalige Aktivierung der Vorlage: Wenn Sie eine einfachere Einrichtung bevorzugen, können Sie die mehrsprachige Erkennung als einmalige Konfiguration auf Vorlagenebene von Model Armor über die REST API aktivieren. Weitere Informationen finden Sie unter Model Armor-Vorlage erstellen.
Preise
Model Armor kann als integrierter Bestandteil von Security Command Center oder als eigenständiger Dienst erworben werden. Preisinformationen finden Sie unter Security Command Center-Preise.
Tokens
Modelle für generative KI zerlegen Text und andere Daten in Einheiten, die als Tokens bezeichnet werden. Bei Model Armor wird die Gesamtzahl der Tokens in KI-Prompts und ‑Antworten für die Preisgestaltung verwendet. Model Armor begrenzt die Anzahl der Tokens, die in jedem Prompt und jeder Antwort verarbeitet werden. Model Armor hat je nach Filter unterschiedliche Tokenlimits. Wenn der Prompt oder die Antwort das Tokenlimit für den Filter überschreitet, wird die Genauigkeit der Erkennung verringert, aber es wird kein Fehler zurückgegeben.
Filter | Tokenlimit |
---|---|
Erkennung von Prompt Injection und Jailbreaking | Bis zu 2.000 |
Schutz vor Datenverlust (DLP) mit Sensitive Data Protection | Bis zu 130.000 |
Responsible AI | 10.000 |
Darstellungen des sexuellen Missbrauchs von Kindern | 10.000 |
Hinweise
Beachten Sie bei der Verwendung von Model Armor Folgendes:
- Mit Etagen-Einstellungen kann der Schutz sensibler Daten nicht erzwungen werden.
- Model Armor lehnt Anfragen zum Scannen von RTF-Dateien mit einer Größe von maximal 50 Byte ab, da solche Dateien höchstwahrscheinlich ungültig sind.
Nächste Schritte
- Weitere Informationen zu den wichtigsten Konzepten von Model Armor
- Erste Schritte mit Model Armor.
- Weitere Informationen zu Model Armor-Vorlagen
- Weitere Informationen zu Model Armor-Mindesteinstellungen
- Prompts und Antworten bereinigen:
- Audit-Logging für Model Armor
- Probleme mit Model Armor beheben