Model Armor – Übersicht

Model Armor ist ein vollständig verwalteter Google Cloud Dienst, der die Sicherheit von KI-Anwendungen verbessert. Model Armor prüft LLM-Prompts und ‑Antworten auf verschiedene Sicherheitsrisiken. Model Armor bietet die folgenden Funktionen:

  • Modell- und cloudunabhängig: Model Armor ist so konzipiert, dass es jedes Modell auf jeder Cloud-Plattform unterstützt. Dazu gehören Multi-Cloud- und Multi-Modell-Szenarien, damit Sie die besten KI-Lösungen für Ihre spezifischen Anforderungen auswählen können.
  • Zentrale Verwaltung und Durchsetzung: Model Armor ermöglicht die zentrale Verwaltung und Durchsetzung von Sicherheitsrichtlinien.
  • Öffentliche REST APIs: Model Armor bietet eine öffentliche REST API, mit der Sie die Überprüfung von Prompts und Antworten direkt in Ihre Anwendungen einbinden können. Dieser API-basierte Ansatz unterstützt verschiedene Bereitstellungsszenarien.
  • Rollenbasierte Zugriffssteuerung (Role-Based Access Control, RBAC): Model Armor enthält RBAC, um den Zugriff und die Berechtigungen innerhalb des Dienstes zu verwalten. So haben verschiedene Nutzerrollen ein angemessenes Maß an Kontrolle und Sichtbarkeit.
  • Endpunkte: Die Model Armor API bietet sowohl regionale Endpunkte für geringe Latenz als auch multiregionale Endpunkte für hohe Verfügbarkeit. Weitere Informationen finden Sie unter Model Armor-Endpunkte.
  • Einbindung in Security Command Center: Model Armor ist in Security Command Center eingebunden. Das bedeutet, dass Sie die Ergebnisse im Security Command Center-Dashboard ansehen und Verstöße an der Quelle erkennen und beheben können.
  • Sicherheitsfunktionen:
  • Unterstützung für die Dokumentprüfung: Model Armor unterstützt die Prüfung von Text in den folgenden Dokumenttypen auf schädliche Inhalte.
    • PDF-Dateien
    • DOCX-, DOCM-, DOTX- und DOTM-Dokumente
    • PPTX-, PPTM-, POTX- und POT-Präsentationen
    • XLSX-, XLSM-, XLTX- und XLTM-Tabellen

Vorteile

Model Armor bietet Unternehmen mehrere Vorteile, darunter:

  • Verbesserte KI-Sicherheit: Model Armor hilft Unternehmen, die Sicherheitsrisiken im Zusammenhang mit der Verwendung von LLMs zu minimieren. Model Armor begegnet Bedenken wie Prompt Injection und Jailbreak-Versuchen, der Generierung schädlicher Inhalte, schädlichen URLs und dem Verlust sensibler Daten und ermöglicht so sichere und zuverlässige Integrationen von LLMs in Produkte und Dienste.
  • Zentrale Sichtbarkeit und Steuerung: Model Armor bietet eine zentrale Verwaltung für alle LLM-Anwendungen, sodass CISOs und Sicherheitsarchitekten Sicherheits- und Schutzrichtlinien überwachen und steuern können.
  • Flexible Bereitstellungsoptionen: Model Armor unterstützt Multi-Cloud-, Multi-Modell- und Multi-LLM-Szenarien und kann an verschiedenen Stellen in der LLM-Anwendungsarchitektur bereitgestellt werden. So können Unternehmen Model Armor flexibel in ihre bestehende Infrastruktur und ihre Workflows einbinden.
  • Anpassung und Integration: Model Armor ermöglicht die Anpassung von Richtlinien an bestimmte Anwendungsfälle und lässt sich in bestehende operative Workflows einbinden.

Architektur

Model Armor-Architektur

Dieses Architekturdiagramm zeigt eine Anwendung, die Model Armor verwendet, um ein LLM und einen Nutzer zu schützen. Im Folgenden wird der Datenfluss beschrieben.

  1. Ein Nutzer gibt einen Prompt in die Anwendung ein.
  2. Model Armor prüft den eingehenden Prompt auf potenziell sensible Inhalte.
  3. Der Prompt (oder der bereinigte Prompt) wird an das LLM gesendet.
  4. Das LLM generiert eine Antwort.
  5. Model Armor prüft die generierte Antwort auf potenziell sensible Inhalte.
  6. Die Antwort (oder bereinigte Antwort) wird an den Nutzer gesendet. Model Armor sendet eine detaillierte Beschreibung der ausgelösten und nicht ausgelösten Filter in der Antwort.

Kurz gesagt: Model Armor fungiert als Filter, der sowohl die Eingabe (Prompt) als auch die Ausgabe (Antwort) prüft, um sicherzustellen, dass das LLM nicht mit schädlichen oder sensiblen Ein- oder Ausgaben in Berührung kommt.

Anwendungsfälle

Model Armor hat mehrere Anwendungsfälle in verschiedenen Branchen:

  • Sicherheit

    • Organisationen können das Risiko verringern, dass sensibles geistiges Eigentum und personenidentifizierbare Informationen in LLM-Prompts oder -Antworten enthalten sind.
    • Unternehmen können sich vor Prompt-Injection- und Jailbreak-Angriffen schützen und so verhindern, dass böswillige Akteure KI-Systeme manipulieren, um unbeabsichtigte Aktionen auszuführen.
    • Organisationen können Text in PDFs auf sensible oder schädliche Inhalte scannen.
  • Sicherheit und verantwortungsbewusste KI

    • Unternehmen können verhindern, dass ihr Chatbot Lösungen von Mitbewerbern empfiehlt, um die Markenintegrität und Kundentreue zu wahren.
    • Organisationen können Social-Media-Beiträge filtern, die von ihrer KI generiert wurden und schädliche Inhalte wie gefährliche oder hasserfüllte Inhalte enthalten.

Sprachunterstützung

Model Armor-Filter unterstützen das Bereinigen von Prompts und Antworten in mehreren Sprachen.

Es gibt zwei Möglichkeiten, die Erkennung mehrerer Sprachen zu aktivieren:

Preise

Model Armor kann als integrierter Bestandteil von Security Command Center oder als eigenständiger Dienst erworben werden. Preisinformationen finden Sie unter Security Command Center-Preise.

Tokens

Modelle für generative KI zerlegen Text und andere Daten in Einheiten, die als Tokens bezeichnet werden. Bei Model Armor wird die Gesamtzahl der Tokens in KI-Prompts und ‑Antworten für die Preisgestaltung verwendet. Model Armor begrenzt die Anzahl der Tokens, die in jedem Prompt und jeder Antwort verarbeitet werden. Model Armor hat je nach Filter unterschiedliche Tokenlimits. Wenn der Prompt oder die Antwort das Tokenlimit für den Filter überschreitet, wird die Genauigkeit der Erkennung verringert, aber es wird kein Fehler zurückgegeben.

Filter Tokenlimit
Erkennung von Prompt Injection und Jailbreaking Bis zu 2.000
Schutz vor Datenverlust (DLP) mit Sensitive Data Protection Bis zu 130.000
Responsible AI 10.000
Darstellungen des sexuellen Missbrauchs von Kindern 10.000

Hinweise

Beachten Sie bei der Verwendung von Model Armor Folgendes:

  • Mit Etagen-Einstellungen kann der Schutz sensibler Daten nicht erzwungen werden.
  • Model Armor lehnt Anfragen zum Scannen von RTF-Dateien mit einer Größe von maximal 50 Byte ab, da solche Dateien höchstwahrscheinlich ungültig sind.

Nächste Schritte