Panoramica di Model Armor

Model Armor è un servizio Google Cloud completamente gestito che migliora la sicurezza delle applicazioni di AI. Model Armor funziona esaminando i prompt e le risposte degli LLM per vari rischi per la sicurezza. Model Armor ha le seguenti funzionalità:

  • Indipendente dal modello e dal cloud: Model Armor è progettato per supportare qualsiasi modello su qualsiasi piattaforma cloud. Ciò include scenari multi-cloud e multi-modello per scegliere le migliori soluzioni di AI per le tue esigenze specifiche.
  • Gestione e applicazione centralizzate: Model Armor consente la gestione e l'applicazione centralizzate delle norme di sicurezza.
  • API REST pubbliche: Model Armor fornisce un'API REST pubblica che puoi utilizzare per integrare il controllo di prompt e risposte direttamente nelle tue applicazioni. Questo approccio basato su API supporta vari scenari di deployment.
  • Controllo degli accessi basato sui ruoli (RBAC): Model Armor incorpora il controllo degli accessi basato sui ruoli (RBAC) per gestire l'accesso e le autorizzazioni all'interno del servizio, in modo che i diversi ruoli utente abbiano livelli appropriati di controllo e visibilità.
  • Endpoint: l'API Model Armor offre endpoint regionali per una bassa latenza ed endpoint multiregionali per un'alta disponibilità. Per saperne di più, vedi Endpoint Model Armor.
  • Integrazione con Security Command Center: Model Armor è integrato con Security Command Center, il che significa che puoi visualizzare i risultati nella dashboard di Security Command Center e identificare e correggere le violazioni dall'origine.
  • Funzionalità di sicurezza:
  • Supporto per lo screening dei documenti: Model Armor supporta lo screening del testo nei seguenti tipi di documenti per contenuti dannosi.
    • File PDF
    • Documenti DOCX, DOCM, DOTX, DOTM
    • Presentazioni PPTX, PPTM, POTX, POT
    • Fogli di lavoro XLSX, XLSM, XLTX, XLTM

Vantaggi

Model Armor offre diversi vantaggi per le organizzazioni, tra cui:

  • Sicurezza e protezione dell'AI avanzate: Model Armor aiuta le organizzazioni a mitigare i rischi per la sicurezza associati all'utilizzo di LLM. Model Armor risolve problemi come prompt injection e tentativi di jailbreak, generazione di contenuti dannosi, URL dannosi e perdita di dati sensibili, consentendo integrazioni sicure e affidabili di LLM in prodotti e servizi.
  • Visibilità e controllo centralizzati: Model Armor offre una gestione centralizzata di tutte le applicazioni LLM, consentendo ai CISO e agli architetti della sicurezza di monitorare e controllare le norme di sicurezza e protezione.
  • Opzioni di deployment flessibili: Model Armor supporta scenari multicloud, multimodello e multi-LLM e può essere implementato in diversi punti dell'architettura dell'applicazione LLM, offrendo alle organizzazioni la flessibilità di integrare Model Armor nella loro infrastruttura e nei loro flussi di lavoro esistenti.
  • Personalizzazione e integrazione: Model Armor consente la personalizzazione dei criteri in base a casi d'uso specifici dell'applicazione e si integra nei flussi di lavoro operativi esistenti.

Architettura

Architettura di Model Armor

Questo diagramma dell'architettura mostra un'applicazione che utilizza Model Armor per proteggere un LLM e un utente. I passaggi seguenti spiegano il flusso di dati.

  1. Un utente fornisce un prompt all'applicazione.
  2. Model Armor ispeziona il prompt in entrata per individuare contenuti potenzialmente sensibili.
  3. Il prompt (o il prompt pulito) viene inviato al LLM.
  4. L'LLM genera una risposta.
  5. Model Armor esamina la risposta generata per rilevare contenuti potenzialmente sensibili.
  6. La risposta (o la risposta pulita) viene inviata all'utente. Model Armor invia una descrizione dettagliata dei filtri attivati e non attivati nella risposta.

In breve, Model Armor funge da filtro, ispezionando sia l'input (prompt) sia l'output (risposta), per garantire che l'LLM non sia esposto o fornisca input o output dannosi o sensibili.

Casi d'uso

Model Armor ha diversi casi d'uso in più settori:

  • Sicurezza

    • Le organizzazioni possono ridurre il rischio di divulgazione di proprietà intellettuale (IP) sensibile e informazioni che consentono l'identificazione personale (PII) che potrebbero essere incluse nei prompt o nelle risposte dei LLM.
    • Le organizzazioni possono proteggersi dagli attacchi di prompt injection e jailbreak, impedendo ai malintenzionati di manipolare i sistemi di AI per eseguire azioni non intenzionali.
    • Le organizzazioni possono analizzare il testo nei PDF per individuare contenuti sensibili o dannosi.
  • Sicurezza e AI responsabile

    • Le organizzazioni possono impedire al chatbot di consigliare soluzioni della concorrenza, mantenendo l'integrità del brand e la fedeltà dei clienti.
    • Le organizzazioni possono filtrare i post sui social media generati dalla loro AIA che contengono messaggi dannosi, come contenuti pericolosi o che incitano all'odio.

Supporto dei linguaggi

I filtri Model Armor supportano la sanitizzazione di prompt e risposte in più lingue.

Esistono due modi per attivare il rilevamento multilingue:

Prezzi

Model Armor può essere acquistato come parte integrante di Security Command Center o come servizio autonomo. Per informazioni sui prezzi, consulta la pagina Prezzi di Security Command Center.

Token

I modelli di AI generativa suddividono il testo e altri dati in unità chiamate token. Model Armor utilizza il numero totale di token nei prompt e nelle risposte dell'AI ai fini della determinazione del prezzo. Model Armor limita il numero di token elaborati in ogni prompt e risposta. Model Armor ha limiti di token variabili a seconda del filtro specifico. Se il prompt o la risposta supera il limite di token per il filtro, l'accuratezza del rilevamento viene ridotta, ma non viene restituito alcun errore.

Filtro Limite di token
Prompt injection e rilevamento di jailbreaking Fino a 2000
Prevenzione della perdita di dati (DLP) tramite Sensitive Data Protection Fino a 130.000
AI responsabile 10.000
Materiale pedopornografico 10.000

Considerazioni

Quando utilizzi Model Armor, tieni presente quanto segue:

  • Le impostazioni del piano non possono applicare Sensitive Data Protection.
  • Model Armor rifiuta le richieste di scansione di file in formato RTF di dimensioni pari o inferiori a 50 byte, perché è molto probabile che questi file non siano validi.

Passaggi successivi