Model Armor è un servizio Google Cloud completamente gestito che migliora la sicurezza delle applicazioni di AI. Model Armor funziona esaminando i prompt e le risposte degli LLM per vari rischi per la sicurezza. Model Armor ha le seguenti funzionalità:
- Indipendente dal modello e dal cloud: Model Armor è progettato per supportare qualsiasi modello su qualsiasi piattaforma cloud. Ciò include scenari multi-cloud e multi-modello per scegliere le migliori soluzioni di AI per le tue esigenze specifiche.
- Gestione e applicazione centralizzate: Model Armor consente la gestione e l'applicazione centralizzate delle norme di sicurezza.
- API REST pubbliche: Model Armor fornisce un'API REST pubblica che puoi utilizzare per integrare il controllo di prompt e risposte direttamente nelle tue applicazioni. Questo approccio basato su API supporta vari scenari di deployment.
- Controllo degli accessi basato sui ruoli (RBAC): Model Armor incorpora il controllo degli accessi basato sui ruoli (RBAC) per gestire l'accesso e le autorizzazioni all'interno del servizio, in modo che i diversi ruoli utente abbiano livelli appropriati di controllo e visibilità.
- Endpoint: l'API Model Armor offre endpoint regionali per una bassa latenza ed endpoint multiregionali per un'alta disponibilità. Per saperne di più, vedi Endpoint Model Armor.
- Integrazione con Security Command Center: Model Armor è integrato con Security Command Center, il che significa che puoi visualizzare i risultati nella dashboard di Security Command Center e identificare e correggere le violazioni dall'origine.
- Funzionalità di sicurezza:
- Filtri per l'AI responsabile e responsabile: Model Armor offre filtri per la sicurezza dei contenuti, che riguardano contenuti sessualmente espliciti o pericolosi o che contengono molestie o incitamento all'odio.
- Rilevamento di prompt injection e jailbreaking: Model Armor include funzionalità per rilevare e prevenire attacchi di prompt injection e jailbreaking.
- Prevenzione della perdita dei dati (DLP) tramite Sensitive Data Protection: Model Armor include tutte le funzionalità del servizio Sensitive Data Protection di Google Cloud per fornire funzionalità di prevenzione della perdita dei dati. Model Armor può rilevare, classificare e proteggere i dati sensibili, impedendo l'esposizione non autorizzata nelle interazioni LLM.
- Rilevamento di URL dannosi: Model Armor è in grado di identificare URL dannosi sia nei prompt che nelle risposte, migliorando la postura di sicurezza delle applicazioni AI.
- Supporto per lo screening dei documenti: Model Armor supporta lo screening
del testo nei seguenti tipi di documenti per contenuti dannosi.
- File PDF
- Documenti DOCX, DOCM, DOTX, DOTM
- Presentazioni PPTX, PPTM, POTX, POT
- Fogli di lavoro XLSX, XLSM, XLTX, XLTM
Vantaggi
Model Armor offre diversi vantaggi per le organizzazioni, tra cui:
- Sicurezza e protezione dell'AI avanzate: Model Armor aiuta le organizzazioni a mitigare i rischi per la sicurezza associati all'utilizzo di LLM. Model Armor risolve problemi come prompt injection e tentativi di jailbreak, generazione di contenuti dannosi, URL dannosi e perdita di dati sensibili, consentendo integrazioni sicure e affidabili di LLM in prodotti e servizi.
- Visibilità e controllo centralizzati: Model Armor offre una gestione centralizzata di tutte le applicazioni LLM, consentendo ai CISO e agli architetti della sicurezza di monitorare e controllare le norme di sicurezza e protezione.
- Opzioni di deployment flessibili: Model Armor supporta scenari multicloud, multimodello e multi-LLM e può essere implementato in diversi punti dell'architettura dell'applicazione LLM, offrendo alle organizzazioni la flessibilità di integrare Model Armor nella loro infrastruttura e nei loro flussi di lavoro esistenti.
- Personalizzazione e integrazione: Model Armor consente la personalizzazione dei criteri in base a casi d'uso specifici dell'applicazione e si integra nei flussi di lavoro operativi esistenti.
Architettura
Questo diagramma dell'architettura mostra un'applicazione che utilizza Model Armor per proteggere un LLM e un utente. I passaggi seguenti spiegano il flusso di dati.
- Un utente fornisce un prompt all'applicazione.
- Model Armor ispeziona il prompt in entrata per individuare contenuti potenzialmente sensibili.
- Il prompt (o il prompt pulito) viene inviato al LLM.
- L'LLM genera una risposta.
- Model Armor esamina la risposta generata per rilevare contenuti potenzialmente sensibili.
- La risposta (o la risposta pulita) viene inviata all'utente. Model Armor invia una descrizione dettagliata dei filtri attivati e non attivati nella risposta.
In breve, Model Armor funge da filtro, ispezionando sia l'input (prompt) sia l'output (risposta), per garantire che l'LLM non sia esposto o fornisca input o output dannosi o sensibili.
Casi d'uso
Model Armor ha diversi casi d'uso in più settori:
Sicurezza
- Le organizzazioni possono ridurre il rischio di divulgazione di proprietà intellettuale (IP) sensibile e informazioni che consentono l'identificazione personale (PII) che potrebbero essere incluse nei prompt o nelle risposte dei LLM.
- Le organizzazioni possono proteggersi dagli attacchi di prompt injection e jailbreak, impedendo ai malintenzionati di manipolare i sistemi di AI per eseguire azioni non intenzionali.
- Le organizzazioni possono analizzare il testo nei PDF per individuare contenuti sensibili o dannosi.
Sicurezza e AI responsabile
- Le organizzazioni possono impedire al chatbot di consigliare soluzioni della concorrenza, mantenendo l'integrità del brand e la fedeltà dei clienti.
- Le organizzazioni possono filtrare i post sui social media generati dalla loro AIA che contengono messaggi dannosi, come contenuti pericolosi o che incitano all'odio.
Supporto dei linguaggi
I filtri Model Armor supportano la sanitizzazione di prompt e risposte in più lingue.
- Il filtro Sensitive Data Protection supporta l'inglese e altre lingue a seconda degli infoTypes che hai selezionato.
- I filtri AI responsabile e Rilevamento di prompt injection e jailbreak vengono testati in inglese, spagnolo, francese, italiano, portoghese, tedesco, cinese (mandarino), giapponese e coreano. Questi filtri possono funzionare in altre lingue, ma la qualità dei risultati potrebbe variare.
Esistono due modi per attivare il rilevamento multilingue:
Attiva per ogni richiesta: per un controllo granulare, attiva il rilevamento multilingue per ogni richiesta durante la sanificazione di un prompt utente e di una risposta del modello. Per saperne di più, consulta Sanificare il prompt dell'utente con il rilevamento multilingue attivato e Sanificare la risposta del modello con il rilevamento multilingue attivato.
Attivazione una tantum del modello: se preferisci una configurazione più semplice, puoi attivare il rilevamento multilingue come configurazione una tantum a livello di modello Model Armor utilizzando l'API REST. Per saperne di più, vedi Creare un modello Model Armor.
Prezzi
Model Armor può essere acquistato come parte integrante di Security Command Center o come servizio autonomo. Per informazioni sui prezzi, consulta la pagina Prezzi di Security Command Center.
Token
I modelli di AI generativa suddividono il testo e altri dati in unità chiamate token. Model Armor utilizza il numero totale di token nei prompt e nelle risposte dell'AI ai fini della determinazione del prezzo. Model Armor limita il numero di token elaborati in ogni prompt e risposta. Model Armor ha limiti di token variabili a seconda del filtro specifico. Se il prompt o la risposta supera il limite di token per il filtro, l'accuratezza del rilevamento viene ridotta, ma non viene restituito alcun errore.
Filtro | Limite di token |
---|---|
Prompt injection e rilevamento di jailbreaking | Fino a 2000 |
Prevenzione della perdita di dati (DLP) tramite Sensitive Data Protection | Fino a 130.000 |
AI responsabile | 10.000 |
Materiale pedopornografico | 10.000 |
Considerazioni
Quando utilizzi Model Armor, tieni presente quanto segue:
- Le impostazioni del piano non possono applicare Sensitive Data Protection.
- Model Armor rifiuta le richieste di scansione di file in formato RTF di dimensioni pari o inferiori a 50 byte, perché è molto probabile che questi file non siano validi.
Passaggi successivi
- Scopri di più sui concetti chiave di Model Armor.
- Inizia a utilizzare Model Armor.
- Scopri di più sui modelli Model Armor.
- Scopri di più sulle impostazioni di base di Model Armor.
- Sanitizza prompt e risposte.
- Scopri di più sull'audit logging di Model Armor.
- Risolvi i problemi di Model Armor.