Panoramica di AI Protection

AI Protection ti aiuta a gestire la postura di sicurezza dei tuoi carichi di lavoro AI rilevando le minacce e aiutandoti a mitigare i rischi per il tuo inventario di asset AI. Questo documento fornisce una panoramica generale di AI Protection, inclusi i suoi vantaggi e diversi concetti chiave.

Panoramica di AI Protection

AI Protection offre diverse funzionalità per aiutarti a gestire minacce e rischi per i tuoi sistemi di AI, tra cui:

  • Valuta il tuo inventario di AI: valuta e comprendi i tuoi sistemi di AI e le tue risorse di AI, inclusi modelli e set di dati.
  • Gestisci rischi e conformità: gestisci in modo proattivo i rischi per le tue risorse AI e verifica che i tuoi deployment di AI rispettino gli standard di sicurezza pertinenti.
  • Mitigare i rischi legali e finanziari: riduci i rischi finanziari, reputazionali e legali associati a violazioni della sicurezza e mancata conformità normativa.
  • Rileva e gestisci le minacce: rileva e rispondi tempestivamente alle potenziali minacce ai tuoi sistemi e asset AI.
  • Visualizza una dashboard: gestisci tutti i rischi e le minacce correlati all'AI da un'unica dashboard centralizzata.

Casi d'uso

AI Protection aiuta le organizzazioni a migliorare la propria sicurezza identificando e mitigando minacce e rischi correlati ai sistemi di AI e ai dati sensibili. I seguenti casi d'uso sono esempi di come AI Protection può essere utilizzata in diverse organizzazioni:

  • Istituto di servizi finanziari: dati finanziari del cliente

    Un grande istituto di servizi finanziari utilizza modelli di AI che elaborano dati finanziari sensibili.

    • Sfida: l'elaborazione di dati finanziari altamente sensibili con modelli di AI comporta diversi rischi, tra cui il rischio di violazioni dei dati, l'esfiltrazione dei dati durante l'addestramento o l'inferenza e le vulnerabilità dell'infrastruttura di AI sottostante.
    • Caso d'uso: AI Protection monitora continuamente i flussi di lavoro dell'AI per rilevare attività sospette, rileva l'accesso non autorizzato ai dati e il comportamento anomalo dei modelli, esegue la classificazione dei dati sensibili e contribuisce a migliorare la conformità a normative come PCI DSS e GDPR.
  • Fornitore di servizi sanitari: privacy e conformità dei pazienti

    Un importante fornitore di servizi sanitari gestisce cartelle cliniche elettroniche e utilizza l'AI per la pianificazione di diagnosi e trattamenti, trattando dati sanitari protetti (PHI).

    • Sfida: PHI protetti analizzati dai modelli AI sono soggetti a normative rigorose come l'HIPAA. I rischi includono l'esposizione accidentale di PHI tramite configurazioni errate o attacchi dannosi che prendono di mira i sistemi di AI per i dati dei pazienti.
    • Caso d'uso: AI Protection identifica e segnala potenziali violazioni della normativa HIPAA, rileva l'accesso non autorizzato ai dati PHI da parte di modelli o utenti, segnala servizi di AI vulnerabili e potenzialmente configurati in modo errato e monitora la perdita di dati.
  • Azienda di produzione e robotica: proprietà intellettuale proprietaria

    Un'azienda manifatturiera specializzata in robotica e automazione avanzate si affida molto all'AI per ottimizzare le linee di produzione e il controllo robotico, con proprietà intellettuale (PI) vitale incorporata nei suoi algoritmi di AI e nei dati di produzione.

    • Sfida: gli algoritmi di AI proprietari e i dati operativi sensibili sono vulnerabili al furto da parte di minacce interne o avversari esterni, con conseguente potenziale svantaggio competitivo o interruzione operativa.
    • Caso d'uso: AI Protection monitora l'accesso non autorizzato a modelli di AI e repository di codice, rileva i tentativi di esfiltrazione di modelli addestrati e i pattern di accesso ai dati insoliti e segnala le vulnerabilità negli ambienti di sviluppo dell'AI per impedire il furto di proprietà intellettuale.

Regole di Event Threat Detection

Le seguenti regole di Event Threat Detection eseguono i rilevamenti sugli asset Vertex AI:

  • Persistenza: nuovo metodo API AI
  • Persistenza: nuova area geografica per il servizio AI
  • Elevazione dei privilegi: simulazione anomala dell'identità del service account per l'attività di amministrazione AI
  • Elevazione dei privilegi: simulatore anomalo dell'identità di un service account per l'accesso ai dati AI
  • Elevazione dei privilegi: delega anomala del service account con più passaggi per l'attività di amministrazione AI
  • Elevazione dei privilegi: delega anomala del service account con più passaggi per l'accesso ai dati AI
  • Elevazione dei privilegi: simulatore anomalo dell'identità del service account per l'attività di amministrazione AI
  • Accesso iniziale: attività del service account inattivo nel servizio AI

Per saperne di più su Event Threat Detection, consulta la panoramica di Event Threat Detection.

Framework di protezione AI

AI Protection è un framework che include controlli cloud specifici che vengono implementati automaticamente in modalità di rilevamento. La modalità di rilevamento significa che il controllo cloud viene applicato alle risorse definite a scopo di monitoraggio. Vengono rilevate eventuali violazioni e vengono generati avvisi. Utilizzi framework e controlli cloud per definire i requisiti di protezione dell'AI e applicarli al tuo ambiente Google Cloud . AI Protection include il framework predefinito, che definisce i controlli di base consigliati per AI Protection. Quando attivi AI Protection, il framework predefinito viene applicato automaticamente all'organizzazione Google Cloud in modalità rilevamento.

Se necessario, puoi creare copie del framework per creare framework personalizzati per la protezione dell'AI. Puoi aggiungere i controlli cloud ai tuoi framework personalizzati e applicarli all'organizzazione, alle cartelle o ai progetti. Ad esempio, puoi creare framework personalizzati che applicano controlli giurisdizionali specifici a cartelle specifiche per garantire che i dati all'interno di queste cartelle rimangano in una particolare regione geografica.

Controlli cloud nel framework AI Protection predefinito

I seguenti controlli cloud fanno parte del framework AI Protection predefinito.

Nome controllo cloud Descrizione

Blocca la rete VPC predefinita per le istanze Vertex AI Workbench

Non creare istanze Workbench nella rete VPC predefinita per evitare l'utilizzo delle relative regole firewall predefinite troppo permissive.

Blocca il download di file nella console JupyterLab

Non consentire il download di file dalla console JupyterLab nelle istanze Workbench per ridurre i rischi di esfiltrazione di dati e contribuire a prevenire la distribuzione di malware.

Blocca l'accesso a internet per i modelli di runtime di Vertex AI

Non consentire l'accesso a internet nei modelli di runtime di Colab Enterprise per ridurre la superficie di attacco esterna e contribuire a prevenire la potenziale esfiltrazione di dati.

Blocca l'indirizzo IP pubblico per le istanze Vertex AI Workbench

Non consentire indirizzi IP esterni per le istanze Workbench per ridurre l'esposizione a internet e ridurre al minimo il rischio di accessi non autorizzati.

Blocca l'accesso root alle istanze Vertex AI Workbench

Non consentire l'accesso root alle istanze di Workbench per impedire la modifica non autorizzata di file di sistema critici o l'installazione di software dannosi.

Abilita gli upgrade automatici per le istanze di Vertex AI Workbench

Attiva gli upgrade automatici per le istanze Workbench per garantire l'accesso alle funzionalità più recenti, agli aggiornamenti del framework e alle patch di sicurezza.

Attivare CMEK per i job personalizzati di Vertex AI

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per i job di addestramento personalizzato di Vertex AI per ottenere un maggiore controllo sulla crittografia degli input e degli output dei job.

Abilita CMEK per i set di dati Vertex AI

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per i set di dati Vertex AI per ottenere un maggiore controllo sulla crittografia dei dati e sulla gestione delle chiavi.

Attiva CMEK per gli endpoint Vertex AI

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per gli endpoint Vertex AI per avere un maggiore controllo sulla crittografia dei modelli di cui è stato eseguito il deployment e sull'accesso ai dati di controllo.

Abilita CMEK per Vertex AI Feature Store

Richiedi le chiavi di crittografia gestite dal cliente (CMEK) per Vertex AI featurestore per avere un maggiore controllo sulla crittografia e sull'accesso ai dati.

Abilitare CMEK per i job di ottimizzazione degli iperparametri di Vertex AI

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per i job di ottimizzazione degli iperparametri per ottenere un maggiore controllo sulla crittografia dei dati di addestramento del modello e sulla configurazione del job.

Abilita CMEK per gli archivi di metadati Vertex AI

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per gli store di metadati Vertex AI per avere un maggiore controllo sulla crittografia dei metadati e sull'accesso.

Attivare CMEK per i modelli Vertex AI

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per i modelli Vertex AI per ottenere un maggiore controllo sulla crittografia dei dati e sulla gestione delle chiavi.

Abilita CMEK per i modelli di runtime di Vertex AI Notebooks

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per i modelli di runtime di Colab Enterprise per proteggere gli ambienti di runtime e i dati associati.

Attivare CMEK per Vertex AI TensorBoard

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per Vertex AI TensorBoard per avere un maggiore controllo sulla crittografia dei dati degli esperimenti e delle visualizzazioni dei modelli.

Abilita CMEK per le pipeline di addestramento Vertex AI

Richiedi chiavi di crittografia gestite dal cliente (CMEK) nelle pipeline di addestramento di Vertex AI per avere un maggiore controllo sulla crittografia dei dati di addestramento e degli artefatti risultanti.

Attiva CMEK per le istanze Vertex AI Workbench

Richiedi chiavi di crittografia gestite dal cliente (CMEK) per le istanze Vertex AI Workbench per avere un maggiore controllo sulla crittografia dei dati.

Attiva la funzionalità Elimina nel cestino per le istanze Vertex AI Workbench

Attiva la funzionalità di metadati Elimina nel cestino per le istanze Workbench per fornire una rete di sicurezza di recupero cruciale e contribuire a prevenire la perdita accidentale di dati.

Abilitare l'arresto per inattività per i modelli di runtime di Vertex AI

Attiva l'arresto automatico inattivo nei modelli di runtime di Colab Enterprise per ottimizzare i costi del cloud, migliorare la gestione delle risorse e rafforzare la sicurezza.

Abilita il monitoraggio dell'integrità per le istanze di Vertex AI Workbench

Abilita il monitoraggio dell'integrità sulle istanze Workbench per attestare continuamente l'integrità in fase di avvio delle VM rispetto a una baseline attendibile.

Abilita l'avvio protetto per i modelli di runtime di Vertex AI

Attiva l'avvio protetto nei modelli di runtime di Colab Enterprise per evitare l'esecuzione di codice non autorizzato e contribuire a proteggere l'integrità del sistema operativo.

Abilitare l'avvio protetto per le istanze Vertex AI Workbench

Attiva l'avvio protetto per le istanze Workbench per impedire l'esecuzione di software non autorizzati o dannosi durante il processo di avvio.

Abilitare vTPM sulle istanze Vertex AI Workbench

Attiva il Virtual Trusted Platform Module (vTPM) sulle istanze Workbench per proteggere la procedura di avvio e ottenere un maggiore controllo sulla crittografia.

Limitare l'utilizzo del service account predefinito per le istanze di Vertex AI Workbench

Limita l'utilizzo del account di servizio predefinito altamente permissivo per le istanze Workbench per ridurre il rischio di accesso non autorizzato ai servizi. Google Cloud

Aree funzionali supportate

Questa sezione definisce le aree funzionali che AI Protection può contribuire a proteggere.

  • Carichi di lavoro AI: i carichi di lavoro delle applicazioni AI vanno da strumenti interni volti a migliorare la produttività dei dipendenti a soluzioni rivolte ai consumatori progettate per migliorare l'esperienza utente e favorire l'attività. Alcuni esempi includono agenti AI, assistenti virtuali, chatbot di AI conversazionale e consigli personalizzati.
  • Modelli di AI: i modelli di AI sono classificati in modelli di AI di base, modelli di AI ottimizzati, modelli di AI proprietari standard e modelli di AI personalizzati. Alcuni esempi sono Gemini, Llama, modelli di traduzione e modelli personalizzati per attività specifiche.
  • Asset AI: gli asset AI contribuiscono alle pipeline di operazioni di machine learning e vengono utilizzati dai carichi di lavoro di AI. I tipi di asset AI includono:
    • Asset AI dichiarativi: gli strumenti di gestione del ciclo di vita dell'AI, come Vertex AI, monitorano questi asset.
    • Asset AI dedotti: asset generici, come asset di calcolo e archiviazione, utilizzati per elaborare dati o carichi di lavoro AI.
    • Model-as-a-Service (solo API): asset con chiamate programmatiche a modelli di AI proprietari o di terze parti.

Utilizzare la dashboard AI Security

La dashboard AI Security offre una visione completa dell'inventario degli asset AI della tua organizzazione e propone potenziali mitigazioni per una migliore gestione di rischi e minacce.

Accedere alla dashboard

Per accedere alla dashboard AI Security, nella console Google Cloud , vai a Panoramica dei rischi > AI Security.

Per ulteriori informazioni, consulta la dashboard AI Security.

Comprendere le informazioni sui rischi

Questa sezione fornisce informazioni sui potenziali rischi associati ai sistemi di AI. Puoi visualizzare i principali rischi nel tuo inventario dell'AI.

Puoi fare clic su qualsiasi problema per aprire un riquadro dei dettagli che fornisce una visualizzazione del problema.

Visualizzare le minacce dell'AI

Questa sezione fornisce informazioni sulle minacce associate ai sistemi di AI. Puoi visualizzare le 5 minacce recenti più importanti associate alle tue risorse AI.

In questa pagina puoi:

  • Fai clic su Visualizza tutto per visualizzare le minacce associate alle tue risorse AI.
  • Fai clic su una minaccia per visualizzarne ulteriori dettagli.

Visualizzare l'inventario

Puoi visualizzare una visualizzazione del tuo inventario di AI nella dashboard, che fornisce un riepilogo dei progetti che coinvolgono l'AI generativa, dei modelli proprietari e di terze parti in uso attivo e dei set di dati utilizzati per l'addestramento dei modelli di terze parti.

In questa pagina puoi:

  • Per visualizzare la pagina dei dettagli dell'inventario, fai clic su uno dei nodi nella visualizzazione.
  • Per visualizzare un elenco dettagliato delle singole risorse (come i modelli di base e quelli creati su misura), fai clic sulla descrizione comando.
  • Per aprire una visualizzazione dettagliata del modello, fai clic sul modello. Questa visualizzazione mostra dettagli come gli endpoint in cui è ospitato il modello e il set di dati utilizzato per addestrarlo. Se Sensitive Data Protection è abilitato, la visualizzazione dei set di dati mostra anche se il set di dati contiene dati sensibili.

Riepilogo dei risultati della revisione

Questa sezione ti aiuta a valutare e gestire i risultati generati dal framework AI e dalle policy di sicurezza dei dati. Questa sezione include:

  • Risultati: questa sezione mostra un riepilogo dei risultati generati dalle policy di sicurezza dell'AI e dalle policy di sicurezza dei dati. Fai clic su Visualizza tutti i risultati o sul conteggio di ogni categoria di risultati per visualizzare la pagina dei dettagli dei risultati. Fai clic su un risultato per visualizzare ulteriori informazioni.
  • Dati sensibili nei set di dati Vertex AI: questa sezione mostra un riepilogo dei risultati in base ai dati sensibili nei set di dati segnalati da Sensitive Data Protection.

Esaminare i risultati di Model Armor

Un grafico mostra il numero totale di prompt o risposte scansionati da Model Armor e il numero di problemi rilevati da Model Armor. Inoltre, mostra statistiche di riepilogo per vari tipi di problemi rilevati, come prompt injection, rilevamento di jailbreak e rilevamento di dati sensibili.

Queste informazioni vengono compilate in base alle metriche che Model Armor pubblica su Cloud Monitoring.

Passaggi successivi