Questo principio del pilastro della sicurezza del Google Cloud framework Well-Architected fornisce consigli per proteggere i tuoi sistemi di AI. Questi consigli sono in linea con il Secure AI Framework (SAIF) di Google, che fornisce un approccio pratico per affrontare i problemi di sicurezza e rischio dei sistemi di AI. SAIF è un framework concettuale che mira a fornire standard a livello di settore per sviluppare e implementare l'AI in modo responsabile.
Panoramica del principio
Per contribuire a garantire che i tuoi sistemi di AI soddisfino i requisiti di sicurezza, privacy e conformità, devi adottare una strategia olistica che inizi con la progettazione iniziale e si estenda all'implementazione e alle operazioni. Puoi implementare questa strategia olistica applicando i sei elementi chiave del SAIF.
Google utilizza l'AI per migliorare le misure di sicurezza, ad esempio identificando le minacce, automatizzando le attività di sicurezza e migliorando le funzionalità di rilevamento, mantenendo il controllo umano per le decisioni critiche.
Google promuove un approccio collaborativo per migliorare la sicurezza dell'AI. Questo approccio prevede la collaborazione con clienti, settori e governi per migliorare le linee guida del SAIF e offrire risorse pratiche e attuabili.
I consigli per implementare questo principio sono raggruppati nelle seguenti sezioni:
Consigli per utilizzare l'AI in modo sicuro
Per utilizzare l'AI in modo sicuro, sono necessari sia controlli di sicurezza di base sia controlli di sicurezza specifici per l'AI. Questa sezione fornisce una panoramica dei consigli per garantire che le implementazioni di AI e ML soddisfino i requisiti di sicurezza, privacy e conformità della tua organizzazione. Per una panoramica dei principi e dei consigli architetturali specifici per i workload di AI e ML in Google Cloud, consulta la prospettiva AI e ML nel framework Well-Architected.
Definisci obiettivi e requisiti chiari per l'utilizzo dell'AI
Questo consiglio è pertinente alle seguenti aree di interesse:
- Governance, rischio e conformità del cloud
- Sicurezza di AI e ML
Questo consiglio è in linea con l'elemento SAIF relativo alla contestualizzazione dei rischi dei sistemi di AI nei processi aziendali correlati. Quando progetti e sviluppi sistemi di AI, è importante comprendere gli obiettivi aziendali, i rischi e i requisiti di conformità specifici.
Mantenere i dati al sicuro e prevenire perdite o gestione errata
Questo consiglio è pertinente alle seguenti aree di interesse:
- Sicurezza dell'infrastruttura
- Gestione di identità e accessi
- Sicurezza dei dati
- Sicurezza delle applicazioni
- Sicurezza di AI e ML
Questo suggerimento è in linea con i seguenti elementi SAIF:
- Applica le solide basi per la sicurezza anche all'ecosistema AI. Questo elemento include la raccolta, l'archiviazione,controllo dell'accessol'accesso e la protezione contro l'alterazione dei dati.
- Contestualizza i rischi dei sistemi di AI. Enfatizza la sicurezza dei dati per supportare gli obiettivi aziendali e la conformità.
Mantenere le pipeline di AI sicure e robuste contro la manomissione
Questo consiglio è pertinente alle seguenti aree di interesse:
- Sicurezza dell'infrastruttura
- Gestione di identità e accessi
- Sicurezza dei dati
- Sicurezza delle applicazioni
- Sicurezza di AI e ML
Questo suggerimento è in linea con i seguenti elementi SAIF:
- Applica le solide basi per la sicurezza anche all'ecosistema AI. In quanto elemento chiave per la creazione di un sistema di AI sicuro, proteggi il codice e gli artefatti del modello.
- Adatta i controlli per cicli di feedback più rapidi. Poiché è importante per la mitigazione e la risposta agli incidenti, monitora le risorse e le esecuzioni delle pipeline.
Esegui il deployment di app su sistemi sicuri utilizzando strumenti e artefatti sicuri
Questo consiglio è pertinente alle seguenti aree di interesse:
- Sicurezza dell'infrastruttura
- Gestione di identità e accessi
- Sicurezza dei dati
- Sicurezza delle applicazioni
- Sicurezza di AI e ML
L'utilizzo di sistemi sicuri e di strumenti e artefatti convalidati nelle applicazioni basate sull'AI è in linea con l'elemento SAIF relativo all'espansione di solide basi di sicurezza all'ecosistema e alla supply chain dell'AI. Questo consiglio può essere applicato seguendo i seguenti passaggi:
- Implementare un ambiente sicuro per l'addestramento e il deployment di ML
- Utilizzare immagini container convalidate
- Applica le linee guida Supply-chain Levels for Software Artifacts (SLSA).
Proteggere e monitorare gli input
Questo consiglio è pertinente alle seguenti aree di interesse:
- Logging, controllo e monitoraggio
- Operazioni di sicurezza
- Sicurezza di AI e ML
Questo suggerimento è in linea con l'elemento SAIF relativo all'estensione del rilevamento e della risposta per includere l'AI nell'universo delle minacce per un'organizzazione. Per evitare problemi, è fondamentale gestire i prompt per i sistemi di AI generativa, monitorare gli input e controllare l'accesso degli utenti.
Suggerimenti per la governance dell'AI
Tutti i consigli in questa sezione sono pertinenti per la seguente area di interesse: governance, rischio e conformità del cloud.
Google Cloud offre un solido insieme di strumenti e servizi che puoi utilizzare per creare sistemi di AI responsabili ed etici. Offriamo inoltre un framework di norme, procedure e considerazioni etiche che possono guidare lo sviluppo, l'implementazione e l'utilizzo di sistemi di AI.
Come indicato nei nostri consigli, l'approccio di Google alla governance dell'AI è guidato dai seguenti principi:
- Equità
- Trasparenza
- Responsabilità
- Privacy
- Sicurezza
Utilizzare gli indicatori di equità
Vertex AI può rilevare i bias durante la raccolta dei dati o il processo di valutazione post-addestramento. Vertex AI fornisce metriche di valutazione dei modelli come bias dei dati e bias del modello per aiutarti a valutare il bias del modello.
Queste metriche sono correlate all'equità in diverse categorie come razza, genere e classe. Tuttavia, interpretare le deviazioni statistiche non è un'operazione semplice, perché le differenze tra le categorie potrebbero non essere il risultato di un bias o un segnale di danno.
Utilizzo di Vertex Explainable AI
Per capire come prendono decisioni i modelli di AI, utilizza Vertex Explainable AI. Questa funzionalità ti aiuta a identificare potenziali bias che potrebbero essere nascosti nella logica del modello.
Questa funzionalità di interpretabilità è integrata con BigQuery ML e Vertex AI, che forniscono spiegazioni basate sulle caratteristiche. Puoi eseguire l'interpretabilità in BigQuery ML o registrare il modello in Vertex AI ed eseguire l'interpretabilità in Vertex AI.
Monitorare la derivazione dei dati
Tieni traccia dell'origine e della trasformazione dei dati utilizzati nei tuoi sistemi di AI. Questo monitoraggio ti aiuta a comprendere il percorso dei dati e a identificare potenziali fonti di distorsione o errore.
La derivazione dei dati è una funzionalità di Dataplex Universal Catalog che consente di monitorare il modo in cui i dati vengono trasferiti nei sistemi: da dove provengono, dove vengono inviati e a quali trasformazioni sono sottoposti.
Stabilire la responsabilità
Stabilisci una responsabilità chiara per lo sviluppo, l'implementazione e i risultati dei tuoi sistemi di AI.
Utilizza Cloud Logging per registrare gli eventi chiave e le decisioni prese dai tuoi sistemi di AI. I log forniscono un audit trail per aiutarti a comprendere il rendimento del sistema e identificare le aree di miglioramento.
Utilizza Error Reporting per analizzare sistematicamente gli errori commessi dai sistemi di AI. Questa analisi può rivelare pattern che indicano bias sottostanti o aree in cui il modello necessita di un ulteriore perfezionamento.
Implementare la privacy differenziale
Durante l'addestramento del modello, aggiungi rumore ai dati per rendere difficile l'identificazione dei singoli punti dati, ma consentire comunque al modello di apprendere in modo efficace. Con SQL in BigQuery, puoi trasformare i risultati di una query con aggregazioni differenzialmente private.