Questo principio del pilastro della sicurezza del Google Cloud Well-Architected Framework fornisce consigli per utilizzare l'AI per migliorare la sicurezza dei tuoi carichi di lavoro cloud.
A causa del numero e della sofisticazione sempre maggiori degli attacchi informatici, è importante sfruttare il potenziale dell'AI per contribuire a migliorare la sicurezza. L'AI può contribuire a ridurre il numero di minacce, lo sforzo manuale richiesto ai professionisti della sicurezza e a compensare la scarsità di esperti nel campo della sicurezza informatica.
Panoramica del principio
Utilizza le funzionalità di AI per migliorare i sistemi e le procedure di sicurezza esistenti. Puoi utilizzare Gemini in Security e le funzionalità di AI intrinseche integrate nei servizi Google Cloud .
Queste funzionalità di AI possono trasformare la sicurezza fornendo assistenza in ogni fase del ciclo di vita della sicurezza. Ad esempio, puoi utilizzare l'AI per:
- Analizza e spiega il codice potenzialmente dannoso senza eseguire il reverse engineering.
- Ridurre il lavoro ripetitivo per i professionisti della cybersicurezza.
- Utilizza il linguaggio naturale per generare query e interagire con i dati degli eventi di sicurezza.
- Mostrare informazioni contestuali.
- Offrire consigli per risposte rapide.
- Aiutare a risolvere i problemi relativi agli eventi.
- Riassumere gli avvisi ad alta priorità relativi a configurazioni errate e vulnerabilità, evidenziare i potenziali impatti e consigliare misure correttive.
Livelli di autonomia di sicurezza
L'AI e l'automazione possono aiutarti a ottenere risultati migliori in termini di sicurezza quando affronti minacce informatiche in continua evoluzione. Utilizzando l'AI per la sicurezza, puoi raggiungere livelli di autonomia maggiori per rilevare e prevenire le minacce e migliorare la tua postura di sicurezza complessiva. Google definisce quattro livelli di autonomia quando utilizzi l'AI per la sicurezza e descrive il ruolo crescente dell'AI nell'assistere e infine guidare le attività di sicurezza:
- Manuale: gli esseri umani eseguono tutte le attività di sicurezza (prevenzione, rilevamento, assegnazione delle priorità e risposta) durante l'intero ciclo di vita della sicurezza.
- Assistita: gli strumenti di AI, come Gemini, aumentano la produttività umana riepilogando le informazioni, generando insight e fornendo consigli.
- Semi-autonoma: l'AI si assume la responsabilità principale di molte attività di sicurezza e delega agli esseri umani solo quando necessario.
- Autonoma: l'AI funge da assistente affidabile che guida il ciclo di vita della sicurezza in base agli obiettivi e alle preferenze della tua organizzazione, con un intervento umano minimo.
Consigli
Le sezioni seguenti descrivono i consigli per l'utilizzo dell'AI per la sicurezza. Le sezioni indicano anche in che modo i consigli sono in linea con gli elementi fondamentali del Secure AI Framework (SAIF) di Google e in che modo sono pertinenti ai livelli di autonomia della sicurezza.
- Migliorare il rilevamento e la risposta alle minacce con l'AI
- Semplifica la sicurezza sia per gli esperti che per i non esperti
- Automatizzare le attività di sicurezza dispendiose in termini di tempo con l'AI
- Incorporare l'AI nei processi di gestione del rischio e governance
- Implementare pratiche di sviluppo sicure per i sistemi di AI
Migliorare il rilevamento e la risposta alle minacce con l'AI
Questo consiglio è pertinente alle seguenti aree di interesse:
- Operazioni di sicurezza (SecOps)
- Logging, controllo e monitoraggio
L'AI può analizzare grandi volumi di dati sulla sicurezza, offrire approfondimenti sul comportamento degli autori delle minacce e automatizzare l'analisi di codice potenzialmente dannoso. Questo consiglio è in linea con i seguenti elementi del SAIF:
- Estendi il rilevamento e la risposta per includere l'AI nell'universo delle minacce della tua organizzazione.
- Automatizza le difese per tenere il passo con le minacce esistenti e quelle nuove.
A seconda dell'implementazione, questo consiglio può essere pertinente ai seguenti livelli di autonomia:
- Assistita: l'AI aiuta con l'analisi e il rilevamento delle minacce.
- Semi-autonoma: l'AI si assume una maggiore responsabilità per l'attività di sicurezza.
Google Threat Intelligence, che utilizza l'AI per analizzare il comportamento degli autori delle minacce e il codice dannoso, può aiutarti a implementare questo consiglio.
Semplifica la sicurezza sia per gli esperti che per i non esperti
Questo consiglio è pertinente alle seguenti aree di interesse:
- Operazioni di sicurezza (SecOps)
- Governance, rischio e conformità del cloud
Gli strumenti basati sull'AI possono riepilogare gli avvisi e consigliare misure di mitigazione. Queste funzionalità possono rendere la sicurezza più accessibile a una gamma più ampia di personale. Questo consiglio è in linea con i seguenti elementi del SAIF:
- Automatizza le difese per tenere il passo con le minacce esistenti e quelle nuove.
- Armonizza i controlli a livello di piattaforma per garantire una sicurezza coerente in tutta l'organizzazione.
A seconda dell'implementazione, questo consiglio può essere pertinente ai seguenti livelli di autonomia:
- Assistita: l'AI ti aiuta a migliorare l'accessibilità delle informazioni sulla sicurezza.
- Semi-autonoma: l'AI contribuisce a rendere più efficaci le pratiche di sicurezza per tutti gli utenti.
Gemini in Security Command Center può fornire riepiloghi degli avvisi relativi a configurazioni errate e vulnerabilità.
Automatizzare le attività di sicurezza dispendiose in termini di tempo con l'AI
Questo consiglio è pertinente alle seguenti aree di interesse:
- Sicurezza dell'infrastruttura
- Operazioni di sicurezza (SecOps)
- Sicurezza delle applicazioni
L'AI può automatizzare attività come l'analisi del malware, la generazione di regole di sicurezza e l'identificazione di configurazioni errate. Queste funzionalità possono contribuire a ridurre il carico di lavoro dei team di sicurezza e ad accelerare i tempi di risposta. Questo consiglio è in linea con l'elemento SAIF relativo all'automazione delle difese per tenere il passo con minacce nuove ed esistenti.
A seconda dell'implementazione, questo consiglio può essere pertinente ai seguenti livelli di autonomia:
- Assistita: l'AI ti aiuta ad automatizzare le attività.
- Semi-autonoma: l'AI si assume la responsabilità principale delle attività di sicurezza e richiede l'assistenza umana solo quando necessario.
Gemini in Google SecOps può contribuire ad automatizzare le attività ad alto costo aiutando gli analisti, recuperando il contesto pertinente e fornendo consigli per i passaggi successivi.
Integrare l'AI nei processi di gestione del rischio e governance
Questo consiglio è pertinente alla seguente area di interesse: governance, rischio e conformità del cloud.
Puoi utilizzare l'AI per creare un inventario dei modelli e profili di rischio. Puoi anche utilizzare l'AI per implementare norme per la privacy dei dati, il rischio informatico e il rischio di terze parti. Questo consiglio è in linea con l'elemento SAIF relativo alla contestualizzazione dei rischi dei sistemi di AI nei processi aziendali correlati.
A seconda dell'implementazione, questo consiglio può essere pertinente al livello di autonomia semiautonoma. A questo livello, l'AI può orchestrare agenti di sicurezza che eseguono processi per raggiungere i tuoi obiettivi di sicurezza personalizzati.
Implementare pratiche di sviluppo sicure per i sistemi di AI
Questo consiglio è pertinente alle seguenti aree di interesse:
- Sicurezza delle applicazioni
- Sicurezza di AI e ML
Puoi utilizzare l'AI per la codifica sicura, la pulizia dei dati di addestramento e la convalida di strumenti e artefatti. Questo consiglio è in linea con l'elemento SAIF relativo all'adozione di solide basi di sicurezza anche nell'ecosistema AI.
Questo consiglio può essere pertinente a tutti i livelli di autonomia della sicurezza, perché un sistema di AI sicuro deve essere implementato prima che l'AI possa essere utilizzata in modo efficace per la sicurezza. Il consiglio è più pertinente per il livello assistito, in cui le pratiche di sicurezza sono integrate dall'AI.
Per implementare questo consiglio, segui le linee guida di Supply-chain Levels for Software Artifacts (SLSA) per gli artefatti AI e utilizza immagini container convalidate.