Questo principio del pilastro della sicurezza del Google Cloud Well-Architected Framework fornisce suggerimenti per utilizzare l'AI per aiutarti a migliorare la sicurezza dei tuoi carichi di lavoro cloud.
A causa dell'aumento del numero e della sofisticatezza degli attacchi informatici, è importante sfruttare il potenziale dell'IA per contribuire a migliorare la sicurezza. L'IA può contribuire a ridurre il numero di minacce, l'attività manuale richiesta dai professionisti della sicurezza e compensare la scarsità di esperti nel dominio della cybersicurezza.
Panoramica dei principi
Utilizza le funzionalità di AI per migliorare i sistemi e le procedure di sicurezza esistenti. Puoi utilizzare Gemini in Sicurezza nonché le funzionalità di AI intrinseche integrate nei servizi Google Cloud .
Queste funzionalità di IA possono trasformare la sicurezza fornendo assistenza in ogni fase del ciclo di vita della sicurezza. Ad esempio, puoi utilizzare l'IA per:
- Analizza e spiega il codice potenzialmente dannoso senza eseguire il reverse engineering.
- Riduci il lavoro ripetitivo per i professionisti della cybersicurezza.
- Utilizza il linguaggio naturale per generare query e interagire con i dati degli eventi di sicurezza.
- Mostrare informazioni contestuali.
- Offrire suggerimenti per risposte rapide.
- Aiutano nella correzione degli eventi.
- Riassume gli avvisi ad alta priorità relativi a configurazioni errate e vulnerabilità, evidenziando l'impatto potenziale e consigliando misure correttive.
Livelli di autonomia di sicurezza
L'IA e l'automazione possono aiutarti a ottenere risultati migliori in termini di sicurezza quando hai a che fare con minacce alla cybersicurezza in continua evoluzione. Utilizzando l'AI per la sicurezza, puoi raggiungere livelli di autonomia superiori per rilevare e prevenire le minacce e migliorare la tua security posture complessiva. Google definisce quattro livelli di autonomia quando utilizzi l'IA per la sicurezza e delineano il ruolo crescente dell'IA nell'assistenza e, in ultima analisi, nel controllo delle attività di sicurezza:
- Manuale: le persone eseguono tutte le attività di sicurezza (prevenzione, rilevamento, assegnazione delle priorità e risposta) nell'intero ciclo di vita della sicurezza.
- Assistita: gli strumenti di IA, come Gemini, aumentano la produttività umana riepilogando le informazioni, generando approfondimenti e dando consigli.
- Semi-autonoma: l'IA si assume la responsabilità principale di molte attività di sicurezza e le delega agli esseri umani solo quando necessario.
- Autonomo: l'AI agisce come un assistente affidabile che gestisce il ciclo di vita della sicurezza in base agli obiettivi e alle preferenze della tua organizzazione, con un intervento umano minimo.
Consigli
Le sezioni seguenti descrivono i consigli per l'utilizzo dell'IA per la sicurezza. Le sezioni indicano anche in che modo i consigli sono in linea con gli elementi di base del Secure AI Framework (SAIF) di Google e in che modo sono pertinenti ai livelli di autonomia per la sicurezza.
- Migliorare il rilevamento e la risposta alle minacce con l'IA
- Semplifica la sicurezza sia per gli esperti che per i non esperti
- Automatizzare le attività di sicurezza che richiedono molto tempo con l'IA
- Incorporare l'IA nei processi di gestione del rischio e di governance
- Implementare pratiche di sviluppo sicure per i sistemi di IA
Migliora il rilevamento e la risposta alle minacce con l'IA
Questo consiglio è pertinente per le seguenti aree di interesse:
- Operazioni di sicurezza (SecOps)
- Logging, controllo e monitoraggio
L'AI può analizzare grandi volumi di dati sulla sicurezza, offrire approfondimenti sul comportamento degli autori di minacce e automatizzare l'analisi del codice potenzialmente dannoso. Questo consiglio è in linea con i seguenti elementi SAIF:
- Estendi il rilevamento e la risposta per includere l'IA nell'universo delle minacce della tua organizzazione.
- Automatizza le difese per tenere il passo con le minacce esistenti e quelle nuove.
A seconda dell'implementazione, questo consiglio può essere pertinente per i seguenti livelli di autonomia:
- Assistita: l'IA aiuta con l'analisi e il rilevamento delle minacce.
- Semi-autonoma: l'AI si assume più responsabilità per l'attività di sicurezza.
Google Threat Intelligence, che utilizza l'IA per analizzare il comportamento degli utenti malintenzionati e il codice dannoso, può aiutarti a implementare questo consiglio.
Semplifica la sicurezza sia per gli esperti che per i non esperti
Questo consiglio è pertinente per le seguenti aree di interesse:
- Operazioni di sicurezza (SecOps)
- Governance, rischio e conformità del cloud
Gli strumenti basati sull'IA possono riepilogare gli avvisi e consigliare le mitigazioni e queste funzionalità possono rendere la sicurezza più accessibile a una gamma più ampia di personale. Questo consiglio è in linea con i seguenti elementi SAIF:
- Automatizza le difese per tenere il passo con le minacce esistenti e quelle nuove.
- Armonizza i controlli a livello di piattaforma per garantire una sicurezza coerente in tutta l'organizzazione.
A seconda dell'implementazione, questo consiglio può essere pertinente per i seguenti livelli di autonomia:
- Assistita: l'IA ti aiuta a migliorare l'accessibilità delle informazioni sulla sicurezza.
- Semi-autonoma: l'IA contribuisce a rendere più efficaci le pratiche di sicurezza per tutti gli utenti.
Gemini in Security Command Center può fornire riepiloghi degli avvisi relativi a configurazioni errate e vulnerabilità.
Automatizza le attività di sicurezza che richiedono molto tempo con l'IA
Questo consiglio è pertinente per le seguenti aree di interesse:
- Sicurezza dell'infrastruttura
- Operazioni di sicurezza (SecOps)
- Sicurezza delle applicazioni
L'AI può automatizzare attività come l'analisi di malware, la generazione di regole di sicurezza e l'identificazione di configurazioni errate. Queste funzionalità possono contribuire a ridurre il carico di lavoro dei team di sicurezza e ad accelerare i tempi di risposta. Questo consiglio è in linea con l'elemento SAIF relativo all'automazione delle difese per tenere il passo con le minacce esistenti e quelle nuove.
A seconda dell'implementazione, questo consiglio può essere pertinente per i seguenti livelli di autonomia:
- Assistita: l'IA ti aiuta ad automatizzare le attività.
- Semi-autonoma: l'AI si assume la responsabilità principale delle attività di sicurezza e richiede l'assistenza umana solo se necessario.
Gemini in Google SecOps può contribuire ad automatizzare le attività ad alta intensità di lavoro aiutando gli analisti, recuperando il contesto pertinente e fornendo consigli per i passaggi successivi.
Integrare l'IA nei processi di governance e gestione del rischio
Questo consiglio è pertinente alla seguente area di interesse: governance, rischio e conformità del cloud.
Puoi utilizzare l'IA per creare un inventario di modelli e profili di rischio. Puoi anche utilizzare l'IA per implementare norme relative alla privacy dei dati, ai rischi informatici e ai rischi di terze parti. Questo consiglio è in linea con l'elemento SAIF relativo alla contestualizzazione dei rischi del sistema di IA nei processi aziendali circostanti.
A seconda dell'implementazione, questo consiglio può essere pertinente al livello di autonomia semiautonoma. A questo livello, l'IA può orchestrare agenti di sicurezza che eseguono processi per raggiungere i tuoi obiettivi di sicurezza personalizzati.
Implementa pratiche di sviluppo sicure per i sistemi di IA
Questo consiglio è pertinente per le seguenti aree di interesse:
- Sicurezza delle applicazioni
- Sicurezza di AI e ML
Puoi utilizzare l'IA per la programmazione sicura, la pulizia dei dati di addestramento e la convalida di strumenti e elementi. Questo consiglio è in linea con l'elemento SAIF relativo all'espansione di solide basi di sicurezza nell'ecosistema AI.
Questo consiglio può essere pertinente per tutti i livelli di autonomia di sicurezza, perché è necessario disporre di un sistema di IA sicuro prima che l'IA possa essere utilizzata efficacemente per la sicurezza. Il consiglio è più pertinente per il livello assistito, in cui le pratiche di sicurezza sono potenziate dall'IA.
Per implementare questo consiglio, segui le linee guida di Supply-chain Levels for Software Artifacts (SLSA) per gli elementi AI e utilizza immagini container convalidate.