Usar a IA para segurança

Last reviewed 2025-02-05 UTC

Esse princípio no pilar de segurança do Google Cloud Well-Architected Framework fornece recomendações para usar a IA e melhorar a segurança das suas cargas de trabalho na nuvem.

Devido ao aumento no número e na sofisticação dos ataques cibernéticos, é importante aproveitar o potencial da IA para melhorar a segurança. A IA pode ajudar a reduzir o número de ameaças, diminuir o esforço manual exigido pelos profissionais de segurança e compensar a escassez de especialistas no domínio da segurança cibernética.

Visão geral do princípio

Use recursos de IA para melhorar seus sistemas e processos de segurança atuais. Você pode usar o Gemini em segurança e os recursos de IA intrínsecos integrados aos serviços do Google Cloud .

Esses recursos de IA podem transformar a segurança ao oferecer assistência em todas as etapas do ciclo de vida da segurança. Por exemplo, é possível usar a IA para fazer o seguinte:

  • Analisar e explicar códigos potencialmente maliciosos sem engenharia reversa.
  • Reduzir o trabalho repetitivo para profissionais de segurança cibernética.
  • Use linguagem natural para gerar consultas e interagir com dados de eventos de segurança.
  • Mostrar informações contextuais.
  • Oferecer recomendações para respostas rápidas.
  • Ajudar na correção de eventos.
  • Resumir alertas de alta prioridade para configurações incorretas e vulnerabilidades, destacar possíveis impactos e recomendar mitigações.

Níveis de autonomia de segurança

A IA e a automação podem ajudar você a alcançar melhores resultados de segurança ao lidar com ameaças de segurança cibernética em constante evolução. Ao usar a IA para segurança, você pode alcançar níveis mais altos de autonomia para detectar e evitar ameaças e melhorar sua postura geral de segurança. O Google define quatro níveis de autonomia ao usar a IA para segurança. Eles descrevem o papel crescente da IA em ajudar e, eventualmente, liderar tarefas de segurança:

  1. Manual: os humanos executam todas as tarefas de segurança (prevenção, detecção, priorização e resposta) em todo o ciclo de vida da segurança.
  2. Assistida: ferramentas de IA, como o Gemini, aumentam a produtividade humana resumindo informações, gerando insights e fazendo recomendações.
  3. Semiautônoma: a IA assume a responsabilidade principal por muitas tarefas de segurança e delega aos humanos somente quando necessário.
  4. Autônoma: a IA atua como um assistente confiável que impulsiona o ciclo de vida da segurança com base nas metas e preferências da sua organização, com intervenção humana mínima.

Recomendações

As seções a seguir descrevem as recomendações para usar a IA na segurança. As seções também indicam como as recomendações se alinham aos elementos principais do framework de IA segura (SAIF) do Google e como elas são relevantes para os níveis de autonomia de segurança.

Melhorar a detecção e resposta a ameaças com a IA

Esta recomendação é relevante para as seguintes áreas de foco:

  • Operações de segurança (SecOps)
  • Geração de registros, auditoria e monitoramento

A IA pode analisar grandes volumes de dados de segurança, oferecer insights sobre o comportamento de agentes de ameaças e automatizar a análise de códigos potencialmente maliciosos. Essa recomendação está alinhada aos seguintes elementos do SAIF:

  • Estender a detecção e a resposta para que também considerem as ameaças com base em IA.
  • Automatizar defesas para responder a ameaças novas e antigas.

Dependendo da sua implementação, essa recomendação pode ser relevante para os seguintes níveis de autonomia:

  • Assistida: a IA ajuda na análise e detecção de ameaças.
  • Semiautônoma: a IA assume mais responsabilidade pela tarefa de segurança.

A Inteligência contra ameaças do Google, que usa IA para analisar o comportamento de perpetradores de ameaças e códigos maliciosos, pode ajudar você a implementar essa recomendação.

Simplificar a segurança para especialistas e não especialistas

Esta recomendação é relevante para as seguintes áreas de foco:

  • Operações de segurança (SecOps)
  • Governança, risco e compliance na nuvem

As ferramentas com tecnologia de IA podem resumir alertas e recomendar mitigações, e essas funcionalidades podem tornar a segurança mais acessível a uma gama mais ampla de funcionários. Essa recomendação está alinhada aos seguintes elementos do SAIF:

  • Automatizar defesas para responder a ameaças novas e antigas.
  • Ajustar os controles no nível da plataforma para garantir uma segurança consistente em toda a organização.

Dependendo da sua implementação, essa recomendação pode ser relevante para os seguintes níveis de autonomia:

  • Assistida: a IA ajuda você a melhorar a acessibilidade das informações de segurança.
  • Semiautônoma: a IA ajuda a tornar as práticas de segurança mais eficazes para todos os usuários.

O Gemini no Security Command Center pode fornecer resumos de alertas para configurações incorretas e vulnerabilidades.

Automatize tarefas de segurança demoradas com IA

Esta recomendação é relevante para as seguintes áreas de foco:

  • Segurança da infraestrutura
  • Operações de segurança (SecOps)
  • Segurança para aplicativos

A IA pode automatizar tarefas como analisar malware, gerar regras de segurança e identificar configurações incorretas. Esses recursos podem ajudar a reduzir a carga de trabalho das equipes de segurança e acelerar os tempos de resposta. Essa recomendação está alinhada ao elemento SAIF sobre a automatização de defesas para acompanhar ameaças novas e antigas.

Dependendo da sua implementação, essa recomendação pode ser relevante para os seguintes níveis de autonomia:

  • Assistida: a IA ajuda você a automatizar tarefas.
  • Semiautônoma: a IA assume a responsabilidade principal pelas tarefas de segurança e só pede assistência humana quando necessário.

O Gemini no Google SecOps pode ajudar a automatizar tarefas complexas, auxiliando os analistas, recuperando o contexto relevante e fazendo recomendações para as próximas etapas.

Incorporar a IA aos processos de gerenciamento de risco e governança

Esta recomendação é relevante para a seguinte área de foco: governança, risco e compliance na nuvem.

Você pode usar a IA para criar um inventário de modelos e perfis de risco. Você também pode usar a IA para implementar políticas de privacidade de dados, risco cibernético e risco de terceiros. Essa recomendação está alinhada ao elemento do SAIF sobre a contextualização dos riscos dos sistemas de IA nos processos comerciais relacionados.

Dependendo da sua implementação, essa recomendação pode ser relevante para o nível de autonomia semiautônomo. Nesse nível, a IA pode orquestrar agentes de segurança que executam processos para alcançar suas metas de segurança personalizadas.

Implementar práticas de desenvolvimento seguras para sistemas de IA

Esta recomendação é relevante para as seguintes áreas de foco:

  • Segurança para aplicativos
  • Segurança de IA e ML

Você pode usar a IA para programação segura, limpeza de dados de treinamento e validação de ferramentas e artefatos. Essa recomendação está alinhada ao elemento do SAIF sobre a expansão de bases de segurança sólidas para o ecossistema de IA.

Essa recomendação é relevante para todos os níveis de autonomia de segurança, porque um sistema de IA seguro precisa estar em vigor antes que a IA possa ser usada de maneira eficaz para segurança. A recomendação é mais relevante para o nível assistido, em que as práticas de segurança são aprimoradas pela IA.

Para implementar essa recomendação, siga as diretrizes dos Níveis de cadeia de suprimentos para artefatos de software (SLSA) para artefatos de IA e use imagens de contêiner validadas.