利用 AI 技术保障安全

Last reviewed 2025-02-05 UTC

Google Cloud 架构完善框架的安全支柱中的这一原则提供了一些建议,可帮助您利用 AI 提高云工作负载的安全性。

由于网络攻击的数量和复杂程度不断增加,因此有必要利用 AI 的潜力来帮助提高安全性。AI 可以帮助减少威胁数量,减少安全专业人员所需的人工工作量,并帮助弥补网络安全领域专家短缺的问题。

原则概览

利用 AI 功能改进现有的安全系统和流程。 您可以使用 Gemini in Security,以及内置于 Google Cloud 服务中的固有 AI 功能。

这些 AI 功能可在安全生命周期的每个阶段提供帮助,从而转变安全性。例如,您可以使用 AI 执行以下操作:

  • 分析和说明潜在恶意代码,而无需进行逆向工程。
  • 减少网络安全从业者的重复性工作。
  • 使用自然语言生成查询并与安全性事件数据进行互动。
  • 显示相关信息。
  • 提供快速回复建议。
  • 帮助修正事件。
  • 汇总针对错误配置和漏洞的高优先级提醒,突出显示潜在影响,并建议缓解措施。

安全自主性级别

在应对不断演变的网络安全威胁时,AI 和自动化技术可帮助您取得更好的安全成效。通过将 AI 用于安全防护,您可以实现更高级别的自主性,从而检测和防范威胁,并提升整体安全状况。Google 在将 AI 用于安全用途时定义了四种自主程度,并概述了 AI 在协助和最终主导安全任务方面的作用日益增强:

  1. 手动:人类用户在整个安全生命周期内运行所有安全任务(预防、检测、确定优先级和响应)。
  2. 辅助:Gemini 等 AI 工具可通过总结信息、生成数据洞见和提供建议来提高人类的工作效率。
  3. 半自主化:AI 承担许多安全任务的主要职责,仅在必要时将任务委托给人类。
  4. 自主:AI 充当可信赖的助理,根据组织的目标和偏好推动安全生命周期,而无需过多的人工干预。

建议

以下部分介绍了有关将 AI 用于安全方面的建议。 这些部分还说明了建议如何与 Google 的安全 AI 框架 (SAIF) 的核心要素保持一致,以及这些建议与安全自主性级别有何关联。

利用 AI 增强威胁检测和响应能力

此建议与以下重点领域相关:

  • 安全运维 (SecOps)
  • 日志记录、审核和监控

AI 可以分析大量安全数据,提供有关威胁行为者行为的分析洞见,并自动分析可能包含恶意内容的代码。此建议与以下 SAIF 要素相符:

  • 扩展检测和响应能力,将 AI 引入组织的威胁防控体系。
  • 实现防御自动化,紧跟现有威胁和新威胁的步伐。

根据您的实现,此建议可能适用于以下自主程度:

  • 辅助:AI 可帮助进行威胁分析和检测。
  • 半自主:AI 在安全任务中承担更多责任。

Google Threat Intelligence 使用 AI 分析威胁行为者行为和恶意代码,可帮助您实施此建议。

专家和非专家都能掌握安全技能

此建议与以下重点领域相关:

  • 安全运维 (SecOps)
  • 云治理、风险与合规性

依托 AI 技术的工具可以总结提醒并推荐缓解措施,这些功能可让更多人员能够使用安全功能。此建议与以下 SAIF 元素相符:

  • 实现防御自动化,紧跟现有威胁和新威胁的步伐。
  • 统一平台级控制措施,确保整个组织的安全措施保持一致。

根据您的实现,此建议可能适用于以下自主程度:

  • 辅助:AI 可帮助您提高安全信息的无障碍性。
  • 半自主:AI 可帮助所有用户更有效地实施安全实践。

Gemini in Security Command Center 可以提供有关错误配置和漏洞的提醒摘要。

利用 AI 自动处理耗时的安全任务

此建议与以下重点领域相关:

  • 基础架构安全
  • 安全运维 (SecOps)
  • 应用安全

AI 可以自动执行分析恶意软件、生成安全规则和识别配置错误等任务。这些功能有助于减轻安全团队的工作负担并缩短响应时间。此建议与 SAIF 要素“实现防御自动化,紧跟现有威胁和新威胁的步伐”相一致。

根据您的实现,此建议可能适用于以下自主程度:

  • 辅助:AI 帮助您自动执行任务。
  • 半自主化:AI 主要负责安全任务,仅在必要时请求人类提供协助。

Google SecOps 中的 Gemini 可以通过协助分析师、检索相关背景信息和提供后续步骤建议来帮助自动执行高工作量任务。

将 AI 纳入风险管理和治理流程

此建议与以下重点领域相关:云治理、风险与合规性。

您可以使用 AI 构建模型清单和风险配置文件。您还可以使用 AI 来实施数据隐私、网络风险和第三方风险方面的政策。此建议与 SAIF 中关于结合周边业务流程背景评估 AI 系统风险的要素相符。

根据您的实现情况,此建议可能适用于半自动驾驶级别的自动驾驶。在此级别,AI 可以编排安全代理来运行流程,以实现自定义的安全目标。

为 AI 系统实施安全的开发实践

此建议与以下重点领域相关:

  • 应用安全
  • AI 和机器学习安全性

您可以使用 AI 来实现安全编码、清理训练数据,以及验证工具和制品。此建议与 SAIF 中关于为 AI 生态系统奠定坚实的安全基础的要素相符。

此建议适用于所有安全自主性级别,因为在有效利用 AI 来保障安全之前,必须先建立安全的 AI 系统。此建议最适合辅助级别,在该级别下,安全实践会通过 AI 得到增强。

如需实施此建议,请遵循 AI 制品的软件工件的供应链级别 (SLSA) 指南,并使用经过验证的容器映像。