Google Cloud Well-Architected Framework 安全核心中的这一原则提供了使用 AI 的建议,帮助您提高云工作负载的安全性。
由于网络攻击的数量和复杂性不断增加,因此请务必利用 AI 的潜力来帮助提高安全性。AI 可以帮助减少威胁数量,减少安全专业人员的手动工作量,并帮助弥补网络安全领域专家的匮乏。
原则概览
使用 AI 功能改进您现有的安全系统和流程。 您可以使用 Gemini in Security 以及服务内置的 AI 功能。 Google Cloud
这些 AI 功能可在安全生命周期的每个阶段提供帮助,从而彻底改变安全形势。例如,您可以使用 AI 执行以下操作:
- 无需进行逆向工程即可分析和说明潜在恶意代码。
- 减少信息安全从业者的重复性工作。
- 使用自然语言生成查询并与安全事件数据进行交互。
- 显示情境信息。
- 提供快速回复建议。
- 协助修复事件。
- 总结针对错误配置和漏洞的高优先级提醒,突出显示潜在影响,并提出缓解措施建议。
安全自主性等级
在应对不断变化的信息安全威胁时,AI 和自动化技术可以帮助您取得更好的安全效果。通过将 AI 用于安全,您可以实现更高程度的自主性,以检测和防范威胁,并改善整体安全状况。Google 定义了在将 AI 用于安全方面时,AI 的四个自主程度,这些程度概述了 AI 在协助和最终主导安全任务方面日益增强的作用:
- 手动:在整个安全生命周期中,由人工执行所有安全任务(预防、检测、确定优先级和响应)。
- 辅助:Gemini 等 AI 工具可通过总结信息、生成数据洞见并提出建议来提高人类工作效率。
- 半自主:AI 主要负责许多安全任务,仅在需要时才委派人类。
- 自主性:AI 可以充当可信赖的助理,根据组织的目标和偏好驱动安全生命周期,只需极少的人工干预。
建议
以下各部分介绍了有关使用 AI 确保安全的建议。 这些部分还说明了这些建议如何与 Google 的安全 AI 框架 (SAIF) 核心要素保持一致,以及它们与安全自主程度之间的关系。
利用 AI 加强威胁检测和响应
此建议与以下重点领域相关:
- 安全运维 (SecOps)
- 日志记录、审核和监控
AI 可以分析大量安全数据,提供有关威胁行为者行为的数据洞见,并自动分析潜在恶意代码。此建议符合以下 SAIF 元素:
- 扩展检测和响应能力,将 AI 引入组织的威胁防控体系。
- 实现防御自动化,紧跟现有威胁和新威胁的步伐。
根据您的实现方式,此建议可能与以下自动化级别相关:
- 辅助:AI 有助于进行威胁分析和检测。
- 半自主:AI 承担更多安全任务。
Google Threat Intelligence 使用 AI 分析威胁行为者行为和恶意代码,可帮助您实现此建议。
简化专家和非专家的安全性
此建议与以下重点领域相关:
- 安全运维 (SecOps)
- 云治理、风险和合规性
AI 赋能的工具可以汇总警报并建议缓解措施,这些功能使更广泛的人员能够更轻松地实现安全性。此建议与以下 SAIF 元素保持一致:
- 实现防御自动化,紧跟现有威胁和新威胁的步伐。
- 统一平台级控制措施,确保整个组织的安全措施保持一致。
根据您的实现方式,此建议可能与以下自动化级别相关:
- 辅助:AI 可帮助您改进安全信息的可访问性。
- 半自主:AI 有助于为所有用户打造更有效的安全做法。
Security Command Center 中的 Gemini 可以提供针对错误配置和漏洞的提醒摘要。
利用 AI 自动执行耗时的安全任务
此建议与以下重点领域相关:
- 基础架构安全
- 安全运维 (SecOps)
- 应用安全
AI 可以自动执行各种任务,例如分析恶意软件、生成安全规则和识别错误配置。这些功能有助于减轻安全团队的工作量并缩短响应时间。此建议与有关自动防御的 SAIF 元素相一致,以应对现有威胁和新威胁。
根据您的实现方式,此建议可能与以下自动化级别相关:
- 辅助:AI 可帮助您自动执行任务。
- 半自动:AI 承担安全任务的主要责任,仅在需要时请求人工协助。
Google SecOps 中的 Gemini 通过协助分析师、检索相关上下文以及为后续步骤提出建议,有助于自动执行繁重的任务。
将 AI 纳入风险管理和治理流程
此建议与以下重点领域相关:Cloud 治理、风险和合规性。
您可以使用 AI 构建模型清单和风险概况。您还可以使用 AI 实施数据隐私、网络风险和第三方风险政策。此建议与 SAIF 元素中关于将 AI 系统风险置于周围业务流程中的情境相关的要素相一致。
根据您的实现方式,此建议可能与半自主级别相关。在此级别,AI 可以编排安全代理,这些代理运行进程来实现您的自定义安全目标。
为 AI 系统实施安全开发实践
此建议与以下重点领域相关:
- 应用安全
- AI 和机器学习安全性
您可以使用 AI 安全地编码、清理训练数据以及验证工具和工件。此建议与有关向 AI 生态系统扩展坚实安全基础的 SAIF 元素保持一致。
此建议适用于所有级别的安全自主性,因为必须先建立安全的 AI 系统,然后才能有效地将 AI 用于安全用途。此建议与辅助级别最为相关,辅助级别通过 AI 增强了安全性实践。
如需实施此建议,请遵循软件制品的供应链级别 (SLSA) 准则中有关 AI 制品的准则,并使用经过验证的容器映像。