Google Cloud Well-Architected Framework 安全核心中的这一原则提供了一些建议,可帮助您保护 AI 系统。这些建议与 Google 的安全 AI 框架 (SAIF) 保持一致,该框架提供了一种切实可行的方法来解决 AI 系统的安全和风险问题。SAIF 是一个概念框架,旨在提供业界标准,以负责任的方式构建和部署 AI。
原则概览
为了帮助确保您的 AI 系统符合安全、隐私和合规性要求,您必须采用从初始设计开始延伸到部署和运营的整体性策略。您可以通过应用 SAIF 的六个核心元素来实现这一整体策略。
Google 利用 AI 来增强安全措施,例如识别威胁、自动执行安全任务和改进检测能力,同时让人类参与关键决策。
Google 强调采用协作方式来提升 AI 安全性。这种方法包括与客户、行业和政府合作,以完善 SAIF 指南并提供实用且切实可行的资源。
有关实现此原则的建议分为以下几部分:
关于安全使用 AI 的建议
为了安全地使用 AI,您需要基础安全控制措施和特定于 AI 的安全控制措施。本部分简要介绍了一些建议,可确保您的 AI 和机器学习部署符合贵组织的安全性、隐私性和合规性要求。 如需简要了解适用于 Google Cloud中 AI 和机器学习工作负载的架构原则和建议,请参阅“良好架构框架”中的AI 和机器学习视角。
明确 AI 的使用目标和要求
此建议与以下重点领域相关:
- 云治理、风险和合规性
- AI 和机器学习安全性
此建议与 SAIF 要素“结合周边业务流程背景评估 AI 系统风险”相符。在设计和改进 AI 系统时,请务必了解您的具体业务目标、风险和合规性要求。
确保数据安全,防止数据丢失或不当处理
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全性
此建议符合以下 SAIF 元素:
- 为 AI 生态系统奠定坚实的安全基础。此元素包括数据收集、存储、访问控制和防范数据中毒。
- 结合相关背景评估 AI 系统风险。强调数据安全,以支持业务目标和合规性。
确保 AI 流水线安全可靠,防范篡改
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全性
此建议符合以下 SAIF 元素:
- 为 AI 生态系统奠定坚实的安全基础。作为构建安全 AI 系统的关键要素,请保护您的代码和模型工件。
- 调整控件以加快反馈环。请跟踪您的资产和流水线运行情况,因为这对缓解措施和突发事件响应至关重要。
使用安全的工具和工件在安全的系统上部署应用
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全性
在 AI 应用中使用安全系统以及经过验证的工具和工件符合 SAIF 中关于为 AI 生态系统和供应链奠定坚实的安全基础的要素。此建议可通过以下步骤得到采纳:
- 实现用于机器学习训练和部署的安全环境
- 使用经过验证的容器映像
- 应用软件工件的供应链级别 (SLSA) 准则
保护和监控输入
此建议与以下重点领域相关:
- 日志记录、审核和监控
- 安全运维
- AI 和机器学习安全性
此建议与有关扩展检测和响应的 SAIF 元素相一致,以将 AI 融入组织的威胁体系。为了防止出现问题,请务必管理生成式 AI 系统的提示、监控输入并控制用户访问权限。
关于 AI 治理的建议
本部分中的所有建议都与以下重点领域相关:云治理、风险和合规性。
Google Cloud 提供了一套强大的工具和服务,可用于构建负责任且合乎道德的 AI 系统。此外,我们还提供了政策、程序和道德考量方面的框架,可以为 AI 系统的开发、部署和使用提供指导。
正如我们的建议所反映的那样,Google 的 AI 治理方法遵循以下原则:
- 公平性
- 透明度
- 问责机制
- 隐私权
- 安全
使用公平性指标
Vertex AI 可以在数据收集期间或训练后评估过程中检测偏差。Vertex AI 提供数据偏差和模型偏差等模型评估指标来帮助您评估模型是否存在偏差。
这些指标与种族、性别和阶层等不同类别的公平性相关。但是,解释统计偏差并不是一项简单直接的工作,因为类别之间的差异可能不是偏差的结果或有害信号。
使用 Vertex Explainable AI
如需了解 AI 模型如何做出决策,请使用 Vertex Explainable AI。此功能可帮助您发现模型逻辑中可能隐藏的潜在偏差。
此可解释性功能已与 BigQuery ML 和 Vertex AI 集成,它们可提供基于特征的解释。您可以在 BigQuery ML 中执行可解释性,或者在 Vertex AI 中注册模型,然后在 Vertex AI 中执行可解释性。
跟踪数据沿袭
跟踪 AI 系统中所用数据的来源和转换。这种跟踪有助于您了解数据的转化历程,并识别潜在的偏见或错误来源。
数据沿袭是 Dataplex 的一项功能,可让您跟踪数据在系统中的移动方式:数据来自何处、传递到何处以及对其应用了哪些转换。
建立问责机制
对 AI 系统的开发、部署和结果确立明确的责任。
使用 Cloud Logging 记录 AI 系统做出的关键事件和决策。日志提供了一个审核轨迹,可帮助您了解系统的运行状况并确定需要改进的方面。
使用 Error Reporting 系统地分析 AI 系统产生的错误。此分析可以揭示指向潜在偏见或模型需要进一步优化区域的模式。
实现差分隐私
在模型训练期间,向数据添加噪声,以使模型难以识别个别数据点,但仍能有效学习。借助 BigQuery 中的 SQL,您可以使用差分隐私聚合来转换查询结果。