《Well-Architected Framework:AI 和机器学习观点》一文中的本文档简要介绍了可确保 AI 和机器学习部署满足组织的安全性和合规性要求的原则和建议。本文档中的建议与 Google Cloud 精心设计的框架的安全要素
安全部署 AI 和机器学习工作负载是一项关键要求,尤其是在企业环境中。为了满足此要求,您需要采用整体安全方法,从 AI 和机器学习解决方案的初始概念开始,一直到开发、部署和日常运营。 Google Cloud 提供了强大的工具和服务,旨在帮助保护您的 AI 和机器学习工作负载。
设定明确的目标和要求
与在开发后添加这些控制措施相比,在设计和开发过程中尽早集成所需的安全和合规控制措施更容易。从设计和开发流程的一开始,您就要做出适用于您的特定风险环境和特定业务优先级的决策。
请考虑以下建议:
- 识别潜在的攻击途径,并从一开始就采取安全性与合规性的视角。在设计和改进 AI 系统时,请跟踪您可能面临的攻击面、潜在风险和义务。
- 使您的 AI 和机器学习安全工作与您的业务目标保持一致,并确保安全性是您总体策略中不可或缺的一部分。了解您的安全选择对主要业务目标的影响。
确保数据安全,防止数据丢失或不当处理
数据是宝贵的敏感资产,必须加以保护。数据安全可帮助您保持用户信任、支持您实现业务目标并满足合规性要求。
请考虑以下建议:
- 请勿收集、保留或使用对业务目标来说并非绝对必要的数据。如果可能,请使用合成或完全匿名化的数据。
- 监控数据的收集、存储和转换。维护所有数据访问和操纵活动的日志。此类日志可帮助您审核数据访问、检测未经授权的访问尝试,并防止不必要的访问。
- 根据用户角色实现不同级别的访问权限(例如,无访问权限、只读或写入)。确保根据最小权限原则分配权限。用户只能具有执行其角色活动所需的最低权限。
- 实施加密、安全边界和数据移动限制等措施。这些措施可帮助您防止数据渗漏和数据丢失。
- 为您的机器学习训练系统防范数据中毒。
确保 AI 流水线安全可靠,防范篡改
您的 AI 和机器学习代码以及代码定义的流水线是关键资产。不安全的代码可能会被篡改,这可能会导致数据泄露、合规性故障和关键业务活动中断。保障 AI 和机器学习代码安全有助于确保模型和模型输出的完整性和价值。
请考虑以下建议:
- 在模型开发过程中采用安全的编码做法,例如依赖项管理或输入验证和排错,以防止出现漏洞。
- 保护您的流水线代码和模型工件(例如文件、模型权重和部署规范)免遭未经授权的访问。根据用户角色和需求为每个工件实现不同的访问权限级别。
- 对资产和流水线运行强制执行沿袭和跟踪。这一强制执行可帮助您满足合规性要求并避免危害生产系统。
使用安全的工具和工件在安全的系统上部署
确保您的代码和模型在安全环境中运行,该环境具有强大的访问权限控制系统,且环境中部署的工具和工件可确保安全。
请考虑以下建议:
- 在具有适当访问权限控制机制并防范未经授权的使用或操纵的安全环境中训练和部署模型。
- 对于 AI 特定的工件(例如模型和软件包),请遵循标准软件工件的供应链级别 (SLSA) 准则。
- 最好使用经过验证的、专为 AI 工作负载设计的预构建容器映像。
保护和监控输入
AI 系统需要输入才能进行预测、生成内容或自动执行操作。某些输入可能会带来风险或用作必须检测和清理的攻击媒介。及早检测潜在的恶意输入有助于确保 AI 系统的安全并按预期运行。
请考虑以下建议:
- 实施安全做法,为生成式 AI 系统开发和管理提示,并确保针对有害意图过滤提示。
- 监控输入到预测系统或生成系统的输入,以防止出现端点过载或系统无法处理的提示等问题。
- 确保只有已部署系统的目标用户才能使用它。
监控、评估并准备对输出结果做出响应
AI 系统能够带来价值,因为它们会生成可以增强、优化或自动化人类决策的输出。为了保持 AI 系统和应用的完整性和可信度,您需要确保输出内容安全且未超出预期参数。您还需要制定应对突发事件的计划。
请考虑以下建议:
- 在生产环境中监控 AI 和机器学习模型的输出,并识别任何性能、安全性和合规性问题。
- 通过实施可靠的指标和安全措施(例如识别预测模型中超出范围的生成响应或极端输出)来评估模型性能。收集用户对模型性能的反馈。
- 实施强大的提醒和突发事件响应流程,以解决任何潜在问题。
贡献者
作者:
- Kamilla Kurta | 生成式 AI/机器学习专家客户工程师
- Filipe Gracio 博士 | 客户工程师
- Mohamed Fawzi | 比荷卢安全与合规主管
其他贡献者:
- Daniel Lees | 云安全架构师
- Kumar Dhanagopal | 跨产品解决方案开发者
- Marwan Al Shawi | 合作伙伴客户工程师
- Wade Holmes | 全球解决方案总监