Google Cloud Well-Architected Framework のセキュリティの柱におけるこの原則では、AI システムを保護するうえで役に立つ推奨事項が示されています。これらの推奨事項は、AI システムのセキュリティとリスクに関する懸念に対処するための実用的なアプローチを提供する Google のセキュア AI フレームワーク(SAIF)に沿っています。SAIF は、AI を責任を持って構築、デプロイするための業界全体の標準を提供することを目的とした概念的枠組みです。
原則の概要
AI システムがセキュリティ、プライバシー、コンプライアンスの要件を満たすようにするには、初期設計からデプロイと運用までを網羅する包括的な戦略を採用する必要があります。この包括的な戦略は、SAIF の 6 つの中核要素を適用することで実装できます。
Google は、脅威の特定、セキュリティ タスクの自動化、検出機能の改善など、セキュリティ対策を強化するために AI を使用しています。ただし、重要な決定については人間が関与します。
Google は、AI セキュリティの強化に向けて共同で取り組むアプローチを重視しています。このアプローチでは、お客様、業界、政府と連携して SAIF ガイドラインを強化し、実用的で実行可能なリソースを提供します。
この原則を実装するための推奨事項は、次のセクションにグループ化されています。
AI を安全に使用するための推奨事項
AI を安全に使用するには、基本的なセキュリティ管理と AI 固有のセキュリティ管理の両方が必要です。このセクションでは、AI と ML のデプロイが組織のセキュリティ、プライバシー、コンプライアンスの要件を満たすようにするための推奨事項の概要について説明します。 Google Cloudの AI ワークロードと ML ワークロードに固有のアーキテクチャ原則と推奨事項の概要については、Well-Architected Framework の AI と ML の視点をご覧ください。
AI の使用に関する明確な目標と要件を定義する
この推奨事項は、次の重点分野に関連しています。
- クラウドのガバナンス、リスク、コンプライアンス
- AI と ML のセキュリティ
この推奨事項は、周囲のビジネス プロセスにおける AI システムのリスクをコンテキスト化するという SAIF の要素に沿ったものです。AI システムを設計して進化させる場合は、特定のビジネス目標、リスク、コンプライアンス要件を理解することが重要です。
データを安全に保ち、損失や不正使用を防止する
この推奨事項は、次の重点分野に関連しています。
- インフラストラクチャのセキュリティ
- ID とアクセスの管理
- データ セキュリティ
- アプリケーションのセキュリティ
- AI と ML のセキュリティ
この推奨事項は、次の SAIF 要素に沿ったものです。
- 強固なセキュリティ基盤を AI エコシステムまで拡大します。この要素には、データ収集、ストレージ、アクセス制御、データ ポイズニングに対する保護が含まれます。
- AI システムのリスクをコンテキスト化します。ビジネス目標とコンプライアンスをサポートするために、データ セキュリティを重視します。
AI パイプラインの安全性を確保し、改ざんに対して堅牢性を維持する
この推奨事項は、次の重点分野に関連しています。
- インフラストラクチャのセキュリティ
- ID とアクセスの管理
- データ セキュリティ
- アプリケーションのセキュリティ
- AI と ML のセキュリティ
この推奨事項は、次の SAIF 要素に沿ったものです。
- 強固なセキュリティ基盤を AI エコシステムまで拡大します。安全な AI システムを確立するうえで重要な要素として、コードとモデル アーティファクトを保護します。
- 高速なフィードバック ループを実現するために、コントロールを適応させます。軽減とインシデント対応に不可欠であるため、アセットとパイプラインの実行を追跡します。
安全なツールとアーティファクトを使用して安全なシステムにアプリをデプロイする
この推奨事項は、次の重点分野に関連しています。
- インフラストラクチャのセキュリティ
- ID とアクセスの管理
- データ セキュリティ
- アプリケーションのセキュリティ
- AI と ML のセキュリティ
AI ベースのアプリケーションで安全なシステムと検証済みのツールやアーティファクトを使用することは、強力なセキュリティ基盤を AI エコシステムとサプライ チェーンに拡大するという SAIF の要素に沿ったものです。この推奨事項は、次の手順で対応できます。
- ML のトレーニングとデプロイのための安全な環境を実装する
- 検証済みのコンテナ イメージを使用する
- ソフトウェア アーティファクトのためのサプライ チェーンレベル(SLSA)ガイドラインを適用する
入力を保護してモニタリングする
この推奨事項は、次の重点分野に関連しています。
- ロギング、監査、モニタリング
- セキュリティ運用
- AI と ML のセキュリティ
この推奨事項は、検出機能と対応機能を拡張して組織の脅威対策に AI を取り込むという SAIF の要素に沿ったものです。問題を回避するには、生成 AI システムのプロンプトを管理し、入力をモニタリングし、ユーザー アクセスを制御することが重要です。
AI ガバナンスに関する推奨事項
このセクションのすべての推奨事項は、クラウドのガバナンス、リスク、コンプライアンスという重点分野に関連しています。
Google Cloud は、責任ある倫理的な AI システムの構築に使用できる強力なツールとサービスのセットを提供します。また、AI システムの開発、デプロイ、使用を導くことができるポリシー、手順、倫理的考慮事項のフレームワークも提供しています。
Google の AI ガバナンスに対するアプローチは、以下の原則に沿って行われています。
- 公平さ
- 透明性
- アカウンタビリティ
- プライバシー
- セキュリティ
公平性インジケーターを使用する
Vertex AI は、データ収集またはトレーニング後の評価プロセス中にバイアスを検出できます。Vertex AI には、モデルのバイアスの評価に役立つ、データバイアスやモデルバイアスなどのモデル評価指標が用意されています。
これらの指標は、人種、性別、階級などのさまざまなカテゴリ間の公平性に関連しています。ただし、カテゴリ間の差異がバイアスや有害性のシグナルによるものではない可能性があるため、統計的偏差の解釈は簡単ではありません。
Vertex Explainable AI を使用する
AI モデルがどのように意思決定を行うかを理解するには、Vertex Explainable AI を使用します。この機能は、モデルのロジックに隠れている可能性のあるバイアスを特定するのに役立ちます。
この説明可能性機能は、特徴ベースの説明を提供する BigQuery ML と Vertex AI に統合されています。説明可能性は、BigQuery ML で利用することも、Vertex AI にモデルを登録して Vertex AI で利用することもできます。
データリネージを追跡する
AI システムで使用されるデータの発生元と変換を追跡します。このトラッキングは、データの流れを把握し、バイアスやエラーの潜在的な原因を特定するのに役立ちます。
データリネージは、Dataplex Universal Catalog の機能で、システム内でのデータの移動(データの送信元、データの送信先、データに適用される変換)を追跡できます。
アカウンタビリティを確立する
AI システムの開発、デプロイ、結果に関する責任範囲を明確にします。
Cloud Logging を使用して、AI システムによって行われた重要なイベントと決定をログに記録します。ログは、システムのパフォーマンスを把握し、改善が必要な領域を特定するのに役立つ監査証跡を提供します。
Error Reporting を使用して、AI システムによって発生したエラーを体系的に分析します。この分析により、基盤となるバイアスや、モデルのさらなる改善が必要な領域を示すパターンを明らかにできます。
差分プライバシーを実装する
モデルのトレーニング中に、個々のデータポイントを特定しにくくしながらも、モデルが効果的に学習できるように、データにノイズを追加します。BigQuery の SQL を使用すると、クエリの結果を差分プライベートの集計で変換できます。