Perspektif AI dan ML: Keamanan

Last reviewed 2024-10-11 UTC

Dokumen dalam Framework yang Dirancang dengan Baik: Perspektif AI dan ML ini memberikan ringkasan prinsip dan rekomendasi untuk memastikan bahwa deployment AI dan ML Anda memenuhi persyaratan keamanan dan kepatuhan organisasi Anda. Rekomendasi dalam dokumen ini selaras dengan pilar keamanan dari Google Cloud Well-Architected Framework.

Deployment workload AI dan ML yang aman adalah persyaratan penting, terutama di lingkungan perusahaan. Untuk memenuhi persyaratan ini, Anda perlu menerapkan pendekatan keamanan holistik yang dimulai dari konseptualisasi awal solusi AI dan ML Anda, serta diperluas ke pengembangan, deployment, dan operasi berkelanjutan. Google Cloud menawarkan alat dan layanan yang andal yang dirancang untuk membantu mengamankan beban kerja AI dan ML Anda.

Tentukan sasaran dan persyaratan yang jelas

Lebih mudah untuk mengintegrasikan kontrol keamanan dan kepatuhan yang diperlukan di awal proses desain dan pengembangan Anda, daripada menambahkan kontrol setelah pengembangan. Sejak awal proses desain dan pengembangan, buat keputusan yang sesuai untuk lingkungan risiko spesifik dan prioritas bisnis spesifik Anda.

Pertimbangkan rekomendasi berikut:

  • Mengidentifikasi potensi vektor serangan dan menerapkan perspektif keamanan dan kepatuhan sejak awal. Saat Anda mendesain dan mengembangkan sistem AI, pantau area serangan, potensi risiko, dan kewajiban yang mungkin Anda hadapi.
  • Selaraskan upaya keamanan AI dan ML Anda dengan sasaran bisnis Anda dan pastikan keamanan menjadi bagian integral dari strategi Anda secara keseluruhan. Pahami efek pilihan keamanan Anda terhadap sasaran bisnis utama Anda.

Menjaga keamanan data dan mencegah kehilangan atau kesalahan penanganan

Data adalah aset berharga dan sensitif yang harus dijaga keamanannya. Keamanan data membantu Anda mempertahankan kepercayaan pengguna, mendukung tujuan bisnis, dan memenuhi persyaratan kepatuhan.

Pertimbangkan rekomendasi berikut:

  • Jangan mengumpulkan, menyimpan, atau menggunakan data yang tidak benar-benar diperlukan untuk sasaran bisnis Anda. Jika memungkinkan, gunakan data sintetis atau data yang sepenuhnya anonim.
  • Pantau pengumpulan, penyimpanan, dan transformasi data. Mempertahankan log untuk semua aktivitas akses dan manipulasi data. Log ini membantu Anda mengaudit akses data, mendeteksi upaya akses yang tidak sah, dan mencegah akses yang tidak diinginkan.
  • Terapkan tingkat akses yang berbeda (misalnya, tidak ada akses, hanya baca, atau tulis) berdasarkan peran pengguna. Pastikan izin ditetapkan berdasarkan prinsip hak istimewa terendah. Pengguna hanya boleh memiliki izin minimum yang diperlukan untuk memungkinkan mereka melakukan aktivitas peran mereka.
  • Menerapkan tindakan seperti enkripsi, perimeter yang aman, dan pembatasan pada pergerakan data. Tindakan ini membantu Anda mencegah pemindahan data yang tidak sah dan kehilangan data.
  • Lindungi sistem pelatihan ML Anda dari pencemaran data.

Menjaga keamanan dan ketahanan pipeline AI terhadap upaya perusakan

Kode AI dan ML Anda serta pipeline yang ditentukan kode adalah aset penting. Kode yang tidak diamankan dapat dimodifikasi, yang dapat menyebabkan kebocoran data, kegagalan kepatuhan, dan gangguan pada aktivitas bisnis penting. Menjaga keamanan kode AI dan ML Anda membantu memastikan integritas dan nilai model serta output model Anda.

Pertimbangkan rekomendasi berikut:

  • Gunakan praktik coding yang aman, seperti pengelolaan dependensi atau validasi dan sanitasi input, selama pengembangan model untuk mencegah kerentanan.
  • Lindungi kode pipeline dan artefak model Anda, seperti file, bobot model, dan spesifikasi deployment, dari akses yang tidak sah. Terapkan tingkat akses yang berbeda untuk setiap artefak berdasarkan peran dan kebutuhan pengguna.
  • Terapkan silsilah dan pelacakan aset serta operasi pipeline Anda. Penerapan ini membantu Anda memenuhi persyaratan kepatuhan dan menghindari kompromi pada sistem produksi.

Men-deploy di sistem yang aman dengan alat dan artefak yang aman

Pastikan kode dan model Anda berjalan di lingkungan aman yang memiliki sistem kontrol akses yang kuat dengan jaminan keamanan untuk alat dan artefak yang di-deploy di lingkungan tersebut.

Pertimbangkan rekomendasi berikut:

  • Latih dan deploy model Anda di lingkungan yang aman yang memiliki kontrol akses yang sesuai dan perlindungan terhadap penggunaan atau manipulasi yang tidak sah.
  • Ikuti pedoman Supply-chain Levels for Software Artifacts (SLSA) standar untuk artefak khusus AI Anda, seperti model dan paket software.
  • Sebaiknya gunakan image container bawaan yang divalidasi dan didesain khusus untuk workload AI.

Melindungi dan memantau input

Sistem AI memerlukan input untuk membuat prediksi, menghasilkan konten, atau mengotomatiskan tindakan. Beberapa input dapat menimbulkan risiko atau digunakan sebagai vektor serangan yang harus dideteksi dan dibersihkan. Mendeteksi potensi input berbahaya sejak dini membantu Anda menjaga keamanan sistem AI dan memastikan sistem tersebut beroperasi sesuai yang diinginkan.

Pertimbangkan rekomendasi berikut:

  • Terapkan praktik yang aman untuk mengembangkan dan mengelola perintah bagi sistem AI generatif, dan pastikan perintah tersebut diperiksa untuk mengetahui apakah ada niat berbahaya.
  • Pantau input ke sistem prediktif atau generatif untuk mencegah masalah seperti endpoint yang kelebihan beban atau perintah yang tidak dirancang untuk ditangani oleh sistem.
  • Pastikan hanya pengguna yang dituju dari sistem yang di-deploy yang dapat menggunakannya.

Memantau, mengevaluasi, dan bersiap untuk menanggapi output

Sistem AI memberikan nilai karena menghasilkan output yang meningkatkan, mengoptimalkan, atau mengotomatiskan pengambilan keputusan oleh manusia. Untuk menjaga integritas dan kredibilitas sistem dan aplikasi AI Anda, Anda harus memastikan bahwa outputnya aman dan sesuai dengan parameter yang diharapkan. Anda juga memerlukan rencana untuk merespons insiden.

Pertimbangkan rekomendasi berikut:

  • Pantau output model AI dan ML Anda dalam produksi, dan identifikasi masalah performa, keamanan, dan kepatuhan.
  • Mengevaluasi performa model dengan menerapkan metrik dan langkah-langkah keamanan yang andal, seperti mengidentifikasi respons generatif di luar cakupan atau output ekstrem dalam model prediktif. Kumpulkan masukan pengguna tentang performa model.
  • Terapkan prosedur respons insiden dan pemberitahuan yang andal untuk mengatasi potensi masalah.

Kontributor

Penulis:

Kontributor lainnya: