Prinsip dalam pilar keamanan Google Cloud Framework yang Dirancang dengan Baik ini memberikan rekomendasi untuk membantu Anda mengamankan sistem AI Anda. Rekomendasi ini selaras dengan Secure AI Framework (SAIF) Google, yang memberikan pendekatan praktis untuk mengatasi masalah keamanan dan risiko sistem AI. SAIF adalah framework konseptual yang bertujuan untuk menyediakan standar di seluruh industri untuk membangun dan men-deploy AI secara bertanggung jawab.
Ringkasan prinsip
Untuk membantu memastikan sistem AI Anda memenuhi persyaratan keamanan, privasi, dan kepatuhan, Anda harus menerapkan strategi holistik yang dimulai dengan desain awal dan berlanjut hingga deployment dan operasi. Anda dapat menerapkan strategi holistik ini dengan menerapkan enam elemen inti SAIF.
Google menggunakan AI untuk meningkatkan kualitas langkah-langkah keamanan, seperti mengidentifikasi ancaman, mengotomatiskan tugas keamanan, dan meningkatkan kemampuan deteksi, sambil melibatkan manusia dalam proses pengambilan keputusan penting.
Google menekankan pendekatan kolaboratif untuk meningkatkan keamanan AI. Pendekatan ini melibatkan kerja sama dengan pelanggan, industri, dan pemerintah untuk meningkatkan kualitas panduan SAIF dan menawarkan referensi praktis yang dapat ditindaklanjuti.
Rekomendasi untuk menerapkan prinsip ini dikelompokkan dalam bagian berikut:
Rekomendasi untuk menggunakan AI secara aman
Untuk menggunakan AI secara aman, Anda memerlukan kontrol keamanan dasar dan kontrol keamanan khusus AI. Bagian ini memberikan ringkasan rekomendasi untuk memastikan bahwa deployment AI dan ML Anda memenuhi persyaratan keamanan, privasi, dan kepatuhan organisasi Anda. Untuk mengetahui ringkasan prinsip dan rekomendasi arsitektur yang khusus untuk workload AI dan ML di Google Cloud, lihat perspektif AI dan ML dalam Well-Architected Framework.
Menentukan sasaran dan persyaratan yang jelas untuk penggunaan AI
Rekomendasi ini relevan dengan area fokus berikut:
- Tata kelola, risiko, dan kepatuhan cloud
- Keamanan AI dan ML
Rekomendasi ini selaras dengan elemen SAIF tentang memahami risiko sistem AI dalam konteks proses bisnis. Saat mendesain dan mengembangkan sistem AI, penting untuk memahami sasaran bisnis, risiko, dan persyaratan kepatuhan khusus Anda.
Menjaga keamanan data dan mencegah kehilangan atau kesalahan penanganan
Rekomendasi ini relevan dengan area fokus berikut:
- Keamanan infrastruktur
- Pengelolaan akses dan identitas
- Keamanan data
- Keamanan aplikasi
- Keamanan AI dan ML
Rekomendasi ini sesuai dengan elemen SAIF berikut:
- Memperluas fondasi keamanan yang kuat ke ekosistem AI. Elemen ini mencakup pengumpulan data, penyimpanan, kontrol akses, dan perlindungan terhadap keracunan data.
- Memahami risiko sistem AI dalam konteks. Tekankan keamanan data untuk mendukung tujuan bisnis dan kepatuhan.
Menjaga keamanan dan ketahanan pipeline AI terhadap upaya perusakan
Rekomendasi ini relevan dengan area fokus berikut:
- Keamanan infrastruktur
- Pengelolaan akses dan identitas
- Keamanan data
- Keamanan aplikasi
- Keamanan AI dan ML
Rekomendasi ini sesuai dengan elemen SAIF berikut:
- Memperluas fondasi keamanan yang kuat ke ekosistem AI. Sebagai elemen penting dalam membangun sistem AI yang aman, amankan kode dan artefak model Anda.
- Menyesuaikan kontrol untuk mempercepat feedback loop. Karena penting untuk mitigasi dan respons insiden, lacak aset dan eksekusi pipeline Anda.
Deploy aplikasi di sistem yang aman menggunakan alat dan artefak yang aman
Rekomendasi ini relevan dengan area fokus berikut:
- Keamanan infrastruktur
- Pengelolaan akses dan identitas
- Keamanan data
- Keamanan aplikasi
- Keamanan AI dan ML
Penggunaan sistem yang aman serta alat dan artefak yang divalidasi dalam aplikasi berbasis AI selaras dengan elemen SAIF tentang memperluas fondasi keamanan yang kuat ke ekosistem dan rantai pasokan AI. Rekomendasi ini dapat ditangani melalui langkah-langkah berikut:
- Menerapkan lingkungan yang aman untuk pelatihan dan deployment ML
- Menggunakan image container yang divalidasi
- Terapkan pedoman Supply chain Levels for Software Artifacts (SLSA)
Melindungi dan memantau input
Rekomendasi ini relevan dengan area fokus berikut:
- Logging, audit, dan pemantauan
- Operasi keamanan
- Keamanan AI dan ML
Rekomendasi ini selaras dengan elemen SAIF tentang perluasan deteksi dan respons untuk menghadirkan AI ke dalam ranah ancaman organisasi. Untuk mencegah masalah, Anda harus mengelola perintah untuk sistem AI generatif, memantau input, dan mengontrol akses pengguna.
Rekomendasi untuk tata kelola AI
Semua rekomendasi di bagian ini relevan dengan area fokus berikut: Tata kelola, risiko, dan kepatuhan cloud.
Google Cloud menawarkan serangkaian alat dan layanan tangguh yang dapat Anda gunakan untuk membangun sistem AI yang bertanggung jawab dan etis. Kami juga menawarkan framework kebijakan, prosedur, dan pertimbangan etis yang dapat memandu pengembangan, deployment, dan penggunaan sistem AI.
Seperti yang tercermin dalam rekomendasi kami, pendekatan Google untuk tata kelola AI dipandu oleh prinsip-prinsip berikut:
- Keadilan
- Transparansi
- Akuntabilitas
- Privasi
- Keamanan
Menggunakan indikator keadilan
Vertex AI dapat mendeteksi bias selama pengumpulan data atau proses evaluasi pascapelatihan. Vertex AI menyediakan metrik evaluasi model seperti bias data dan bias model untuk membantu Anda mengevaluasi bias pada model.
Metrik ini terkait dengan keadilan di berbagai kategori seperti ras, gender, dan kelas. Namun, menafsirkan penyimpangan statistik bukanlah latihan yang mudah, karena perbedaan di seluruh kategori mungkin bukan akibat bias atau sinyal bahaya.
Menggunakan Vertex Explainable AI
Untuk memahami cara model AI membuat keputusan, gunakan Vertex Explainable AI. Fitur ini membantu Anda mengidentifikasi potensi bias yang mungkin tersembunyi dalam logika model.
Fitur kemampuan penjelasan ini terintegrasi dengan BigQuery ML dan Vertex AI, yang memberikan penjelasan berbasis fitur. Anda dapat melakukan kemampuan penjelasan di BigQuery ML atau mendaftarkan model Anda di Vertex AI dan melakukan kemampuan penjelasan di Vertex AI.
Melacak silsilah data
Melacak asal dan transformasi data yang digunakan dalam sistem AI Anda. Pelacakan ini membantu Anda memahami perjalanan data dan mengidentifikasi potensi sumber bias atau kesalahan.
Silsilah data adalah fitur Dataplex Universal Catalog yang memungkinkan Anda melacak bagaimana data bergerak melalui sistem Anda: dari mana data berasal, ke mana data diteruskan, dan transformasi apa yang diterapkan pada data.
Menetapkan akuntabilitas
Tetapkan tanggung jawab yang jelas untuk pengembangan, deployment, dan hasil sistem AI Anda.
Gunakan Cloud Logging untuk mencatat peristiwa dan keputusan penting yang dibuat oleh sistem AI Anda. Log memberikan jejak audit untuk membantu Anda memahami performa sistem dan mengidentifikasi area yang perlu ditingkatkan.
Gunakan Error Reporting untuk menganalisis error yang dilakukan oleh sistem AI secara sistematis. Analisis ini dapat mengungkapkan pola yang mengarah pada bias yang mendasarinya atau area yang perlu ditingkatkan lebih lanjut.
Menerapkan privasi diferensial
Selama pelatihan model, tambahkan derau ke data agar sulit mengidentifikasi setiap titik data, tetapi model tetap dapat belajar secara efektif. Dengan SQL di BigQuery, Anda dapat mengubah hasil kueri dengan agregasi pribadi diferensial.