Responsible AI

Panduan ini menjelaskan fitur AI bertanggung jawab di Vertex AI, potensi batasan model, dan praktik terbaik untuk mengembangkan aplikasi AI generatif secara aman dan bertanggung jawab. Halaman ini membahas beberapa topik berikut:

  • Filter dan atribut keamanan: Pelajari pemfilteran konten bawaan dan penskoran atribut keamanan yang tersedia di API AI generatif Vertex AI.
  • Batasan model: Pahami potensi batasan model generatif, seperti halusinasi, bias, dan keahlian domain yang terbatas.
  • Praktik yang direkomendasikan: Ikuti langkah-langkah yang direkomendasikan untuk menilai risiko keamanan, melakukan pengujian keamanan, dan memantau aplikasi Anda.
  • Melaporkan penyalahgunaan: Cari tahu cara melaporkan dugaan penyalahgunaan atau konten buatan yang tidak pantas.

Saat mengintegrasikan API generatif ke dalam kasus penggunaan dan konteks Anda, Anda mungkin perlu mempertimbangkan faktor dan batasan responsible AI tambahan. Untuk meningkatkan keadilan, penafsiran, privasi, dan keamanan, ikuti praktik yang direkomendasikan.

Filter dan atribut keamanan

Untuk mempelajari cara menggunakan filter dan atribut keamanan untuk API, lihat Gemini API di Vertex AI.

Batasan model

Model AI generatif memiliki batasan yang mungkin Anda temui, termasuk:

  • Kasus khusus: Situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan keterbatasan performa, seperti model memiliki keyakinan berlebihan, salah menafsirkan konteks, atau menghasilkan output yang tidak sesuai.

  • Halusinasi, perujukan, dan faktualitas model: Model AI generatif dapat menghasilkan output yang terdengar masuk akal, tetapi faktanya salah karena model tersebut mungkin tidak memiliki pengetahuan dunia nyata atau pemahaman yang akurat tentang properti fisik. Untuk mengurangi halusinasi, Anda dapat mendasarkan model pada data spesifik Anda. Untuk mempelajari lebih lanjut, lihat Ringkasan perujukan.

  • Kualitas dan penyesuaian data: Kualitas, akurasi, dan bias prompt atau data input sangat memengaruhi performa model. Input yang tidak akurat atau bias dapat menyebabkan performa yang kurang optimal atau output yang salah.

  • Amplifikasi bias: Model AI generatif dapat memperkuat bias yang ada dari data pelatihannya, sehingga menghasilkan output yang memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.

  • Kualitas bahasa: Performa model dapat tidak konsisten di berbagai bahasa, dialek, dan variasi bahasa. Bahasa atau dialek yang kurang terwakili dalam data pelatihan mungkin memiliki performa yang lebih rendah. Meskipun model memiliki kemampuan multibahasa yang mengesankan, sebagian besar tolok ukur, termasuk semua evaluasi keadilan, menggunakan bahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat blog Google Research.

  • Tolok ukur keadilan dan subgrup: Analisis keadilan Tim Riset Google tidak mencakup semua potensi risiko. Misalnya, analisis berfokus pada bias terkait gender, ras, etnis, dan agama, tetapi hanya menggunakan output model dan data berbahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat blog Google Research.

  • Keahlian domain terbatas: Model dapat kekurangan pengetahuan mendalam yang diperlukan untuk topik yang sangat khusus atau teknis, yang dapat menghasilkan informasi yang bersifat dangkal atau salah. Untuk kasus penggunaan khusus, pertimbangkan untuk menyesuaikan model dengan data khusus domain dan menyertakan pengawasan manusia yang memadai, terutama dalam konteks yang dapat memengaruhi hak individu.

  • Panjang dan struktur input dan output: Model memiliki batas token maksimum (potongan kata) untuk input dan output. Jika input atau output melebihi batas ini, model tidak akan menerapkan pengklasifikasi keamanan, yang dapat menyebabkan performa model yang buruk. Selain itu, struktur data input yang tidak biasa atau kompleks dapat memengaruhi performa secara negatif.

Untuk menggunakan teknologi ini dengan aman dan bertanggung jawab, pertimbangkan risiko khusus untuk kasus penggunaan Anda selain perlindungan teknis bawaan.

Sebaiknya lakukan langkah-langkah berikut:

  1. Menilai risiko keamanan aplikasi Anda.
  2. Lakukan pengujian keamanan yang sesuai untuk kasus penggunaan Anda.
  3. Konfigurasi filter keamanan, jika diperlukan.
  4. Meminta masukan pengguna dan memantau konten.

Laporkan penyalahgunaan

Untuk melaporkan dugaan penyalahgunaan layanan atau output yang dihasilkan yang berisi materi tidak pantas atau informasi tidak akurat, gunakan formulir Laporkan dugaan penyalahgunaan di Google Cloud.

Referensi lainnya