Skor keyakinan atribut keamanan
Konten yang diproses melalui Vertex AI Gemini API dinilai berdasarkan daftar atribut keamanan, yang mencakup "kategori berbahaya" dan topik yang dapat dianggap sensitif. Atribut keamanan tersebut dilambangkan dalam tabel berikut:
Definisi atribut keamanan
Atribut Keamanan | Definisi |
---|---|
Ujaran Kebencian | Komentar negatif atau berbahaya yang menargetkan atribut identitas dan/atau dilindungi. |
Pelecehan | Komentar jahat, mengintimidasi, menindas, atau kasar yang menargetkan individu lain. |
Seksual Vulgar | Berisi referensi ke tindakan seksual atau konten cabul lainnya. |
Konten Berbahaya | Mempromosikan atau memungkinkan akses ke barang, layanan, dan aktivitas berbahaya. |
Probabilitas atribut keamanan
Setiap atribut keamanan memiliki skor keyakinan terkait antara 0,0 dan 1,0, yang dibulatkan ke satu desimal, yang mencerminkan kemungkinan input atau respons termasuk dalam kategori tertentu.
Skor keyakinan dalam tabel berikut ditampilkan dengan tingkat keyakinan keamanan:
Kemungkinan | Deskripsi |
---|---|
DAPAT DIDASARKAN | Konten sangat berisiko dianggap tidak aman. |
RENDAH | Konten memiliki kemungkinan tidak aman yang rendah. |
SEDANG | Konten memiliki kemungkinan sedang tidak aman. |
TINGGI | Konten sangat berpotensi tidak aman. |
Tingkat keparahan atribut keamanan
Masing-masing dari empat atribut keamanan diberi peringkat keamanan (tingkat keparahan) dan skor keparahan mulai dari 0,0 hingga 1,0 yang dibulatkan ke satu desimal. Rating dan skor dalam tabel berikut mencerminkan prediksi tingkat keparahan konten yang termasuk dalam kategori tertentu:
Tingkat keparahan | Deskripsi |
---|---|
DAPAT DIDASARKAN | Tingkat keparahan konten diperkirakan dapat diabaikan dalam kaitannya dengan kebijakan keamanan Google. |
RENDAH | Tingkat keseriusan konten diperkirakan rendah sehubungan dengan kebijakan keamanan Google. |
SEDANG | Tingkat keseriusan konten diprediksi sebagai sedang dalam kaitannya dengan kebijakan keamanan Google. |
TINGGI | Tingkat keseriusan konten diperkirakan tinggi sehubungan dengan kebijakan keamanan Google. |
Setelan keamanan
Setelan keamanan adalah bagian dari permintaan yang Anda kirim ke layanan API. Nilai ini dapat disesuaikan untuk setiap permintaan yang Anda buat ke API. Tabel berikut menjelaskan setelan pemblokiran yang dapat Anda sesuaikan untuk setiap kategori. Misalnya, jika Anda menetapkan setelan blokir ke Blokir beberapa untuk kategori Konten Berbahaya, semua hal yang memiliki kemungkinan tinggi sebagai konten berbahaya akan diblokir. Tetapi apa pun dengan probabilitas lebih rendah diperbolehkan. Jika tidak disetel, setelan pemblokiran default-nya adalah Blokir beberapa.
Batas (Studio) | Ambang batas (API) | Ambang batas (Deskripsi) |
---|---|---|
BLOCK_NONE (Dibatasi) | Selalu tampilkan terlepas dari kemungkinan adanya konten yang tidak aman. | |
Blokir beberapa | BLOCK_ONLY_HIGH | Blokir jika berpotensi tinggi berisi konten yang tidak aman. |
Blokir beberapa (Default) | BLOCK_MEDIUM_AND_ABOVE (Default) | Blokir jika memiliki kemungkinan sedang atau tinggi berisi konten yang tidak aman. |
Blokir sebagian besar | BLOCK_LOW_AND_ABOVE | Blokir jika memiliki kemungkinan sedang atau tinggi berisi konten yang tidak aman. |
HARM_BLOCK_THRESHOLD_UNSPECIFIED | Nilai minimum tidak ditentukan, blokir menggunakan nilai minimum default. |
Anda dapat mengubah setelan ini untuk setiap permintaan yang Anda buat ke layanan teks. Lihat Referensi HarBlockThreshold API untuk mengetahui detailnya.
Cara menghapus pemblokiran respons otomatis untuk atribut keamanan tertentu
Setelan keamanan "BLOCK_NONE" akan menghapus pemblokiran respons otomatis (untuk atribut keamanan yang dijelaskan di Setelan Keamanan) dan memungkinkan Anda mengonfigurasi panduan keamanan Anda sendiri dengan skor yang ditampilkan. Untuk mengakses setelan "BLOCK_NONE", Anda memiliki dua opsi:
(1) Anda dapat mengajukan permohonan untuk mendapatkan daftar yang diizinkan melalui formulir daftar yang diizinkan filter keamanan Gemini, atau
(2) Anda dapat mengganti jenis akun ke penagihan dengan invoice bulanan dengan referensi penagihan dengan invoice GCP.
Perbedaan utama antara Gemini dan kelompok model lainnya
Meskipun pengklasifikasi keamanan yang sama diterapkan pada Gemini dan PaLM, jumlah atribut keamanan yang ditampilkan di API dapat bervariasi di berbagai kelompok model. Logika pemblokiran (yaitu nilai minimum keyakinan) didasarkan pada evaluasi yang ketat terhadap setiap model. Oleh karena itu, setelan keamanan yang diterapkan ke satu model mungkin tidak sepenuhnya cocok dengan perilaku setelan keamanan yang diterapkan pada model lain. Jika hal ini menjadi masalah, sebaiknya Anda mengonfigurasi logika pemblokiran Anda sendiri dengan skor tingkat keseriusan mentah dan skor keyakinan mentah, dengan menerapkan nilai minimum penskoran yang sama di seluruh model.
Konfigurasi ambang batas
Python
Untuk mempelajari cara menginstal atau mengupdate Vertex AI SDK untuk Python, lihat Menginstal Vertex AI SDK untuk Python. Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Python API.
Node.js
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Node.js di Panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Node.js Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Java
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Java di Panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Java Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Go
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Go di Panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Go Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
C#
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan C# di Panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API C# Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
REST
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- LOCATION: Region untuk memproses permintaan. Opsi
yang tersedia mencakup hal berikut:
Klik untuk meluaskan wilayah yang tersedia
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- PROJECT_ID: Project ID Anda.
- MODEL_ID: ID model dari model multimodal
yang ingin Anda gunakan. Opsinya adalah:
gemini-1.0-pro
gemini-1.0-pro-vision
- ROLE:
Peran dalam percakapan yang terkait dengan konten. Penentuan peran diperlukan bahkan dalam
kasus penggunaan satu giliran.
Nilai yang dapat diterima mencakup:
USER
: Menentukan konten yang Anda kirimkan.MODEL
: Menentukan respons model.
- TEXT: Teks petunjuk yang akan disertakan dalam perintah.
- SAFETY_CATEGORY:
Kategori keamanan yang batasnya akan dikonfigurasi. Nilai yang dapat diterima mencakup:
Klik untuk memperluas kategori keamanan
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD:
Nilai minimum untuk respons pemblokiran yang dapat termasuk dalam kategori keamanan yang ditentukan berdasarkan
probabilitas. Nilai yang dapat diterima mencakup:
Klik untuk memperluas nilai minimum pemblokiran
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(default)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
memblokir paling banyak, sedangkanBLOCK_ONLY_HIGH
memblokir paling sedikit.
Metode HTTP dan URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
Isi JSON permintaan:
{ "contents": { "role": "ROLE", "parts": { "text": "TEXT" } }, "safety_settings": { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" }, }
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent"
PowerShell
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent" | Select-Object -Expand Content
Anda akan melihat respons JSON yang mirip seperti berikut:
Contoh perintah curl
LOCATION="us-central1"
MODEL_ID="gemini-1.0-pro"
PROJECT_ID="test-project"
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/publishers/google/models/${MODEL_ID}:streamGenerateContent -d \
$'{
"contents": {
"role": "user",
"parts": { "text": "Hello!" }
},
"safety_settings": [
{
"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
"threshold": "BLOCK_NONE"
},
{
"category": "HARM_CATEGORY_HATE_SPEECH",
"threshold": "BLOCK_LOW_AND_ABOVE"
},
{
"category": "HARM_CATEGORY_HARASSMENT",
"threshold": "BLOCK_MEDIUM_AND_ABOVE"
},
{
"category": "HARM_CATEGORY_DANGEROUS_CONTENT",
"threshold": "BLOCK_ONLY_HIGH"
}
]
}'
Konsol
Di bagian Vertex AI pada Konsol Google Cloud, buka halaman Vertex AI Studio.
Di bagian Create a new prompt, klik salah satu tombol untuk membuka halaman desain prompt.
Klik Setelan keamanan.
Jendela dialog Safety settings akan terbuka.
Untuk setiap atribut keamanan, konfigurasikan nilai minimum yang diinginkan.
Klik Save.
Langkah selanjutnya
- Pelajari responsible AI lebih lanjut.
- Pelajari tata kelola data.