Veo di Vertex AI dirancang dengan mempertimbangkan prinsip AI Google. Namun, penting bagi developer untuk memahami cara menguji dan men-deploy model Google dengan aman dan bertanggung jawab. Untuk membantu developer, Veo di Vertex AI memiliki fitur keamanan bawaan untuk membantu pelanggan memblokir output yang berpotensi berbahaya dalam kasus penggunaan mereka. Untuk mengetahui informasi selengkapnya, lihat filter keamanan.
Kami mendorong pelanggan untuk menggunakan praktik terbaik keadilan, penafsiran, privasi, dan keamanan saat mengembangkan aplikasi AI. Untuk mengetahui informasi selengkapnya, lihat Buku Panduan People + AI.
Filter keamanan
Veo di Vertex AI menawarkan beberapa cara untuk memasukkan perintah guna membuat video, termasuk
teks, video, dan gambar. Perintah yang diberikan ke Veo dinilai berdasarkan daftar filter keamanan, yang mencakup kategori berbahaya (misalnya, violence
, sexual
, derogatory
, dan toxic
). Filter keamanan ini bertujuan untuk memfilter gambar dan video input yang melanggar Kebijakan Penggunaan yang Dapat Diterima untuk PlatformGoogle Cloud, Kebijakan Penggunaan Terlarang untuk AI Generatif, atau Prinsip AI Kami.
Jika model merespons permintaan dengan pesan error, seperti The
prompt couldn't be submitted
atau it might violate our
policies
, artinya input sedang memicu filter keamanan. Jika jumlah gambar yang ditampilkan lebih sedikit dari yang diminta, berarti beberapa output yang dihasilkan diblokir karena tidak memenuhi persyaratan keamanan.
Kategori kode filter keamanan
Bergantung pada filter keamanan yang Anda konfigurasi, output Anda mungkin berisi kode keamanan yang mirip dengan: "Veo tidak dapat membuat video karena gambar input melanggar pedoman penggunaan Vertex AI. Jika menurut Anda ini adalah kesalahan, kirim masukan. Kode dukungan: 15236754"
Kode yang tercantum dalam output sesuai dengan kategori berbahaya tertentu.
Tabel berikut menampilkan pemetaan kode error ke kategori keamanan:
Kode error | Kategori keamanan | Deskripsi |
---|---|---|
58061214 17301594
|
Anak |
Menolak permintaan untuk membuat konten yang menggambarkan anak-anak jika
personGeneration tidak disetel ke "allow_all"
atau jika project tidak ada dalam daftar yang diizinkan untuk fitur ini.
|
29310472 15236754
|
Selebritas | Menolak permintaan untuk membuat representasi fotorealistik dari orang terkenal atau jika project tidak ada dalam daftar yang diizinkan untuk fitur ini. |
64151117 42237218
|
Pelanggaran keamanan video | Mendeteksi konten yang merupakan pelanggaran keselamatan. |
62263041 |
Konten berbahaya | Mendeteksi konten yang berpotensi berbahaya. |
57734940 22137204
|
Kebencian | Mendeteksi topik atau konten terkait kebencian. |
74803281 29578790 42876398
|
Lainnya | Mendeteksi masalah keamanan lain-lain dengan permintaan |
92201652 |
Informasi pribadi | Mendeteksi Informasi Identitas Pribadi (PII) dalam teks, seperti menyebutkan nomor kartu kredit, alamat rumah, atau informasi serupa lainnya. |
89371032 49114662 72817394
|
Konten terlarang | Mendeteksi permintaan konten terlarang dalam permintaan. |
90789179 63429089 43188360
|
Sexual | Mendeteksi konten yang bersifat seksual. |
78610348 |
Toxic | Mendeteksi topik atau konten berbahaya dalam teks. |
61493863 56562880
|
Kekerasan | Mendeteksi konten terkait kekerasan dari gambar atau teks. |
32635315 |
Vulgar | Mendeteksi topik atau konten vulgar dari teks. |
Langkah berikutnya
Mempelajari Responsible AI untuk Model Bahasa Besar (LLM).
Pelajari lebih lanjut rekomendasi Google untuk praktik Responsible AI
Baca blog kami, Agenda bersama untuk progres AI yang bertanggung jawab