Mulai 29 April 2025, model Gemini 1.5 Pro dan Gemini 1.5 Flash tidak tersedia di project yang belum pernah menggunakan model ini, termasuk project baru. Untuk mengetahui detailnya, lihat Versi dan siklus proses model.
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Panduan ini menjelaskan fitur AI bertanggung jawab di Vertex AI, potensi batasan model, dan praktik terbaik untuk mengembangkan aplikasi AI generatif secara aman dan bertanggung jawab. Halaman ini membahas beberapa topik berikut:
Filter dan atribut keamanan: Pelajari pemfilteran konten bawaan dan penskoran atribut keamanan yang tersedia di API AI generatif Vertex AI.
Batasan model: Pahami potensi batasan model generatif, seperti halusinasi, bias, dan keahlian domain yang terbatas.
Praktik yang direkomendasikan: Ikuti langkah-langkah yang direkomendasikan untuk menilai risiko keamanan, melakukan pengujian keamanan, dan memantau aplikasi Anda.
Melaporkan penyalahgunaan: Cari tahu cara melaporkan dugaan penyalahgunaan atau konten buatan yang tidak pantas.
Saat mengintegrasikan API generatif ke dalam kasus penggunaan dan konteks Anda, Anda mungkin perlu mempertimbangkan faktor dan batasan responsible AI tambahan. Untuk meningkatkan keadilan, penafsiran, privasi, dan keamanan, ikuti praktik yang direkomendasikan.
Filter dan atribut keamanan
Untuk mempelajari cara menggunakan filter dan atribut keamanan untuk API, lihat Gemini API di Vertex AI.
Batasan model
Model AI generatif memiliki batasan yang mungkin Anda temui, termasuk:
Kasus khusus: Situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan keterbatasan performa, seperti model memiliki keyakinan berlebihan, salah menafsirkan konteks, atau menghasilkan output yang tidak sesuai.
Halusinasi, perujukan, dan faktualitas model: Model AI generatif dapat menghasilkan output yang terdengar masuk akal, tetapi faktanya salah karena model tersebut mungkin tidak memiliki pengetahuan dunia nyata atau pemahaman yang akurat tentang properti fisik. Untuk mengurangi halusinasi, Anda dapat mendasarkan model pada data spesifik Anda. Untuk mempelajari lebih lanjut, lihat Ringkasan perujukan.
Kualitas dan penyesuaian data: Kualitas, akurasi, dan bias prompt atau data input sangat memengaruhi performa model. Input yang tidak akurat atau bias dapat menyebabkan performa yang kurang optimal atau output yang salah.
Amplifikasi bias: Model AI generatif dapat memperkuat bias yang ada dari data pelatihannya, sehingga menghasilkan output yang memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.
Kualitas bahasa: Performa model dapat tidak konsisten di berbagai bahasa, dialek, dan variasi bahasa. Bahasa atau dialek yang kurang terwakili dalam data pelatihan mungkin memiliki performa yang lebih rendah. Meskipun model memiliki kemampuan multibahasa yang mengesankan, sebagian besar tolok ukur, termasuk semua evaluasi keadilan, menggunakan bahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat blog Google Research.
Tolok ukur keadilan dan subgrup: Analisis keadilan Tim Riset Google tidak mencakup semua potensi risiko. Misalnya, analisis berfokus pada bias terkait gender, ras, etnis, dan agama, tetapi hanya menggunakan output model dan data berbahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat blog Google Research.
Keahlian domain terbatas: Model dapat kekurangan pengetahuan mendalam yang diperlukan untuk topik yang sangat khusus atau teknis, yang dapat menghasilkan informasi yang bersifat dangkal atau salah. Untuk kasus penggunaan khusus, pertimbangkan untuk menyesuaikan model dengan data khusus domain dan menyertakan pengawasan manusia yang memadai, terutama dalam konteks yang dapat memengaruhi hak individu.
Panjang dan struktur input dan output: Model memiliki batas token maksimum (potongan kata) untuk input dan output. Jika input atau output melebihi batas ini, model tidak akan menerapkan pengklasifikasi keamanan, yang dapat menyebabkan performa model yang buruk. Selain itu, struktur data input yang tidak biasa atau kompleks dapat memengaruhi performa secara negatif.
Praktik yang direkomendasikan
Untuk menggunakan teknologi ini dengan aman dan bertanggung jawab, pertimbangkan risiko khusus untuk kasus penggunaan Anda selain perlindungan teknis bawaan.
Sebaiknya lakukan langkah-langkah berikut:
Menilai risiko keamanan aplikasi Anda.
Lakukan pengujian keamanan yang sesuai untuk kasus penggunaan Anda.
Konfigurasi filter keamanan, jika diperlukan.
Meminta masukan pengguna dan memantau konten.
Laporkan penyalahgunaan
Untuk melaporkan dugaan penyalahgunaan layanan atau output yang dihasilkan yang berisi materi tidak pantas atau informasi tidak akurat, gunakan formulir Laporkan dugaan penyalahgunaan di Google Cloud.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-25 UTC."],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]