Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Dokumen ini menjelaskan cara Gemini untuk Google Cloud dirancang dengan mempertimbangkan
kemampuan, batasan, dan risiko yang terkait dengan AI generatif.
Kemampuan dan risiko model bahasa besar
Model bahasa besar (LLM) dapat melakukan banyak tugas yang berguna seperti
berikut:
Terjemahkan bahasa.
Meringkas teks.
Membuat kode dan menulis materi iklan.
Memperkuat chatbot dan asisten virtual.
Melengkapi mesin telusur dan sistem rekomendasi.
Pada saat yang sama, kemampuan teknis LLM yang terus berkembang menciptakan
potensi penyelewengan, penyalahgunaan, dan konsekuensi yang tidak diinginkan atau tidak terduga.
LLM dapat menghasilkan output yang tidak Anda harapkan, termasuk teks yang menyinggung,
tidak sensitif, atau salah secara faktual. Karena LLM sangat fleksibel, mungkin sulit untuk memprediksi dengan tepat jenis output yang tidak diinginkan atau tidak terduga
yang mungkin dihasilkan.
Mengingat risiko dan kompleksitas ini, Gemini untuk Google Cloud dirancang dengan
mempertimbangkan
prinsip AI Google. Namun, penting bagi pengguna untuk memahami beberapa batasan Gemini agar Google Cloud dapat berfungsi dengan aman dan bertanggung jawab.
Batasan Gemini untuk Google Cloud
Beberapa batasan yang mungkin Anda alami saat menggunakan Gemini
untuk Google Cloud mencakup (tetapi tidak terbatas pada) hal berikut:
Kasus ekstrem. Kasus khusus mengacu pada situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan
keterbatasan dalam output model Gemini, seperti model
memiliki keyakinan berlebihan, salah tafsir konteks, atau output yang tidak sesuai.
Membuat model halusinasi, perujukan, dan fakta. Model Gemini
mungkin tidak memiliki dasar dan fakta dalam pengetahuan di dunia nyata, properti
fisik, atau pemahaman yang akurat. Keterbatasan ini dapat menyebabkan halusinasi
model, dengan Gemini untuk Google Cloud mungkin
menghasilkan output yang terdengar masuk akal tetapi salah secara faktual,
tidak relevan, tidak pantas, atau tidak masuk akal. Halusinasi juga dapat mencakup
pembuatan link ke halaman web yang tidak ada dan tidak pernah ada. Untuk
mengetahui informasi selengkapnya, lihat
Menulis perintah yang lebih baik untuk Gemini untuk Google Cloud.
Kualitas dan penyesuaian data. Kualitas, akurasi, dan bias data prompt
yang dimasukkan ke Gemini untuk produk
Google Clouddapat memberikan dampak yang signifikan terhadap performanya. Jika pengguna memasukkan perintah yang tidak akurat atau salah, Gemini untuk Google Cloudmungkin menampilkan respons yang kurang optimal atau salah.
Amplifikasi bias. Model bahasa dapat secara tidak sengaja memperkuat bias yang sudah ada dalam data pelatihannya, sehingga menghasilkan output yang dapat semakin memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.
Kualitas bahasa. Meskipun Gemini untuk Google Cloud
menghasilkan kemampuan multibahasa yang mengesankan pada tolok ukur yang kami
evaluasi, sebagian besar tolok ukur kami (termasuk semua
evaluasi keadilan) menggunakan bahasa Inggris Amerika.
Model bahasa mungkin memberikan kualitas layanan yang tidak konsisten kepada pengguna yang berbeda.
Misalnya, pembuatan teks mungkin tidak efektif untuk beberapa dialek atau varietas bahasa karena data pelatihan kurang terwakili.
Performa mungkin lebih buruk untuk bahasa non-Inggris atau variasi bahasa
Inggris dengan representasi yang lebih sedikit.
Sub-grup dan tolok ukur keadilan. Analisis keadilan Tim Riset Google terhadap
model Gemini tidak memberikan informasi lengkap mengenai berbagai
potensi risiko. Misalnya, kami berfokus pada bias terkait sumbu gender, ras,
etnis, dan agama, tetapi hanya melakukan analisis pada output model dan data berbahasa
Inggris Amerika.
Keahlian domain terbatas. Model Gemini telah dilatih
dengan teknologi Google Cloud , tetapi mungkin tidak memiliki kedalaman pengetahuan
yang diperlukan untuk memberikan respons yang akurat dan mendetail tentang topik
yang sangat khusus atau teknis, sehingga menghasilkan informasi
yang bersifat dangkal atau salah.
Saat Anda menggunakan panel Gemini di Google Cloud konsol, Gemini tidak mengetahui konteks lingkungan spesifik Anda, sehingga tidak dapat menjawab pertanyaan seperti "Kapan terakhir kali saya membuat VM?"
Terkadang, Gemini untuk Google Cloud mengirim segmen
konteks tertentu ke model untuk menerima respons
khusus konteks—misalnya, saat Anda mengklik tombol Saran pemecahan masalah
di halaman layanan Error Reporting.
Pemfilteran keamanan dan toksisitas Gemini
Perintah dan respons Gemini untuk Google Cloud diperiksa
berdasarkan daftar atribut keamanan yang komprehensif sebagaimana berlaku untuk setiap kasus
penggunaan. Atribut keamanan ini bertujuan untuk memfilter konten yang melanggar
Kebijakan Penggunaan yang Dapat Diterima kami. Jika output dianggap
berbahaya, respons akan diblokir.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-19 UTC."],[[["\u003cp\u003eGemini for Google Cloud is designed with Google's AI principles to leverage the capabilities of large language models while mitigating potential risks like generating factually incorrect or inappropriate content.\u003c/p\u003e\n"],["\u003cp\u003eLimitations of Gemini for Google Cloud include encountering edge cases, generating outputs that are factually incorrect, and being sensitive to the quality and bias of the prompt data entered by users.\u003c/p\u003e\n"],["\u003cp\u003eGemini models can amplify biases from their training data, and have varying language quality based on the prevalence of a language or dialect in the training data, with a focus on fairness evaluations in American English.\u003c/p\u003e\n"],["\u003cp\u003eThe models can lack depth in highly specialized domains, providing superficial information, and it is not context aware of specific user environments in the Google Cloud console, limiting its ability to answer environment-specific questions.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud incorporates safety and toxicity filtering to block harmful content, ensuring responses align with Google's Acceptable Use Policy.\u003c/p\u003e\n"]]],[],null,["# Gemini for Google Cloud and responsible AI\n\nThis document describes how Gemini for Google Cloud is designed in view of the\ncapabilities, limitations, and risks that are associated with generative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini for Google Cloud is designed with\n[Google's AI principles](https://ai.google/responsibility/principles/) in\nmind. However, it's important for users to understand some of the limitations of\nGemini for Google Cloud to work safely and responsibly.\n\nGemini for Google Cloud limitations\n-----------------------------------\n\nSome of the limitations that you might encounter using Gemini\nfor Google Cloud include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini models, such as model\n overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.** Gemini\n models might lack grounding and factuality in real-world knowledge, physical\n properties, or accurate understanding. This limitation can lead to model\n hallucinations, where Gemini for Google Cloud might\n generate outputs that are plausible-sounding but factually incorrect,\n irrelevant, inappropriate, or nonsensical. Hallucinations can also include\n fabricating links to web pages that don't exist and have never existed. For\n more information, see\n [Write better prompts for Gemini for Google Cloud](/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini for Google Cloud\n products can have a significant impact on its performance. If users enter\n inaccurate or incorrect prompts, Gemini for Google Cloud\n might return suboptimal or false responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini for Google Cloud\n yields impressive multilingual capabilities on the benchmarks that we\n evaluated against, the majority of our benchmarks (including all of the\n fairness evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained\n on Google Cloud technology, but it might lack the depth of knowledge\n that's required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information.\n\n When you use the **Gemini** pane in the Google Cloud console,\n Gemini is not context aware of your specific environment, so\n it cannot answer questions such as \"When was the last time I created a VM?\"\n\n In some cases, Gemini for Google Cloud sends a specific\n segment of your context to the model to receive a context-specific\n response---for example, when you click the **Troubleshooting suggestions**\n button in the Error Reporting service page.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini for Google Cloud prompts and responses are checked\nagainst a comprehensive list of safety attributes as applicable for each use\ncase. These safety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is considered\nharmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini cites sources when helps you generate code](/gemini/docs/discover/works#how-when-gemini-cites-sources)."]]