Gemini für Google Cloud und verantwortungsbewusste Anwendung von KI
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
In diesem Dokument wird das Konzept von Gemini für Google Cloud hinsichtlich der Funktionen, Einschränkungen und Risiken von generativer KI beschrieben.
Funktionen und Risiken von Large Language Models
Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B.:
Sprache übersetzen,
Text zusammenfassen,
Code generieren und kreative Texte erstellen,
Chatbots und virtuelle Assistenten zum Einsatz bringen,
Suchmaschinen und Empfehlungssysteme ergänzen.
Zugleich bergen die sich ständig weiterentwickelnden technischen Möglichkeiten von LLMs die Gefahr von Fehlanwendungen, Missbrauch und unbeabsichtigten oder unvorhergesehenen Folgen.
LLMs können unerwartete Ausgaben generieren, einschließlich Text, der anstößig, beleidigend oder sachlich falsch ist. Da LLMs unglaublich vielseitig sind, ist es schwierig, genau vorherzusagen, welche Arten von unbeabsichtigten oder unvorhergesehenen Ausgaben sie erzeugen können.
Angesichts dieser Risiken und Komplexität wurde Gemini für Google Cloud unter Berücksichtigung der KI‑Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Nutzer einige Einschränkungen von Gemini für Google Cloud kennen, damit sie den Dienst sicher und verantwortungsvoll nutzen können.
Einschränkungen bei Gemini für Google Cloud
Bei der Verwendung von Gemini für Google Cloud können unter anderem folgende Einschränkungen auftreten:
Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini-Modellen führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.
Modellhalluzinationen, Fundierung und Faktizität: Den Gemini-Modellen mangelt es möglicherweise an der nötigen Fundierung und Faktizität in Bezug auf die reale Welt und physikalische Eigenschaften oder an einem korrekten Verständnis davon. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Gemini für Google Cloud Ausgaben generiert, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder sinnlos sind. Zu den Halluzinationen gehört auch das Erfinden von Links zu Webseiten, die nicht existieren und nie existiert haben. Weitere Informationen finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.
Datenqualität und Optimierung: Die Qualität, Genauigkeit (Accuracy) und Verzerrung der Prompt-Daten, die in Gemini für Google Cloud-Produkte eingegeben werden, können erhebliche Auswirkungen auf die Leistung haben. Wenn Nutzer ungenaue oder falsche Prompts eingeben, kann Gemini für Google Cloudsuboptimale oder falsche Antworten zurückgeben.
Verzerrungsverstärkung: Sprachmodelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.
Sprachqualität: Gemini für Google Cloudbietet zwar beeindruckende mehrsprachige Funktionen in den von uns ausgewerteten Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Evaluierungen) sind jedoch in amerikanischem Englisch.
Die von Sprachmodellen gelieferte Dienstqualität ist möglicherweise nicht für alle Nutzer einheitlich.
Beispielsweise ist die Textgenerierung für einige Dialekte oder Sprachvarianten, die in den Trainingsdaten seltener vorkommen, möglicherweise nicht so effektiv.
Die Leistung ist bei anderen Sprachen als der Englischen und bei weniger stark repräsentierten englischen Sprachvarianten möglicherweise geringer.
Fairness-Benchmarks und ‑Untergruppen: Die Fairness-Analysen des Google Research-Teams für Gemini-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft und Religion. Die Analyse erfolgt jedoch nur anhand von Daten und Modellausgaben in amerikanischem Englisch.
Begrenzte Fachkenntnisse: Gemini-Modelle wurden mit Google Cloud -Technologie trainiert, haben aber möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen.
Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, ist Gemini nicht kontextsensitiv für Ihre spezifische Umgebung. Daher kann Gemini Fragen wie „Wann habe ich das letzte Mal eine VM erstellt?“ nicht beantworten.
In einigen Fällen sendet Gemini für Google Cloud ein bestimmtes Segment Ihres Kontexts an das Modell, um eine kontextbezogene Antwort zu erhalten, z. B. wenn Sie auf der Dienstseite „Error Reporting“ auf die Schaltfläche Vorschläge zur Fehlerbehebung klicken.
Gemini-Filterung für Sicherheit und schädliche Inhalte
Prompts und Antworten von Gemini für Google Cloud werden anhand einer umfassenden Liste von Sicherheitsattributen geprüft, die für den jeweiligen Anwendungsfall gelten. Mit diesen Sicherheitsattributen sollen Inhalte herausgefiltert werden, die gegen unsere Richtlinien zur zulässigen Verwendung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-28 (UTC)."],[[["\u003cp\u003eGemini for Google Cloud is designed with Google's AI principles to leverage the capabilities of large language models while mitigating potential risks like generating factually incorrect or inappropriate content.\u003c/p\u003e\n"],["\u003cp\u003eLimitations of Gemini for Google Cloud include encountering edge cases, generating outputs that are factually incorrect, and being sensitive to the quality and bias of the prompt data entered by users.\u003c/p\u003e\n"],["\u003cp\u003eGemini models can amplify biases from their training data, and have varying language quality based on the prevalence of a language or dialect in the training data, with a focus on fairness evaluations in American English.\u003c/p\u003e\n"],["\u003cp\u003eThe models can lack depth in highly specialized domains, providing superficial information, and it is not context aware of specific user environments in the Google Cloud console, limiting its ability to answer environment-specific questions.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud incorporates safety and toxicity filtering to block harmful content, ensuring responses align with Google's Acceptable Use Policy.\u003c/p\u003e\n"]]],[],null,["# Gemini for Google Cloud and responsible AI\n\nThis document describes how Gemini for Google Cloud is designed in view of the\ncapabilities, limitations, and risks that are associated with generative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini for Google Cloud is designed with\n[Google's AI principles](https://ai.google/responsibility/principles/) in\nmind. However, it's important for users to understand some of the limitations of\nGemini for Google Cloud to work safely and responsibly.\n\nGemini for Google Cloud limitations\n-----------------------------------\n\nSome of the limitations that you might encounter using Gemini\nfor Google Cloud include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini models, such as model\n overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.** Gemini\n models might lack grounding and factuality in real-world knowledge, physical\n properties, or accurate understanding. This limitation can lead to model\n hallucinations, where Gemini for Google Cloud might\n generate outputs that are plausible-sounding but factually incorrect,\n irrelevant, inappropriate, or nonsensical. Hallucinations can also include\n fabricating links to web pages that don't exist and have never existed. For\n more information, see\n [Write better prompts for Gemini for Google Cloud](/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini for Google Cloud\n products can have a significant impact on its performance. If users enter\n inaccurate or incorrect prompts, Gemini for Google Cloud\n might return suboptimal or false responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini for Google Cloud\n yields impressive multilingual capabilities on the benchmarks that we\n evaluated against, the majority of our benchmarks (including all of the\n fairness evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained\n on Google Cloud technology, but it might lack the depth of knowledge\n that's required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information.\n\n When you use the **Gemini** pane in the Google Cloud console,\n Gemini is not context aware of your specific environment, so\n it cannot answer questions such as \"When was the last time I created a VM?\"\n\n In some cases, Gemini for Google Cloud sends a specific\n segment of your context to the model to receive a context-specific\n response---for example, when you click the **Troubleshooting suggestions**\n button in the Error Reporting service page.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini for Google Cloud prompts and responses are checked\nagainst a comprehensive list of safety attributes as applicable for each use\ncase. These safety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is considered\nharmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini cites sources when helps you generate code](/gemini/docs/discover/works#how-when-gemini-cites-sources)."]]