Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Este documento descreve como o Gemini para Google Cloud foi projetado considerando os
recursos, limitações e riscos associados à IA generativa.
Recursos e riscos dos modelos de linguagem grandes
Os modelos de linguagem grandes (LLMs) podem realizar muitas tarefas úteis, como
as seguintes:
Traduzir idioma.
Resumir textos.
Gerar código e escrever criativamente.
Alimentar chatbots e assistentes virtuais.
Complemente mecanismos de pesquisa e recomendação.
Ao mesmo tempo, os recursos técnicos em evolução dos LLMs criam o
potencial para uso indevido e consequências imprevistas ou indesejadas.
Os LLMs podem gerar resultados inesperados, incluindo texto ofensivo,
insensível ou incorreto. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente quais tipos de saídas não intencionais ou
imprevistas eles podem produzir.
Considerando esses riscos e complexidades, o Gemini para Google Cloud foi projetado com base nos
princípios de IA do Google. No entanto, é importante que os usuários entendam algumas das limitações do
Gemini para que Google Cloud funcione com segurança e responsabilidade.
Limitações do Gemini para Google Cloud
Algumas das limitações que você pode encontrar ao usar o Gemini
para Google Cloud incluem (mas não se limitam a) as seguintes:
Casos extremos. Casos extremos se referem a situações incomuns, raras ou excepcionais
que não estão bem representadas nos dados de treinamento. Esses casos podem levar a
limitações na saída dos modelos do Gemini, como excesso de confiança,
interpretação incorreta do contexto ou saídas inadequadas.
Alucinações, embasamento e veracidade do modelo. Os modelos
da Gemini podem não ter base em fatos reais, conhecimentos do mundo real, propriedades
físicas ou compreensão precisa. Essa limitação pode levar a alucinações
de modelos, em que o Gemini para Google Cloud pode
gerar saídas que soam plausíveis, mas são factualmente incorretas, irrelevantes, inadequadas ou sem sentido. As alucinações também podem incluir
a criação de links para páginas da Web que não existem e nunca existiram. Para
mais informações, consulte
Escrever comandos melhores para o Gemini para Google Cloud.
Qualidade e ajuste dos dados. A qualidade, a precisão e o viés dos dados de comando
que são inseridos no Gemini para produtos Google Cloud
podem ter um impacto significativo no desempenho. Se os usuários inserirem
comandos incorretos, o Gemini for Google Cloud
poderá retornar respostas inadequadas ou falsas.
Ampliação de viés. Os modelos de linguagem podem amplificar inadvertidamente os vieses
nos dados de treinamento, levando a saídas que podem reforçar ainda mais
os preconceitos sociais e o tratamento desigual de determinados grupos.
Qualidade do idioma. Embora o Gemini para Google Cloud
produza recursos multilíngues impressionantes nos comparativos de mercado que avaliamos, a maioria dos nossos comparativos (incluindo todas as
avaliações de imparcialidade) está em inglês americano.
Os modelos de linguagem podem oferecer qualidade de serviço inconsistente para diferentes usuários.
Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou
variedades de idiomas porque eles estão sub-representados nos dados de treinamento.
O desempenho pode ser pior para idiomas diferentes do inglês ou
variedades de língua inglesa com menos representação.
Padrão de imparcialidade e subgrupos. As análises de imparcialidade do Google Research dos modelos Gemini não fornecem uma visão completa dos vários riscos potenciais. Por exemplo, nos concentramos em vieses nos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados em inglês americano e nos resultados do modelo.
Especialização limitada no domínio. Os modelos do Gemini foram treinados
com a tecnologia Google Cloud , mas podem não ter a profundidade de conhecimento
necessária para fornecer respostas precisas e detalhadas sobre tópicos altamente
especializados ou técnicos, o que resulta em informações superficiais ou
incorretas.
Quando você usa o painel Gemini no console Google Cloud ,
o Gemini não tem conhecimento do contexto do seu ambiente específico. Por isso, ele não pode responder a perguntas como "Quando foi a última vez que criei uma VM?".
Em alguns casos, o Gemini for Google Cloud envia um segmento específico do seu contexto para o modelo receber uma resposta específica. Por exemplo, quando você clica no botão Troubleshooting suggestions na página de serviço do Error Reporting.
Filtragem de segurança e toxicidade do Gemini
As instruções e respostas do Gemini para Google Cloud são verificadas
com base em uma lista abrangente de atributos de segurança, conforme aplicável para cada caso
de uso. O objetivo desses atributos de segurança é filtrar conteúdo que viola nossa
Política de uso aceitável. Se uma saída for considerada
prejudicial, a resposta será bloqueada.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-19 UTC."],[[["\u003cp\u003eGemini for Google Cloud is designed with Google's AI principles to leverage the capabilities of large language models while mitigating potential risks like generating factually incorrect or inappropriate content.\u003c/p\u003e\n"],["\u003cp\u003eLimitations of Gemini for Google Cloud include encountering edge cases, generating outputs that are factually incorrect, and being sensitive to the quality and bias of the prompt data entered by users.\u003c/p\u003e\n"],["\u003cp\u003eGemini models can amplify biases from their training data, and have varying language quality based on the prevalence of a language or dialect in the training data, with a focus on fairness evaluations in American English.\u003c/p\u003e\n"],["\u003cp\u003eThe models can lack depth in highly specialized domains, providing superficial information, and it is not context aware of specific user environments in the Google Cloud console, limiting its ability to answer environment-specific questions.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud incorporates safety and toxicity filtering to block harmful content, ensuring responses align with Google's Acceptable Use Policy.\u003c/p\u003e\n"]]],[],null,["# Gemini for Google Cloud and responsible AI\n\nThis document describes how Gemini for Google Cloud is designed in view of the\ncapabilities, limitations, and risks that are associated with generative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini for Google Cloud is designed with\n[Google's AI principles](https://ai.google/responsibility/principles/) in\nmind. However, it's important for users to understand some of the limitations of\nGemini for Google Cloud to work safely and responsibly.\n\nGemini for Google Cloud limitations\n-----------------------------------\n\nSome of the limitations that you might encounter using Gemini\nfor Google Cloud include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini models, such as model\n overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.** Gemini\n models might lack grounding and factuality in real-world knowledge, physical\n properties, or accurate understanding. This limitation can lead to model\n hallucinations, where Gemini for Google Cloud might\n generate outputs that are plausible-sounding but factually incorrect,\n irrelevant, inappropriate, or nonsensical. Hallucinations can also include\n fabricating links to web pages that don't exist and have never existed. For\n more information, see\n [Write better prompts for Gemini for Google Cloud](/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini for Google Cloud\n products can have a significant impact on its performance. If users enter\n inaccurate or incorrect prompts, Gemini for Google Cloud\n might return suboptimal or false responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini for Google Cloud\n yields impressive multilingual capabilities on the benchmarks that we\n evaluated against, the majority of our benchmarks (including all of the\n fairness evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained\n on Google Cloud technology, but it might lack the depth of knowledge\n that's required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information.\n\n When you use the **Gemini** pane in the Google Cloud console,\n Gemini is not context aware of your specific environment, so\n it cannot answer questions such as \"When was the last time I created a VM?\"\n\n In some cases, Gemini for Google Cloud sends a specific\n segment of your context to the model to receive a context-specific\n response---for example, when you click the **Troubleshooting suggestions**\n button in the Error Reporting service page.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini for Google Cloud prompts and responses are checked\nagainst a comprehensive list of safety attributes as applicable for each use\ncase. These safety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is considered\nharmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini cites sources when helps you generate code](/gemini/docs/discover/works#how-when-gemini-cites-sources)."]]