A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Este guia descreve os recursos de IA responsável na Vertex AI, as possíveis limitações do modelo e as práticas recomendadas para desenvolver aplicativos de IA generativa com segurança e responsabilidade. Nesta página, abordamos os seguintes tópicos:
Filtros e atributos de segurança:saiba mais sobre a filtragem de conteúdo integrada e a pontuação de atributos de segurança disponíveis nas APIs de IA generativa da Vertex AI.
Limitações do modelo:entenda as possíveis limitações dos modelos generativos, como alucinações, viés e conhecimento limitado do domínio.
Práticas recomendadas:siga as etapas recomendadas para avaliar riscos de segurança, realizar testes de segurança e monitorar seu aplicativo.
Denunciar abuso:saiba como denunciar suspeitas de abuso ou conteúdo gerado inadequado.
Ao integrar as APIs generativas ao seu caso de uso e contexto, talvez seja necessário considerar outros fatores e limitações de IA responsável. Para promover a imparcialidade, a interpretabilidade, a privacidade e a segurança, siga as práticas recomendadas.
Filtros e atributos de segurança
Para saber como usar filtros e atributos de segurança em uma API, consulte API Gemini na Vertex AI.
Limitações do modelo
Os modelos de IA generativa têm limitações que você pode encontrar, incluindo:
Casos extremos: situações incomuns, raras ou excepcionais que não estão bem representadas nos dados de treinamento. Esses casos podem levar a limitações de desempenho, como excesso de confiança do modelo, interpretação incorreta do contexto ou geração de saídas inadequadas.
Alucinações, embasamento e veracidade do modelo: os modelos de IA generativa podem produzir resultados que parecem plausíveis, mas são factualmente incorretos porque não têm conhecimento do mundo real ou uma compreensão precisa das propriedades físicas. Para reduzir as alucinações, você pode fundamentar os modelos nos seus dados específicos. Para saber mais, consulte Visão geral do embasamento.
Qualidade e ajuste de dados: a qualidade, a acurácia e o viés do comando ou dos dados de entrada afetam significativamente o desempenho do modelo. Entradas imprecisas ou tendenciosas podem levar a um desempenho abaixo do ideal ou a saídas falsas.
Amplificação de vieses: os modelos de IA generativa podem amplificar os vieses atuais dos dados de treinamento, levando a saídas que reforçam os preconceitos sociais e o tratamento desigual de determinados grupos.
Qualidade do idioma: o desempenho do modelo pode ser inconsistente em diferentes idiomas, dialetos e variedades linguísticas. Idiomas ou dialetos sub-representados nos dados de treinamento podem ter uma performance menor. Embora os modelos tenham recursos multilíngues impressionantes, a maioria dos comparativos de mercado, incluindo todas as avaliações de imparcialidade, está em inglês. Para mais informações, consulte o blog do Google Research.
Comparativos de mercado e subgrupos de imparcialidade: as análises de imparcialidade do Google Research não cobrem todos os riscos potenciais. Por exemplo, as análises se concentram em vieses relacionados a gênero, raça, etnia e religião, mas usam apenas dados e resultados do modelo em inglês. Para mais informações, consulte o blog do Google Research.
Conhecimento de domínio limitado: os modelos podem não ter o conhecimento profundo necessário para tópicos altamente especializados ou técnicos, o que pode levar a informações superficiais ou incorretas. Para casos de uso especializados, considere ajustar modelos com dados específicos do domínio e incluir uma supervisão humana significativa, principalmente em contextos que podem afetar direitos individuais.
Comprimento e estrutura de entradas e saídas: os modelos têm um limite máximo de tokens (pedaços de palavras) para entradas e saídas. Se a entrada ou a saída excederem esse limite, o modelo não vai aplicar classificadores de segurança, o que pode levar a um desempenho insatisfatório. Além disso, estruturas de dados de entrada incomuns ou complexas podem afetar negativamente a performance.
Práticas recomendadas
Para usar essa tecnologia com segurança e responsabilidade, considere os riscos específicos do seu caso de uso, além das salvaguardas técnicas integradas.
Recomendamos que você siga as etapas a seguir:
Analise os riscos de segurança do aplicativo.
Realize testes de segurança adequados ao seu caso de uso.
Configure filtros de segurança, se necessário.
Peça o feedback do usuário e monitore os conteúdos.
Denunciar abuso
Para denunciar suspeitas de abuso do serviço ou de qualquer saída gerada que contenha material inadequado ou informações imprecisas, use o formulário Denunciar suspeita de abuso no Google Cloud.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-25 UTC."],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]