A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Os modelos de linguagem grandes (LLMs, na sigla em inglês) podem traduzir idiomas, resumir textos, gerar textos criativos, gerar códigos, executar bots de bate-papo e assistentes virtuais e complementar mecanismos de pesquisa e sistemas de recomendação. Ao mesmo tempo, como uma tecnologia em estágio inicial, os recursos e os usos evolutivos dela criam potencial para uso indevido e consequências imprevistas ou imprevistas. Modelos de linguagem grandes podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou incorreto.
Além disso, a incrível versatilidade dos LLMs também é o que dificulta
a previsão exata dos tipos de saídas não intencionais ou imprevistas que podem
produzir. Considerando esses riscos e complexidades, as APIs de IA generativa da Vertex AI são projetadas com base nos
princípios de IA do Google. No entanto, é importante que os desenvolvedores entendam e testem os modelos para implantá-los com segurança e responsabilidade. Para ajudar os desenvolvedores, o
Vertex AI Studio tem filtragem de conteúdo integrada, e nossas APIs de IA generativa têm
pontuação de atributos de segurança a fim de ajudar os clientes a testar os filtros de segurança do Google e
definir limites de confiança adequados para seus casos de uso e seus negócios.
Consulte a seção Filtros e atributos de segurança para saber mais.
Quando nossas APIs generativas são integradas ao seu caso de uso e ao seu contexto exclusivos,
pode ser necessário levar em conta outras considerações e
limitações
de IA responsável. Incentivamos os clientes a promover as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança.
Filtros e atributos de segurança
Para saber como usar filtros e atributos de segurança em uma API,
consulte API Gemini na Vertex AI.
Limitações do modelo
As limitações que você pode encontrar ao usar modelos de IA generativa incluem,
entre outras:
Casos extremos: casos extremos, raros ou excepcionais que não
estão bem representados nos dados de treinamento. Esses casos podem levar a
limitações no desempenho do modelo, como excesso de confiança,
interpretação incorreta do contexto ou saídas inadequadas.
Alucinações, embasamento e veracidade do modelo: os modelos de IA generativa
podem não ter embasamento nem se basear em fatos reais, conhecimentos do mundo real, propriedades físicas ou
compreensão precisa. Essa limitação pode levar a alucinações de modelos, que se referem a instâncias em que podem gerar saídas que soam plausíveis, mas fatualmente incorretas, irrelevantes, inadequadas ou sem sentido. Para reduzir essa chance, é possível fundamentar os modelos de acordo com
seus dados específicos. Para saber mais sobre fundamentação na Vertex AI, consulte as
Informações gerais de fundamentação.
Qualidade e ajuste de dados: a qualidade, a acurácia e o viés da entrada de
dados e do comando em um modelo podem ter um impacto significativo no
desempenho dele. Se os usuários inserirem dados ou comandos incorretos, o modelo
poderá ter um desempenho abaixo do ideal ou fornecer saídas de modelo falsas.
Amplificação de vieses: os modelos de IA generativa podem amplificar inadvertidamente
os vieses atuais nos dados de treinamento, levando a saídas que podem reforçar
ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.
Qualidade de idioma: embora os modelos produzam recursos multilíngues impressionantes
nos comparativos de mercado que avaliamos, a maioria dos nossos
comparativos (incluindo todas as avaliações de imparcialidade) está em
inglês. Para ver mais informações, consulte o blog do Google Research.
Os modelos de IA generativa podem fornecer qualidade inconsistente de serviço para
diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz
para alguns dialetos ou variedades de idiomas devido à sub-representação nos
dados de treinamento. O desempenho pode ser pior para idiomas diferentes do inglês ou
variedades de língua inglesa com menos representação.
Comparativos de mercado e subgrupos de imparcialidade: as análises de imparcialidade do Google Research
com relação aos nossos modelos de IA generativa não fornecem uma listagem completa dos
vários riscos potenciais. Por exemplo, nos concentramos em vieses nos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados em inglês e nos resultados do modelo. Para ver mais informações, consulte o blog do Google Research.
Conhecimento de domínio limitado: os modelos de IA generativa podem não ter a profundidade
de conhecimento necessário para fornecer respostas precisas e detalhadas sobre tópicos altamente
especializados ou técnicos, o que resulta em informações superficiais ou
incorretas. Para casos de uso especializados e complexos, os modelos precisam ser ajustados com
dados específicos do domínio. Além disso, é necessário haver uma supervisão humana significativa em
contextos em que há o potencial de afetar materialmente direitos individuais.
Comprimento e estrutura de entradas e saídas: os modelos de IA generativa têm um
limite máximo de tokens de entrada e saída. Se a entrada ou a saída excederem esse
limite, nossos classificadores de segurança não serão aplicados, o que poderá levar a um
desempenho insatisfatório do modelo. Embora nossos modelos sejam projetados para processar uma ampla
variedade de formatos de texto, o desempenho deles poderá ser afetado se os dados de entrada
tiverem uma estrutura incomum ou complexa.
Práticas recomendadas
Para utilizar essa tecnologia com segurança e responsabilidade, também é importante
considerar outros riscos específicos para o caso de uso, usuários e contexto empresarial,
além das salvaguardas técnicas integradas.
Recomendamos seguir estas etapas:
Analise os riscos de segurança do aplicativo.
Realize testes de segurança de acordo com seu caso de uso.
Configure filtros de segurança, se necessário.
Peça o feedback do usuário e monitore os conteúdos.
Denunciar abuso
Denuncie suspeitas de abuso do serviço ou de qualquer saída gerada que
contenha material inapropriado ou informações imprecisas usando o seguinte
formulário:
Denunciar uma suspeita de abuso no Google Cloud.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-25 UTC."],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]