Gêmeos para Google Cloud e IA responsável

Este documento descreve como o Gemini para Google Cloud foi projetado tendo em vista as capacidades, limitações e riscos associados à IA generativa.

Capacidades e riscos de grandes modelos de linguagem

Grandes modelos de linguagem (LLMs) podem executar muitas tarefas úteis, como as seguintes:

  • Traduzir idioma.
  • Resumir texto.
  • Gerar código e escrita criativa.
  • Chatbots avançados e assistentes virtuais.
  • Complementar mecanismos de busca e sistemas de recomendação.

Ao mesmo tempo, as capacidades técnicas em evolução dos LLMs criam o potencial para aplicação incorreta, uso indevido e consequências não intencionais ou imprevistas.

LLMs podem gerar resultados inesperados, incluindo textos ofensivos, insensíveis ou factualmente incorretos. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente que tipo de resultados não intencionais ou imprevistos eles podem produzir.

Dados estes riscos e complexidades, a Gemini para Google Cloud foi projetado com os princípios de IA do Google em mente. No entanto, é importante que os usuários entendam algumas das limitações do Gemini para Google Cloud trabalhar com segurança e responsabilidade.

Gêmeos para Google Cloud limitações

Algumas das limitações que você pode encontrar ao usar o Gemini para Google Cloud incluem (mas não estão limitados a) o seguinte:

  • Casos extremos. Casos extremos referem-se a situações incomuns, raras ou excepcionais que não estão bem representadas nos dados de treinamento. Esses casos podem levar a limitações na saída dos modelos Gemini, como excesso de confiança do modelo, interpretação errônea do contexto ou saídas inadequadas.

  • Alucinações de modelo, aterramento e factualidade. Os modelos de Gêmeos podem carecer de aterramento e factualidade em conhecimento do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode levar a alucinações de modelo, onde Gêmeos, por exemplo, Google Cloud podem gerar resultados que parecem plausíveis, mas factualmente incorretos, irrelevantes, inapropriados ou sem sentido. Alucinações também podem incluir a fabricação de links para páginas da web que não existem e nunca existiram. Para mais informações, consulte Escreva prompts melhores para Gêmeos para Google Cloud .

  • Qualidade e ajuste dos dados. A qualidade, a precisão e o viés dos dados de prompt inseridos no Gemini para Google Cloudprodutos podem ter um impacto significativo em seu desempenho. Se os usuários inserirem prompts imprecisos ou incorretos, Gemini para Google Cloudpode retornar respostas abaixo do ideal ou falsas.

  • Amplificação de vieses. Modelos de linguagem podem inadvertidamente amplificar vieses existentes em seus dados de treinamento, levando a resultados que podem reforçar ainda mais preconceitos sociais e tratamento desigual de certos grupos.

  • Qualidade da linguagem. Enquanto Gêmeos para Google Cloudproduz recursos multilíngues impressionantes nos benchmarks que avaliamos; a maioria dos nossos benchmarks (incluindo todas as avaliações de imparcialidade) são em inglês americano.

    Modelos de linguagem podem fornecer qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variedades linguísticas por serem sub-representados nos dados de treinamento. O desempenho pode ser pior para idiomas que não o inglês ou variedades do inglês com menor representação.

  • Referências e subgrupos de imparcialidade. As análises de imparcialidade dos modelos Gemini realizadas pelo Google Research não fornecem uma descrição exaustiva dos vários riscos potenciais. Por exemplo, focamos em vieses ao longo dos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas com base nos dados do inglês americano e nos resultados do modelo.

  • Domínio de conhecimento limitado. Os modelos Gemini foram treinados em Google Cloud tecnologia, mas pode não ter a profundidade de conhecimento necessária para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, levando a informações superficiais ou incorretas.

    Quando você usa o painel Gemini no Google Cloud console, o Gemini não reconhece o contexto do seu ambiente específico, então ele não pode responder perguntas como "Quando foi a última vez que criei uma VM?"

    Em alguns casos, Gêmeos para Google Cloud envia um segmento específico do seu contexto para o modelo para receber uma resposta específica do contexto — por exemplo, quando você clica no botão Sugestões de solução de problemas na página do serviço Relatório de erros.

Filtragem de segurança e toxicidade Gemini

Gêmeos para Google Cloud Os prompts e respostas são verificados em relação a uma lista abrangente de atributos de segurança aplicáveis ​​a cada caso de uso. Esses atributos de segurança visam filtrar conteúdo que viole nossa Política de Uso Aceitável . Se uma saída for considerada prejudicial, a resposta será bloqueada.

O que vem a seguir