Gemini para o Google Cloud e IA responsável

Este documento descreve como o Gemini para Google Cloud foi projetado considerando os recursos, as limitações e os riscos associados à IA generativa.

Recursos e riscos dos modelos de linguagem grandes

Os modelos de linguagem grandes (LLMs) podem realizar muitas tarefas úteis, como as seguintes:

  • Traduzir idioma.
  • Resumir o texto.
  • Gerar código e escrever criativamente.
  • Chats avançados e assistentes virtuais
  • Complemente mecanismos de pesquisa e sistemas de recomendação.

Ao mesmo tempo, os recursos técnicos em evolução dos LLMs criam o potencial para uso indevido e consequências imprevistas ou indesejadas.

LLMs podem gerar saídas inesperadas, incluindo texto ofensivo, insensíveis ou factualmente incorretos. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente que tipos de eventos não intencionais que eles podem produzir.

Considerando esses riscos e complexidades, o Gemini para o Google Cloud foi projetado com base nos princípios de IA do Google. No entanto, é importante que os usuários entendam algumas das limitações Gemini para Google Cloud para trabalhar com segurança e responsabilidade.

Limitações do Gemini para Google Cloud

Algumas das limitações que você pode encontrar ao usar o Gemini para o Google Cloud incluem (mas não se limitam a) as seguintes:

  • Casos extremos. Casos extremos se referem a situações incomuns, raras ou excepcionais que não estão bem representadas nos dados de treinamento. Esses casos podem levar a limitações nos resultados dos modelos do Gemini, como excesso de confiança, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações, embasamento e veracidade do modelo. Os modelos da Gemini podem não ter base em fatos reais, conhecimentos do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode fazer com que o modelo alucinações artificiais, como o Gemini para Google Cloud, gerar saídas que soem plausíveis, mas factualmente incorretas, irrelevantes, inadequadas ou sem sentido. As alucinações também podem incluir a criação de links para páginas da Web que não existem e nunca existiram. Para mais informações, consulte Escreva comandos melhores para o Gemini para Google Cloud.

  • Qualidade e ajuste dos dados. A qualidade, a precisão e o viés dos dados de comando inseridos no Gemini para produtos do Google Cloud podem ter um impacto significativo no desempenho. Se os usuários inserirem comandos imprecisos ou incorretos, Gemini para Google Cloud podem retornar respostas incorretas ou falsas.

  • Amplificação de viés. Os modelos de linguagem podem amplificar inadvertidamente vieses nos dados de treinamento, gerando resultados que podem reforçar ainda mais preconceitos sociais e tratamento desigual de determinados grupos.

  • Qualidade do idioma. Enquanto o Gemini para Google Cloud produz recursos multilíngues impressionantes nos comparativos de mercado que avaliado, a maioria de nossos comparativos de mercado (incluindo todos os avaliações de imparcialidade) estão em inglês americano.

    Os modelos de linguagem podem fornecer qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou de variações linguísticas porque elas são sub-representadas nos dados de treinamento. O desempenho pode ser pior em idiomas diferentes do inglês ou em inglês variedades com menos representação.

  • Benchmarks e subgrupos de imparcialidade. As análises de imparcialidade do Google Research dos modelos Gemini não fornecem uma visão completa dos vários riscos potenciais. Por exemplo, focamos em vieses de gênero, raça, etnias e religião, mas fazer a análise apenas Dados em inglês e saídas de modelo.

  • Conhecimento limitado do domínio. Os modelos do Gemini foram treinados na tecnologia do Google Cloud, mas podem não ter a profundidade de conhecimento necessária para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, o que resulta em informações superficiais ou incorretas.

    Quando você usa o painel Gemini no console do Google Cloud, ele não tem conhecimento do contexto do seu ambiente específico. Portanto, não é possível responder a perguntas como "Quando foi a última vez que criei uma VM?".

    Em alguns casos, o Gemini para Google Cloud envia um segmento específico do seu contexto para o modelo para receber uma resposta específica do contexto. Por exemplo, quando você clica no botão Sugestões de solução de problemas na página do serviço Error Reporting.

Filtragem de segurança e toxicidade do Gemini

Os comandos e respostas do Gemini para Google Cloud estão marcados com uma lista abrangente de atributos de segurança, conforme aplicável para cada uso caso. O objetivo desses atributos de segurança é filtrar conteúdo que viola nossa Política de uso aceitável. Se uma saída for considerada prejudicial, a resposta será bloqueada.

A seguir