Gemini para Google Cloud e IA responsable

Este documento describe cómo Gemini para Google Cloud Está diseñado teniendo en cuenta las capacidades, limitaciones y riesgos asociados con la IA generativa.

Capacidades y riesgos de los modelos lingüísticos de gran tamaño

Los modelos de lenguaje grandes (LLM) pueden realizar muchas tareas útiles como las siguientes:

  • Traducir idioma.
  • Resumir el texto.
  • Generar código y escritura creativa.
  • Potentes chatbots y asistentes virtuales.
  • Complementar motores de búsqueda y sistemas de recomendación.

Al mismo tiempo, la evolución de las capacidades técnicas de los LLM crea el potencial de aplicación incorrecta, mal uso y consecuencias no deseadas o imprevistas.

Los LLM pueden generar resultados inesperados, como texto ofensivo, insensible o incorrecto. Debido a su gran versatilidad, puede ser difícil predecir con exactitud qué tipo de resultados imprevistos podrían generar.

Dados estos riesgos y complejidades, Gemini para Google Cloud Está diseñado con los principios de inteligencia artificial de Google en mente. Sin embargo, es importante que los usuarios comprendan algunas de las limitaciones de Gemini para Google Cloud Trabajar de forma segura y responsable.

Géminis para Google Cloud limitaciones

Algunas de las limitaciones que podrías encontrar al usar Gemini para Google Cloud Incluyen (pero no se limitan a) lo siguiente:

  • Casos extremos. Se refieren a situaciones inusuales, raras o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones en los resultados de los modelos de Gemini, como exceso de confianza, mala interpretación del contexto o resultados inapropiados.

  • Alucinaciones, fundamento y factualidad de los modelos. Los modelos de Géminis podrían carecer de fundamento y factualidad en el conocimiento del mundo real, las propiedades físicas o la comprensión precisa. Esta limitación puede conducir a alucinaciones de modelos, donde Géminis para Google Cloud Podría generar resultados que parecen plausibles, pero que son factualmente incorrectos, irrelevantes, inapropiados o sin sentido. Las alucinaciones también pueden incluir la creación de enlaces a páginas web que no existen ni han existido. Para más información, consulte "Escribir mejores indicaciones para Géminis". Google Cloud .

  • Calidad y ajuste de los datos. La calidad, precisión y sesgo de los datos de solicitud que se ingresan en Gemini para Google CloudLos productos pueden tener un impacto significativo en su rendimiento. Si los usuarios introducen indicaciones inexactas o incorrectas, Gemini para Google CloudPodría devolver respuestas subóptimas o falsas.

  • Amplificación de sesgos. Los modelos lingüísticos pueden amplificar inadvertidamente los sesgos existentes en sus datos de entrenamiento, lo que genera resultados que podrían reforzar los prejuicios sociales y el trato desigual de ciertos grupos.

  • Calidad del lenguaje. Mientras que Géminis para Google Cloudofrece impresionantes capacidades multilingües en los puntos de referencia que evaluamos; la mayoría de nuestros puntos de referencia (incluidas todas las evaluaciones de imparcialidad) están en inglés estadounidense.

    Los modelos lingüísticos podrían ofrecer una calidad de servicio inconsistente a distintos usuarios. Por ejemplo, la generación de texto podría no ser tan efectiva para algunos dialectos o variedades lingüísticas debido a su baja representación en los datos de entrenamiento. El rendimiento podría ser inferior para idiomas distintos del inglés o variedades del inglés con menor representación.

  • Criterios de equidad y subgrupos. Los análisis de equidad de los modelos Gemini que realiza Google Research no ofrecen una descripción exhaustiva de los diversos riesgos potenciales. Por ejemplo, nos centramos en los sesgos según los ejes de género, raza, etnia y religión, pero realizamos el análisis únicamente con los datos y resultados del modelo en inglés estadounidense.

  • Experiencia limitada en el dominio. Los modelos Gemini han sido entrenados en Google Cloud tecnología, pero podría carecer de la profundidad de conocimiento necesaria para proporcionar respuestas precisas y detalladas sobre temas altamente especializados o técnicos, lo que lleva a información superficial o incorrecta.

    Cuando utilice el panel Gemini en el Google Cloud consola, Gemini no tiene en cuenta el contexto de su entorno específico, por lo que no puede responder preguntas como "¿Cuándo fue la última vez que creé una máquina virtual?"

    En algunos casos, Géminis para Google Cloud envía un segmento específico de su contexto al modelo para recibir una respuesta específica del contexto (por ejemplo, cuando hace clic en el botón Sugerencias de solución de problemas en la página del servicio de Informes de errores).

Filtrado de seguridad y toxicidad de Gemini

Géminis para Google Cloud Las indicaciones y respuestas se verifican con una lista completa de atributos de seguridad, según corresponda a cada caso de uso. Estos atributos de seguridad tienen como objetivo filtrar el contenido que infringe nuestra Política de Uso Aceptable . Si un resultado se considera dañino, la respuesta se bloqueará.

¿Qué sigue?