En este documento se describe cómo se ha diseñado Gemini para Google Cloud teniendo en cuenta las capacidades, las limitaciones y los riesgos asociados a la IA generativa.
Funciones y riesgos de los modelos de lenguaje extensos
Los modelos de lenguaje extensos (LLMs) pueden realizar muchas tareas útiles, como las siguientes:
- Idioma de traducción.
- Resumir texto.
- Genera código y textos creativos.
- Potencia los chatbots y los asistentes virtuales.
- Complementar los buscadores y los sistemas de recomendación.
Al mismo tiempo, las capacidades técnicas en constante evolución de los LLMs pueden conducir a aplicaciones incorrectas, usos inadecuados y consecuencias no deseadas o imprevistas.
Los LLMs pueden generar resultados inesperados, como texto ofensivo, insensible o incorrecto. Como los LLMs son increíblemente versátiles, puede ser difícil predecir exactamente qué tipos de resultados no deseados o imprevistos pueden producir.
Teniendo en cuenta estos riesgos y complejidades, Gemini para Google Cloud se ha diseñado siguiendo los principios de IA de Google. Sin embargo, es importante que los usuarios conozcan algunas de las limitaciones de Gemini para Google Cloud para que funcione de forma segura y responsable.
Limitaciones de Gemini para Google Cloud
Estas son algunas de las limitaciones que puedes encontrar al usar Gemini para Google Cloud :
Casos excepcionales. Los casos límite son situaciones inusuales, raras o excepcionales que no están bien representadas en los datos de entrenamiento. En estos casos, se pueden producir limitaciones en los resultados de los modelos de Gemini, como una confianza excesiva del modelo, una interpretación errónea del contexto o resultados inapropiados.
Alucinaciones, fundamentación y veracidad de los modelos. Es posible que los modelos de Gemini no tengan una base sólida y no sean precisos en cuanto a conocimientos del mundo real, propiedades físicas o comprensión precisa. Esta limitación puede provocar que el modelo tenga alucinaciones, es decir, que genere resultados que parezcan plausibles, pero que sean incorrectos, irrelevantes, inapropiados o absurdos. Google Cloud Las alucinaciones también pueden incluir la creación de enlaces a páginas web que no existen ni han existido nunca. Para obtener más información, consulta el artículo Escribe mejores peticiones para Gemini para Google Cloud.
Calidad y ajuste de los datos. La calidad, la precisión y los sesgos de los datos de las peticiones que se introducen en los productos de Gemini pueden influir significativamente en su rendimiento. Google CloudSi los usuarios introducen peticiones imprecisas o incorrectas, Gemini para Google Cloud puede devolver respuestas no óptimas o falsas.
Amplificación del sesgo. Los modelos de lenguaje pueden amplificar sin querer los sesgos que ya existen en sus datos de entrenamiento, lo que puede dar lugar a resultados que refuercen aún más los prejuicios sociales y el trato desigual de determinados grupos.
Calidad del idioma. Aunque Gemini para Google Cloud ofrece funciones multilingües impresionantes en las evaluaciones estandarizadas que hemos realizado, la mayoría de nuestras evaluaciones (incluidas todas las de equidad) están en inglés americano.
Los modelos de lenguaje pueden ofrecer una calidad de servicio incoherente a diferentes usuarios. Por ejemplo, la generación de texto puede no ser tan eficaz en algunos dialectos o variedades lingüísticas porque están poco representados en los datos de entrenamiento. El rendimiento puede ser peor en idiomas distintos del inglés o en variedades del inglés con menos representación.
Comparativas y subgrupos de equidad. Los análisis de equidad de los modelos de Gemini realizados por Google Research no ofrecen una descripción exhaustiva de los distintos riesgos potenciales. Por ejemplo, nos centramos en los sesgos relacionados con el sexo, la raza, la etnia y la religión, pero solo analizamos los datos y los resultados del modelo en inglés americano.
Conocimientos limitados del sector. Los modelos de Gemini se han entrenado con Google Cloud tecnología, pero es posible que no tengan la profundidad de conocimientos necesaria para proporcionar respuestas precisas y detalladas sobre temas muy especializados o técnicos, lo que puede dar lugar a información superficial o incorrecta.
Cuando usas el panel Gemini en la Google Cloud consola, Gemini no conoce el contexto de tu entorno específico, por lo que no puede responder a preguntas como "¿Cuándo fue la última vez que creé una VM?".
En algunos casos, Gemini for Google Cloud envía un segmento específico de tu contexto al modelo para recibir una respuesta específica del contexto. Por ejemplo, cuando haces clic en el botón Sugerencias para solucionar problemas en la página del servicio Error Reporting.
Seguridad de Gemini y filtrado de toxicidad
Las peticiones y respuestas de Gemini se comprueban con una lista exhaustiva de atributos de seguridad, según corresponda a cada caso de uso. Google Cloud Estos atributos de seguridad tienen como objetivo filtrar el contenido que infringe nuestra Política de Usos Aceptables. Si se considera que una respuesta es dañina, se bloqueará.
Siguientes pasos
- Consulta más información sobre cómo cita fuentes Gemini cuando te ayuda a generar código.