En esta página, se describen las opciones de modelos de embedding y se muestra cómo usar tu modelo de embedding para crear un corpus de RAG. La asociación entre tu modelo de incorporación y el corpus de RAG permanece fija durante el ciclo de vida de tu corpus de RAG.
Introducción a los embeddings
Los embeddings son representaciones numéricas de las entradas. Puedes usar incorporaciones en tus aplicaciones para reconocer significados complejos y relaciones semánticas, y para procesar y producir lenguaje.
Las incorporaciones funcionan convirtiendo texto, imágenes y videos en arreglos de números de punto flotante llamados vectores. Cuanto más cerca estén dos vectores en su espacio de incorporación, mayor será la similitud de sus entradas.
Los modelos de incorporación son un componente importante de los sistemas de recuperación semántica. El rendimiento de un sistema de recuperación depende de qué tan bien el modelo de incorporación asigna las relaciones en tus datos.
Opciones de modelos de embeddings
Vertex AI RAG Engine implementa la generación mejorada por recuperación (RAG) y te ofrece la opción de usar los siguientes modelos de incorporación en un corpus de RAG:
Tipo de modelo de embedding | Descripción |
---|---|
Modelos de embedding de texto de Vertex AI | Modelos entrenados por el publicador, como Google. Los modelos se entrenan con un gran conjunto de datos de texto y proporcionan un modelo de referencia sólido para muchas tareas. |
Modelos de embedding de texto de Vertex AI ajustados | Los modelos de embedding de texto de Vertex AI se ajustan para tener conocimientos especializados o un rendimiento altamente personalizado. |
Modelos de embeddings de OSS | Modelos de código abierto de terceros para la incorporación en variantes solo en inglés y multilingües |
Modelos de incorporación compatibles
Los modelos de embedding se usan para crear un corpus y para la búsqueda y recuperación durante la generación de respuestas. En esta sección, se enumeran los modelos de incorporación compatibles.
Versión del modelo | Descripción |
---|---|
text-embedding-005 |
Es el modelo de embedding predeterminado. Se recomienda usar con un corpus de RAG. |
text-embedding-004 |
|
text-multilingual-embedding-002 |
Se recomienda usar con un corpus de RAG. |
Modelos de incorporación de código abierto
También se admiten los siguientes modelos de embedding abiertos. Puedes encontrarlos en Model Garden.
e5-base-v2
e5-large-v2
e5-small-v2
multilingual-e5-large
multilingual-e5-small
Usa los modelos de incorporación de texto de Vertex AI
La API de Vertex AI Text Embedding usa los modelos de incorporación de Gecko, que producen un vector de incorporación denso con 768 dimensiones. Los embeddings densos almacenan el significado del texto, a diferencia de los vectores dispersos, que tienden a asignar palabras directamente a números. La ventaja de usar incorporaciones de vectores densas en la IA generativa es que, en lugar de buscar coincidencias de palabras o sintaxis directas, puedes buscar mejor pasajes que se alineen con el significado de la consulta, incluso si los pasajes no usan el mismo idioma.
Modelos de Gecko
Los modelos Gecko están disponibles en versiones solo en inglés y multilingües. A diferencia de los modelos Gecko ajustados, los modelos Gecko de publicador no requieren implementación, lo que los convierte en el conjunto de modelos preferido para usar con el motor de RAG de Vertex AI.
Para identificar el modelo de incorporación predeterminado que se usa o si necesitas una lista de los modelos de Gecko recomendados para usar con un corpus de RAG, consulta Modelos de incorporación compatibles.
Cuándo se descontinuarán los modelos de Gecko
Es posible que se descontinúen los modelos Gecko de editor. Si eso sucede, los modelos Gecko del editor no se podrán usar con el motor de RAG de Vertex AI, ni siquiera para un corpus de RAG que se haya creado antes de la interrupción. Cuando se descontinúa tu modelo de Gecko, debes migrar el corpus de RAG, lo que significa que debes crear un corpus de RAG nuevo y volver a importar los datos. Una alternativa es usar un modelo de Gecko ajustado o un modelo de incorporación de OSS implementado por el usuario, que se admite después de que se descontinúa el modelo.
Crea un corpus de RAG con un modelo de Gecko para publicadores
En estas muestras de código, se muestra cómo crear un corpus de RAG con un modelo de Gecko para editores.
curl
ENDPOINT=us-central1-aiplatform.googleapis.com
PROJECT_ID=YOUR_PROJECT_ID
// Set this to your choice of publisher Gecko model. Note that the full resource name of the publisher model is required.
// Example: projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/text-embedding-004
ENDPOINT_NAME=YOUR_ENDPOINT_NAME
// Set a display name for your corpus.
// For example, "my test corpus"
CORPUS_DISPLAY_NAME=YOUR_CORPUS_DISPLAY_NAME
// CreateRagCorpus
// Input: ENDPOINT, PROJECT_ID, ENDPOINT_NAME, CORPUS_DISPLAY_NAME
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${ENDPOINT}/v1beta1/projects/${PROJECT_ID}/locations/us-central1/ragCorpora \
-d '{
"display_name" : '\""${CORPUS_DISPLAY_NAME}"\"',
"rag_embedding_model_config" : {
"vertex_prediction_endpoint": {
"endpoint": '\""${ENDPOINT_NAME}"\"'
}
}
}'
SDK de Vertex AI para Python
import vertexai
from vertexai import rag
# Set Project
PROJECT_ID = "YOUR_PROJECT_ID"
vertexai.init(project=${PROJECT_ID}, location="us-central1")
# Configure a Google first-party embedding model
embedding_model_config = rag.RagEmbeddingModelConfig(
publisher_model="publishers/google/models/text-embedding-004"
)
# Name your corpus
DISPLAY_NAME = "YOUR_CORPUS_DISPLAY_NAME"
rag_corpus = rag.create_corpus(
display_name=DISPLAY_NAME, rag_embedding_model_config=embedding_model_config
)
Usa modelos de incorporación de texto de Vertex AI ajustados
Si bien los modelos de base de publicadores se entrenan con un gran conjunto de datos de texto y proporcionan un modelo de referencia sólido para muchas tareas, puede haber situaciones en las que necesites que los modelos tengan un conocimiento especializado o un rendimiento altamente personalizado. En esos casos, el ajuste del modelo te permite definir mejor las representaciones del modelo con tus datos pertinentes. Un beneficio adicional de este enfoque es que, cuando se ajusta el modelo, la imagen resultante es de tu propiedad y no se ve afectada por la baja del modelo Gecko. Todos los modelos de embedding de Gecko ajustados producen embeddings con vectores de 768 dimensiones. Para obtener más información sobre estos modelos, consulta Obtén incorporaciones de texto.
Para obtener más información sobre el ajuste de modelos de incorporación, consulta Ajusta los modelos de texto.
En estas muestras de código, se muestra cómo crear un corpus de RAG con tu modelo de Gecko ajustado y desplegado.
curl
ENDPOINT=us-central1-aiplatform.googleapis.com
PROJECT_ID=YOUR_PROJECT_ID
// Your Vertex AI endpoint resource with the deployed fine-tuned Gecko model
// Example: projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${ENDPOINT_ID}
ENDPOINT_NAME=YOUR_ENDPOINT_NAME
// Set a display name for your corpus.
// For example, "my test corpus"
CORPUS_DISPLAY_NAME=YOUR_CORPUS_DISPLAY_NAME
// CreateRagCorpus
// Input: ENDPOINT, PROJECT_ID, ENDPOINT_NAME, CORPUS_DISPLAY_NAME
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${ENDPOINT}/v1beta1/projects/${PROJECT_ID}/locations/us-central1/ragCorpora \
-d '{
"display_name" : '\""${CORPUS_DISPLAY_NAME}"\"',
"rag_embedding_model_config" : {
"vertex_prediction_endpoint": {
"endpoint": '\""${ENDPOINT_NAME}"\"'
}
}
}'
SDK de Vertex AI para Python
import vertexai
from vertexai import rag
# Set Project
PROJECT_ID = "YOUR_PROJECT_ID"
vertexai.init(project=${PROJECT_ID}, location="us-central1")
# Your Vertex Endpoint resource with the deployed fine-tuned Gecko model
ENDPOINT_ID = "YOUR_MODEL_ENDPOINT_ID"
MODEL_ENDPOINT = "projects/${PROJECT_ID}/locations/us-central1/endpoints/${ENDPOINT_ID}"
embedding_model_config = rag.RagEmbeddingModelConfig(
endpoint=${MODEL_ENDPOINT},
)
# Name your corpus
DISPLAY_NAME = "YOUR_CORPUS_DISPLAY_NAME"
rag_corpus = rag.create_corpus(
display_name=${DISPLAY_NAME}, rag_embedding_model_config=embedding_model_config
)
Usa modelos de incorporación de OSS
Vertex AI RAG Engine admite modelos de incorporación de código abierto de terceros en variantes solo en inglés y multilingües. En esta tabla, se enumeran los modelos de E5 compatibles.
Versión del modelo | Modelo base | Parámetros | Dimensión de embedding | Solo en inglés |
---|---|---|---|---|
e5-base-v2 |
MiniLM |
109 millones | 768 | ✔ |
e5-large-v2 |
MiniLM |
335 millones | 1,024 | ✔ |
e5-small-v2 |
MiniLM |
33 millones | 384 | ✔ |
multilingual-e5-large |
xlm-roberta-large |
560 millones | 1,024 | ✗ |
multilingual-e5-small |
microsoft/Multilingual-MiniLM-L12-H384 |
118 millones | 384 | ✗ |
Para usar los modelos E5 con el motor de RAG de Vertex AI, el modelo E5 debe implementarse desde Model Garden. Para implementar tu modelo E5, consulta E5 Text Embedding en la consola de Google Cloud .
En estas muestras de código, se muestra cómo crear un corpus de RAG con tu modelo E5 implementado.
curl
ENDPOINT=us-central1-aiplatform.googleapis.com
PROJECT_ID=YOUR_PROJECT_ID
// Your Vertex Endpoint resource with the deployed E5 model
// Example: projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${ENDPOINT_ID}
ENDPOINT_NAME=YOUR_ENDPOINT_NAME
// Set a display name for your corpus.
// For example, "my test corpus"
CORPUS_DISPLAY_NAME=YOUR_CORPUS_DISPLAY_NAME
// CreateRagCorpus
// Input: ENDPOINT, PROJECT_ID, ENDPOINT_NAME, CORPUS_DISPLAY_NAME
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${ENDPOINT}/v1beta1/projects/${PROJECT_ID}/locations/us-central1/ragCorpora \
-d '{
"display_name" : '\""${CORPUS_DISPLAY_NAME</var>}"\"',
"rag_embedding_model_config" : {
"vertex_prediction_endpoint": {
"endpoint": '\""${ENDPOINT_NAME}"\"'
}
}
}'
SDK de Vertex AI para Python
import vertexai
from vertexai import rag
# Set Project
PROJECT_ID = "YOUR_PROJECT_ID"
vertexai.init(project=PROJECT_ID, location="us-central1")
# Your Vertex Endpoint resource with the deployed E5 model
ENDPOINT_ID = "YOUR_MODEL_ENDPOINT_ID"
MODEL_ENDPOINT = "projects/{PROJECT_ID}/locations/us-central1/endpoints/{ENDPOINT_ID}"
embedding_model_config = rag.RagEmbeddingModelConfig(
endpoint=MODEL_ENDPOINT,
)
# Name your corpus
DISPLAY_NAME = "YOUR_CORPUS_DISPLAY_NAME"
rag_corpus = rag.create_corpus(
display_name=DISPLAY_NAME, rag_embedding_model_config=embedding_model_config
)