Modelos de partners de Vertex AI para MaaS

Vertex AI admite una lista seleccionada de modelos desarrollados por partners de Google. Los modelos de partners se pueden usar con Vertex AI como modelo como servicio (MaaS) y se ofrecen como una API gestionada. Cuando usas un modelo de partner, sigues enviando tus solicitudes a los endpoints de Vertex AI. Los modelos de partners no tienen servidor, por lo que no es necesario aprovisionar ni gestionar ninguna infraestructura.

Los modelos de partners se pueden descubrir mediante Model Garden. También puedes desplegar modelos con Model Garden. Para obtener más información, consulta Descubrir modelos de IA en Model Garden. Aunque puedes encontrar información sobre cada modelo de partner disponible en su tarjeta de modelo en Model Garden, en esta guía solo se documentan los modelos de terceros que funcionan como MaaS con Vertex AI.

Los modelos Claude de Anthropic y Mistral son ejemplos de modelos gestionados de terceros que se pueden usar en Vertex AI.

Modelos de partners

Los siguientes modelos de partners se ofrecen como APIs gestionadas en Vertex AI Model Garden (MaaS):

Nombre del modelo Modalidad Descripción Guía de inicio rápido
Claude Opus 4.1 Idioma, visión Líder del sector en programación. Ofrece un rendimiento constante en tareas de larga duración que requieren un esfuerzo concentrado y miles de pasos, lo que amplía significativamente lo que pueden resolver los agentes de IA. Ideal para potenciar los productos y las funciones de los agentes de vanguardia. Tarjeta de modelo
Claude Opus 4 Idioma, visión Claude Opus 4 ofrece un rendimiento sostenido en tareas de larga duración que requieren un esfuerzo concentrado y miles de pasos, lo que amplía significativamente lo que pueden resolver los agentes de IA. Tarjeta de modelo
Claude Sonnet 4 Idioma, visión Modelo de tamaño medio de Anthropic con una inteligencia superior para usos de gran volumen, como la programación, la investigación exhaustiva y los agentes. Tarjeta de modelo
Claude 3.7 Sonnet de Anthropic Idioma, visión Modelo líder del sector para programar y potenciar agentes de IA, y el primer modelo de Claude que ofrece un tiempo de reflexión ampliado. Tarjeta de modelo
Claude 3.5 Sonnet v2 de Anthropic Idioma, visión La versión mejorada de Claude 3.5 Sonnet es un modelo de vanguardia para tareas de ingeniería de software del mundo real y funciones de agentes. Claude 3.5 Sonnet ofrece estos avances al mismo precio y velocidad que su predecesor. Tarjeta de modelo
Claude 3.5 Haiku de Anthropic Idioma, visión Claude 3.5 Haiku, la nueva generación del modelo más rápido y rentable de Anthropic, es ideal para casos prácticos en los que la velocidad y la asequibilidad son importantes. Tarjeta de modelo
Claude 3 Haiku de Anthropic Idioma El modelo de visión y texto más rápido de Anthropic para responder casi instantáneamente a consultas básicas, con el objetivo de ofrecer experiencias de IA fluidas que imiten las interacciones humanas. Tarjeta de modelo
Claude 3.5 Sonnet de Anthropic Idioma Claude 3.5 Sonnet supera a Claude 3 Opus de Anthropic en una amplia gama de evaluaciones de Anthropic y con la velocidad y el coste del modelo de gama media de Anthropic, Claude 3 Sonnet. Tarjeta de modelo
Jamba 1.5 Large (versión preliminar) Idioma Jamba 1.5 Large de AI21 Labs se ha diseñado para ofrecer respuestas de calidad superior, un alto rendimiento y precios competitivos en comparación con otros modelos de su clase. Tarjeta de modelo
Jamba 1.5 Mini (versión preliminar) Idioma Jamba 1.5 Mini de AI21 Labs ofrece un buen equilibrio entre calidad, rendimiento y bajo coste. Tarjeta de modelo
Mistral OCR (25.05) Idioma, visión Mistral OCR (25.05) es una API de reconocimiento óptico de caracteres para comprender documentos. El modelo comprende cada elemento de los documentos, como contenido multimedia, texto, tablas y ecuaciones. Tarjeta de modelo
Mistral Small 3.1 (25.03) Idioma Mistral Small 3.1 (25.03) es la versión más reciente del modelo Small de Mistral, que incluye funciones multimodales y una longitud de contexto ampliada. Tarjeta de modelo
Mistral Large (24.11) Idioma Mistral Large (24.11) es la siguiente versión del modelo Mistral Large (24.07), que ahora ofrece mejores funciones de razonamiento y de llamada de funciones. Tarjeta de modelo
Codestral (25.01) Código Un modelo de vanguardia diseñado para la generación de código, incluida la función de rellenar huecos y la finalización de código. Tarjeta de modelo

Precios de los modelos de partners de Vertex AI con garantía de capacidad

Google ofrece un rendimiento aprovisionado para algunos modelos de partners que reserva capacidad de rendimiento para tus modelos por una tarifa fija. Tú decides la capacidad de procesamiento y en qué regiones quieres reservar esa capacidad. Como las solicitudes de capacidad de proceso aprovisionada tienen prioridad sobre las solicitudes estándar de pago por uso, la capacidad de proceso aprovisionada ofrece una mayor disponibilidad. Cuando el sistema esté sobrecargado, tus solicitudes se podrán completar siempre que el rendimiento se mantenga por debajo de la capacidad de rendimiento reservada. Para obtener más información o suscribirte al servicio, ponte en contacto con el equipo de Ventas.

Puntos finales regionales y globales

En el caso de los endpoints regionales, las solicitudes se atienden desde la región especificada. En los casos en los que tengas requisitos de residencia de datos o si un modelo no admite el endpoint global, usa los endpoints regionales.

Cuando usas el endpoint global, Google puede procesar y responder a tus solicitudes desde cualquier región admitida por el modelo que estés usando, lo que puede provocar una latencia mayor en algunos casos. El endpoint global ayuda a mejorar la disponibilidad general y a reducir los errores.

No hay ninguna diferencia de precio con los endpoints regionales cuando se usa el endpoint global. Sin embargo, las cuotas de los endpoints globales y las funciones de los modelos admitidos pueden ser diferentes de las de los endpoints regionales. Para obtener más información, consulta la página del modelo de terceros correspondiente.

Especificar el endpoint global

Para usar el endpoint global, define la región como global.

Por ejemplo, la URL de solicitud de un comando curl tiene el siguiente formato: https://aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/global/publishers/PUBLISHER_NAME/models/MODEL_NAME

En el SDK de Vertex AI, el endpoint regional es el predeterminado. Asigna el valor GLOBAL a la región para usar el endpoint global.

Modelos admitidos

El endpoint global está disponible para los siguientes modelos:

Restringir el uso de endpoints de API globales

Para ayudar a aplicar el uso de endpoints regionales, usa la restricción de la política de organización constraints/gcp.restrictEndpointUsage para bloquear las solicitudes al endpoint de la API global. Para obtener más información, consulta Restringir el uso de endpoints.

Conceder acceso a los usuarios a modelos de partners

Para que puedas habilitar modelos de partners y hacer una petición, un administrador debe definir los permisos necesarios y verificar que la política de la organización permite el uso de las APIs necesarias. Google Cloud

Definir los permisos necesarios para usar modelos de partners

Para usar modelos de partners, se necesitan los siguientes roles y permisos:

  • Debes tener el rol de gestión de identidades y accesos (IAM) Gestor de autorizaciones de aprovisionamiento de clientes. Cualquier usuario al que se le haya concedido este rol puede habilitar modelos de partners en Model Garden.

  • Debes tener el permiso aiplatform.endpoints.predict. Este permiso se incluye en el rol de gestión de identidades y accesos de usuario de Vertex AI. Para obtener más información, consulta Usuario de Vertex AI y Control de acceso.

Consola

  1. Para conceder a un usuario los roles de IAM de Gestor de autorizaciones de aprovisionamiento de clientes, ve a la página IAM.

    Ir a IAM

  2. En la columna Principal, busque el principal del usuario al que quiera habilitar el acceso a los modelos de partners y, a continuación, haga clic en Editar principal en esa fila.

  3. En el panel Editar acceso, haz clic en Añadir otro rol.

  4. En Selecciona un rol, elige Gestor de derechos de aprovisionamiento de consumidor.

  5. En el panel Editar acceso, haz clic en Añadir otro rol.

  6. En Selecciona un rol, selecciona Usuario de Vertex AI.

  7. Haz clic en Guardar.

gcloud

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

  2. Concede el rol Gestor de autorizaciones de aprovisionamiento de clientes que se necesita para habilitar los modelos de partners en Model Garden

    gcloud projects add-iam-policy-binding  PROJECT_ID \
    --member=PRINCIPAL --role=roles/consumerprocurement.entitlementManager
    
  3. Concede el rol de usuario de Vertex AI, que incluye el permiso aiplatform.endpoints.predict necesario para hacer solicitudes de peticiones:

    gcloud projects add-iam-policy-binding  PROJECT_ID \
    --member=PRINCIPAL --role=roles/aiplatform.user
    

    Sustituye PRINCIPAL por el identificador de la entidad principal. El identificador tiene el formato user|group|serviceAccount:email o domain:domain. Por ejemplo, user:cloudysanfrancisco@gmail.com, group:admins@example.com, serviceAccount:test123@example.domain.com o domain:example.domain.com.

    El resultado es una lista de enlaces de políticas que incluye lo siguiente:

    -   members:
      -   user:PRINCIPAL
      role: roles/roles/consumerprocurement.entitlementManager
    

    Para obtener más información, consulta los artículos Asignar un rol concreto y gcloud projects add-iam-policy-binding.

Definir la política de organización para el acceso al modelo de partner

Para habilitar los modelos de partner, tu política de organización debe permitir la siguiente API: API Consumer Procurement de Cloud Commerce - cloudcommerceconsumerprocurement.googleapis.com

Si tu organización establece una política de organización para restringir el uso del servicio, un administrador de la organización debe verificar que cloudcommerceconsumerprocurement.googleapis.com está permitido configurando la política de organización.

Además, si tienes una política de la organización que restringe el uso de modelos en Model Garden, la política debe permitir el acceso a los modelos de partners. Para obtener más información, consulta Controlar el acceso al modelo.

Cumplimiento de la normativa del modelo de partner

Las certificaciones de IA generativa en Vertex AI siguen siendo válidas cuando se usan modelos de partners como API gestionada con Vertex AI. Si necesitas más información sobre los modelos, puedes consultar la tarjeta de modelo correspondiente o ponerte en contacto con el editor del modelo.

Tus datos se almacenan en reposo en la región o multirregión seleccionada para los modelos de partners en Vertex AI, pero la regionalización del tratamiento de datos puede variar. Para ver una lista detallada de los compromisos de tratamiento de datos de los modelos de partners, consulta el artículo Residencia de los datos de los modelos de partners.

Las peticiones de los clientes y las respuestas de los modelos no se comparten con terceros cuando se usa la API de Vertex AI, incluidos los modelos de partners. Google solo trata los Datos del Cliente según las instrucciones del Cliente, tal como se describe con más detalle en la Adenda sobre Tratamiento de Datos de Cloud.