Utiliser un LLM pré-entraîné

Cette page explique comment utiliser un grand modèle de langage(LLM) textuel.

Nouvelles fonctionnalités textuelles du LLM

Bien qu'il soit possible d'obtenir des embeddings de texte en configurant manuellement un modèle génératif Vertex AI, vous pouvez souhaiter couvrir plus spécifiquement votre cas d'utilisation de marchand. Pour ce faire, vous pouvez utiliser des modèles génératifs Vertex AI pré-entraînés sur les métadonnées des marchands pour améliorer les performances des modèles de recommandation.

Les représentations vectorielles continues de texte sont plus descriptives, plus longues et non répétitives. Elles offrent également des fonctionnalités d'interprétation multilingue. Cette fonctionnalité est basée sur une liste d'autorisation. Contactez l'assistance pour activer cette fonctionnalité.

L'utilisation des embeddings de texte est gratuite et est incluse dans les tarifs de Vertex AI Search.

Les représentations vectorielles continues pré-entraînées par LLM améliorent la compréhension sémantique des recherches textuelles longues, telles que les descriptions.

Compatibilité des modèles

La fonctionnalité LLM est compatible avec tous les types et objectifs de modèles de ML, y compris les suivants:

  • OYML
  • FBT
  • et plus encore.