Cette page explique comment utiliser un grand modèle de langage (LLM) textuel dans les modèles de recommandation personnalisés. Nous entraînons ces modèles pour vous. Vous pouvez activer les fonctionnalités pré-entraînées dans les modèles de recommandation personnalisés.
Les recommandations utilisent le champ description
du produit pour alimenter les LLM et les intégrer à vos modèles de recommandations.
Nouvelles fonctionnalités textuelles LLM
Bien qu'il soit possible d'obtenir des embeddings de texte en configurant manuellement un modèle génératif Vertex AI, vous pouvez intégrer les nouvelles fonctionnalités LLM à vos modèles de recommandations pour améliorer leurs performances.
Les embeddings de texte sont plus descriptifs, plus longs et non répétitifs. Ils offrent également des capacités d'interprétation multilingue. Cette fonctionnalité est basée sur une liste d'autorisation. Contactez l'assistance pour activer cette fonctionnalité.
L'utilisation des embeddings de texte est gratuite et incluse dans les tarifs de Vertex AI Search.
Les embeddings préentraînés par LLM améliorent la compréhension sémantique des recherches de texte long, comme les descriptions.
Pour savoir comment utiliser les embeddings et l'IA générative seuls dans votre propre entraînement de ML personnalisé, consultez les ressources suivantes :
Compatibilité des modèles
La fonctionnalité LLM est compatible avec tous les types et objectifs de modèles de ML, y compris :
- OYML
- FBT
- et plus encore.
Pour en savoir plus sur les différents types de modèles de recommandation compatibles avec Vertex AI Search pour le commerce, consultez À propos des modèles de recommandation.