Vortrainiertes LLM verwenden

Auf dieser Seite wird beschrieben, wie Sie ein textbasiertes Large Language Model (LLM) in den benutzerdefinierten Empfehlungsmodellen verwenden. Wir trainieren diese Modelle für Sie. Sie können die vorab trainierten Funktionen in den benutzerdefinierten Empfehlungsmodellen aktivieren.

Bei Empfehlungen wird das Produktfeld description an LLMs übergeben und in Ihre Empfehlungsmodelle aufgenommen.

Neue LLM-Textfunktionen

Sie können Text-Embeddings auch erhalten, indem Sie ein generatives Vertex AI-Modell manuell konfigurieren. Es ist jedoch empfehlenswert, die neuen LLM-Funktionen in Ihre Empfehlungsmodelle einzubinden, um die Leistung zu verbessern.

Die Text-Embeddings sind aussagekräftiger, länger, nicht repetitiv und bieten mehrsprachige Interpretationsmöglichkeiten. Diese Funktion basiert auf einer Zulassungsliste. Wenden Sie sich an den Support, um diese Funktion zu aktivieren.

Die Verwendung der Texteinbettungen ist kostenlos und sie sind in den Preisen für die Vertex AI-Suche enthalten.

Die LLM-vortrainierten Einbettungen verbessern das semantische Verständnis von Textsuchen im Langformat, z. B. Beschreibungen.

In den folgenden Ressourcen finden Sie weitere Informationen dazu, wie Sie embeddings und generative KI allein in Ihrem benutzerdefinierten ML-Training verwenden können:

Modellkompatibilität

Die LLM-Funktion ist mit allen ML-Modelltypen und -Zielvorhaben kompatibel, darunter:

  • OYML
  • FBT
  • und vieles mehr.

Weitere Informationen zu den verschiedenen Arten von Empfehlungsmodellen, die von Vertex AI Search for Commerce unterstützt werden, finden Sie unter Empfehlungsmodelle.