Como usar o LLM pré-treinado

Nesta página, descrevemos como usar um modelo de linguagem grande (LLM) textual nos modelos de recomendação personalizados. Nós treinamos esses modelos para você. É possível ativar os recursos pré-treinados nos modelos de recomendação personalizados.

As recomendações usam o campo do produto description para alimentar LLMs e colocá-los nos seus modelos de recomendação.

Novos recursos textuais de LLM

Embora seja possível receber incorporações de texto configurando manualmente um modelo generativo da Vertex AI, talvez seja melhor integrar os novos recursos de LLM aos seus modelos de recomendação para melhorar a performance.

Os embeddings de texto são mais descritivos, mais longos e não são repetitivos, além de terem recursos de interpretação multilíngue. Esse recurso é baseado em uma lista de permissões. Entre em contato com o suporte para ativar esse recurso.

Não há cobrança pelo uso dos embeddings de texto, e eles estão incluídos nos preços da Vertex AI Search.

Os embeddings pré-treinados com LLM melhoram a compreensão semântica de pesquisas de texto longas, como descrições.

Consulte os recursos a seguir para mais informações sobre como usar embeddings e IA generativa por conta própria no seu treinamento de ML personalizado:

Compatibilidade de modelo

O recurso de LLM é compatível com todos os tipos e objetivos de modelos de ML, incluindo:

  • OYML
  • FBT
  • e mais.

Para mais informações sobre os diferentes tipos de modelos de recomendação que a Pesquisa da Vertex AI para e-commerce oferece suporte, consulte Sobre modelos de recomendação.