Teste os modelos do Gemini 1.5, os modelos multimodais mais recentes na Vertex AI, e veja o que é possível criar com uma janela de contexto de até 2 milhões de tokens.
Teste os modelos do Gemini 1.5, os modelos multimodais mais recentes na Vertex AI, e veja o que é possível criar com uma janela de contexto de até 2 milhões de tokens.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Neste documento, mostramos estratégias para criar
solicitações que funcionam com o modelo compatível para
conversar com o chatbot sobre o código.
Casos de uso
Alguns casos de uso comuns para bate-papo de código são:
Depuração: receba ajuda com a depuração do código que não é compilado ou contém um bug.
Documentação: receba ajuda na compreensão do código para documentá-lo
com precisão.
Aprendizado: receba ajuda para aprender sobre códigos que você não conhece bem.
Modelos compatíveis
Os modelos a seguir são compatíveis com tarefas de chat de código:
Gemini 1.5 Flash
Gemini 1.5 Pro
Gemini 1.0 Pro
Exemplo de solicitação de chat por código
Você pode usar o modelo de bate-papo de código para gerar o código. No bate-papo de exemplo a seguir, o usuário solicita uma função que calcula o mínimo de dois números.
Esta é a primeira solicitação do usuário:
Hi, how are you?
I'm doing great, thanks for asking! How can I help you today?
Esta é a segunda solicitação do usuário que resulta na geração do código de uma função:
Please help write a function to calculate the min of two numbers.
```
def min_of_two_numbers(a, b):
"""Returns the minimum of two numbers."""
if a < b:
return a
else:
return b
```