Ejecutar la inferencia de LLMs en GPUs de Cloud Run con vLLM

En este codelab se muestra cómo ejecutar un servicio backend que ejecuta vLLM, un motor de inferencia para sistemas de producción, junto con Gemma 2 de Google, un modelo ajustado mediante instrucciones con 2000 millones de parámetros.

Consulta el codelab completo en Ejecutar inferencia de LLM en GPUs de Cloud Run con vLLM.