Descripción general de la inferencia de modelos
En este documento, se describen los tipos de inferencia por lotes que admite BigQuery ML, incluidos los siguientes:
La inferencia de aprendizaje automático es el proceso de ejecutar datos en un modelo de aprendizaje automático para calcular un resultado, como una sola puntuación numérica. Este proceso también se conoce como “poner en funcionamiento un modelo de aprendizaje automático” o “poner en producción un modelo de aprendizaje automático”.
Predicción por lotes
En las siguientes secciones, se describen las formas disponibles de realizar predicciones en BigQuery ML.
Inferencia con modelos entrenados de BigQuery ML
La predicción en BigQuery ML se usa no solo para los modelos de aprendizaje supervisado, sino también para los modelos de aprendizaje no supervisado.
BigQuery ML admite las funcionalidades de predicción a través de la función ML.PREDICT
con los siguientes modelos:
Categoría del modelo | Tipos de modelos | Qué hace ML.PREDICT |
---|---|---|
Aprendizaje supervisado |
Regresión lineal y logística Árboles con boosting Bosque aleatorio Redes neuronales profundas Algoritmo de amplitud y profundidad AutoML Tables |
Predice la etiqueta, ya sea un valor numérico para las tareas de regresión o un valor categórico para las tareas de clasificación. |
Aprendizaje no supervisado | k-means | Asigna el clúster a la entidad. |
PCA | Aplica la reducción de la dimensionalidad a la entidad mediante la transformación en el espacio que abarcan los eigenvectores. | |
Codificador automático | Transforma la entidad en el espacio incorporado. |
Inferencia con modelos importados
Con este enfoque, creas y entrenas un modelo fuera de BigQuery, lo importas con la sentencia CREATE MODEL
y, luego, ejecutas la inferencia mediante la función ML.PREDICT
.
Todo el procesamiento de inferencia se produce en BigQuery mediante los datos de BigQuery. Los modelos importados pueden realizar un aprendizaje supervisado o no supervisado.
BigQuery ML es compatible con los siguientes tipos de modelos importados:
- Open Neural Network Exchange (ONNX) para modelos entrenados en PyTorch, scikit-learn y otros frameworks de AA populares.
- TensorFlow
- TensorFlow Lite
- XGBoost
Usa este enfoque para usar modelos personalizados desarrollados con una variedad de frameworks de AA y, al mismo tiempo, aprovechar la velocidad de inferencia y la ubicación conjunta de BigQuery ML con los datos.
Para obtener más información, prueba uno de los siguientes instructivos:
- Haz predicciones con modelos de TensorFlow importados
- Haz predicciones con modelos de scikit-learn en formato ONNX
- Haz predicciones con modelos de PyTorch en formato ONNX
Inferencia con modelos remotos
Con este enfoque, puedes crear una referencia para un modelo alojado en una predicción de Vertex AI mediante la sentencia CREATE MODEL
y, luego, ejecutas la inferencia con la función ML.PREDICT
.
Todo el procesamiento de inferencia se produce en Vertex AI mediante los datos de BigQuery. Los modelos remotos pueden realizar un aprendizaje supervisado o no supervisado.
Usa este enfoque para ejecutar inferencias en modelos grandes que requieren la compatibilidad con hardware de GPU que proporciona Vertex AI. Si la mayoría de los modelos están alojados en Vertex AI, esto también te permite ejecutar inferencias en estos modelos mediante SQL, sin tener que compilar canalizaciones de datos de forma manual para tomar datos en Vertex AI y devolver los resultados de la predicción a BigQuery.
Para obtener instrucciones paso a paso, consulta Realiza predicciones con modelos remotos en Vertex AI.
Inferencia por lotes con modelos de BigQuery en Vertex AI
BigQuery ML tiene compatibilidad integrada con la predicción por lotes, sin necesidad de usar Vertex AI. También es posible registrar un modelo de BigQuery ML en Model Registry para realizar la predicción por lotes en Vertex AI con una tabla de BigQuery como entrada. Sin embargo, esto solo se puede hacer con la API de Vertex AI y configurando InstanceConfig.instanceType
en object
.
Predicción en línea
La capacidad de inferencia integrada de BigQuery ML está optimizada para casos de uso a gran escala, como la predicción por lotes. Si bien BigQuery ML ofrece resultados de inferencia de baja latencia cuando se manejan datos de entrada pequeños, puedes lograr una predicción en línea más rápida mediante una integración continua con Vertex AI.
Puedes administrar modelos de BigQuery ML dentro del entorno de Vertex AI, lo que elimina la necesidad de exportar modelos desde BigQuery ML antes de implementarlos como extremos de Vertex AI. Cuando administras modelos dentro de Vertex AI, obtienes acceso a todas las funciones de Vertex AI MLOps y a funciones como Vertex AI Feature Store.
Además, tienes la flexibilidad de exportar modelos de BigQuery ML a Cloud Storage para que estén disponibles en otras plataformas de hosting de modelos.
¿Qué sigue?
- Si deseas obtener más información sobre el uso de modelos de Vertex AI para generar incorporaciones y texto, consulta Descripción general de la IA generativa.
- Si deseas obtener más información sobre el uso de las APIs de Cloud AI para realizar tareas de IA, consulta Descripción general de la aplicación de IA.
- Para obtener información sobre los tipos de modelos compatibles y las funciones de SQL para cada tipo de inferencia, consulta el Recorrido de usuario de extremo a extremo de cada modelo.