Panoramica dell'inferenza del modello
Questo documento descrive i tipi di inferenza batch supportati da BigQuery ML, tra cui:
L'inferenza di machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questa procedura è nota anche come "implementazione di un modello di machine learning" o "messa in produzione di un modello di machine learning".
Previsione batch
Le sezioni seguenti descrivono i modi disponibili per eseguire la previsione in BigQuery ML.
Interruzione utilizzando i modelli addestrati di BigQuery ML
La previsione in BigQuery ML viene utilizzata non solo per i modelli di machine learning supervisionati, ma anche per quelli non supervisionati.
BigQuery ML supporta le funzionalità di previsione tramite la
funzione ML.PREDICT
,
con i seguenti modelli:
Categoria del modello | Tipi di modelli | Che cosa fa ML.PREDICT |
---|---|---|
Apprendimento supervisionato |
Regresione lineare e logistica Alberi con boosting Foresta casuale Reti neurali profonde Wide-and-Deep AutoML Tables |
Prevedi l'etichetta, un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione. |
Apprendimento non supervisionato | K-means | Assegna il cluster all'entità. |
PCA | Applica la riduzione della dimensionalità all'entità trasformandola nello spazio compreso dagli autovalori. | |
Autoencoder | Trasforma l'entità nello spazio incorporato. |
Inferenza utilizzando i modelli importati
Con questo approccio, crei e addestri un modello al di fuori di
BigQuery, lo importi utilizzando la
istruzione CREATE MODEL
,
quindi esegui l'inferenza utilizzando la
funzione ML.PREDICT
.
Tutta l'elaborazione dell'inferenza avviene in BigQuery, utilizzando i dati di
BigQuery. I modelli importati possono eseguire l'apprendimento supervisionato o senza supervisione.
BigQuery ML supporta i seguenti tipi di modelli importati:
- Open Neural Network Exchange (ONNX) per i modelli addestrati in PyTorch, scikit-learn e altri framework di ML popolari.
- TensorFlow
- TensorFlow Lite
- XGBoost
Utilizza questo approccio per utilizzare modelli personalizzati sviluppati con una serie di framework di ML, sfruttando al contempo la velocità di inferenza e la co-localizzazione con i dati di BigQuery ML.
Per saperne di più, prova uno dei seguenti tutorial:
- Elaborare previsioni con i modelli TensorFlow importati
- Eseguire previsioni con i modelli scikit-learn in formato ONNX
- Eseguire previsioni con modelli PyTorch in formato ONNX
Interruzione utilizzando modelli remoti
Con questo approccio, puoi creare un riferimento a un modello ospitato in Vertex AI Prediction utilizzando l'istruzione CREATE MODEL
e poi eseguire l'inferenza utilizzando la funzione ML.PREDICT
.
Tutta l'elaborazione dell'inferenza avviene in Vertex AI, utilizzando i dati di
BigQuery. I modelli remoti possono eseguire apprendimento supervisionato o
non supervisionato.
Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono il supporto hardware GPU fornito da Vertex AI. Se la maggior parte dei tuoi modelli è ospitata da Vertex AI, puoi anche eseguire l'inferenza su questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per trasferire i dati a Vertex AI e riportare i risultati di previsione in BigQuery.
Per istruzioni dettagliate, consulta Eseguire previsioni con modelli remoti su Vertex AI.
Interruzione batch con i modelli BigQuery in Vertex AI
BigQuery ML supporta la previsione batch integrata, senza dover utilizzare Vertex AI. È anche possibile registrare un
modello BigQuery ML in Model Registry per eseguire
una previsione batch in Vertex AI utilizzando una tabella
BigQuery come input. Tuttavia, questo può essere fatto solo utilizzando l'API Vertex AI e impostando InstanceConfig.instanceType
su object
.
Previsione online
La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per i casi d'uso su larga scala, come la previsione batch. Sebbene BigQuery ML offra risultati di inferenza a bassa latenza durante la gestione di piccoli dati di input, puoi ottenere una previsione online più rapida tramite l'integrazione senza interruzioni con Vertex AI.
Puoi gestire i modelli BigQuery ML all'interno dell'ambiente Vertex AI, eliminando la necessità di esportare i modelli da BigQuery ML prima di eseguirne il deployment come endpoint Vertex AI. Gestire i modelli in Vertex AI ti consente di accedere a tutte le funzionalità di MLOps di Vertex AI, nonché a funzionalità come Vertex AI Feature Store.
Inoltre, hai la flessibilità di esportare i modelli BigQuery ML in Cloud Storage per renderli disponibili su altre piattaforme di hosting dei modelli.
Passaggi successivi
- Per ulteriori informazioni sull'utilizzo dei modelli Vertex AI per generare testo e incorporamenti, consulta Panoramica dell'IA generativa.
- Per saperne di più sull'utilizzo delle API Cloud AI per eseguire attività di IA, consulta Panoramica delle applicazioni di IA.
- Per informazioni sui tipi di modelli e sulle funzioni SQL supportati per ogni tipo di deduzione, consulta il percorso dell'utente end-to-end per ogni modello.