Il costo dell'infrastruttura dipende dai seguenti fattori:
- Il numero di macchine che utilizzi. Puoi impostare i parametri associati durante l'addestramento del modello, l'inferenza batch o l'inferenza online.
- Il tipo di macchine che utilizzi. Puoi impostare questo parametro durante l'addestramento del modello, l'inferenza batch o l'inferenza online.
- Il periodo di tempo in cui le macchine sono in uso.
- Se addestri un modello o esegui inferenze batch, questa è una misura del tempo di elaborazione totale dell'operazione.
- Se esegui inferenze online, questa è una misura del tempo in cui il modello viene sottoposto a deployment in un endpoint.
Tabular Workflows esegue più servizi dipendenti nel tuo progetto per tuo conto: Dataflow, BigQuery, Cloud Storage, Vertex AI Pipelines, Vertex AI Training. Questi servizi ti addebitano direttamente i costi.
Esempi di calcolo del costo dell'addestramento
Esempio 1: set di dati di 110 MB in formato CSV, addestrato per un'ora con la configurazione hardware predefinita.
La suddivisione dei costi per il flusso di lavoro predefinito con la ricerca dell'architettura e l'addestramento è la seguente:
Servizio | Costo |
---|---|
Generazione di statistiche ed esempi di Dataflow | 2 $ (Dataflow è stato eseguito per 7 minuti) |
Trasformazioni di dati e funzionalità di Dataflow | 3 $ (Dataflow è stato eseguito per 10 minuti) |
Vertex AI Training | 0,8 ore x 20 $+ 0,2 ore x 20 $+ 3,3 $di costo SSD + costo del container della pipeline = 24 $ (48 minuti di ottimizzazione, 12 minuti di addestramento) |
Vertex AI Pipelines | 1 esecuzione x 0,03 $= 0,03 $ |
Totale escluso il modello di distillazione | 27,03$ |
Facoltativamente, puoi attivare la distillazione del modello per ridurre le dimensioni del modello risultante. La ripartizione dei costi è la seguente:
Servizio | Costo |
---|---|
Totale escluso distillazione del modello | 27,03 $ |
Vertex AI Training per la distillazione del modello | 1 $ |
Dati Dataflow, trasformazioni delle funzionalità per la distillazione del modello | 3 $ (Dataflow è stato eseguito per 10 minuti) |
Inferenza batch per la distillazione del modello | 7 $ |
Totale, inclusa la distillazione del modello | 38,03$ |
Esempio 2: set di dati di 1,84 TB in BigQuery, addestrato per 20 ore con override hardware.
La configurazione hardware per questo esempio è la seguente:
Nome configurazione hardware | Valore |
---|---|
stats_and_example_gen_dataflow_machine_type | n1-standard-16 |
stats_and_example_gen_dataflow_max_num_workers | 100 |
stats_and_example_gen_dataflow_disk_size_gb | 40 |
transform_dataflow_machine_type | n1-standard-16 |
transform_dataflow_max_num_workers | 100 |
transform_dataflow_disk_size_gb | 200 |
distill_batch_predict_machine_type | n1-standard-2 |
distill_batch_predict_starting_replica_count | 200 |
distill_batch_predict_max_replica_count | 200 |
La suddivisione dei costi per il flusso di lavoro predefinito con la ricerca dell'architettura e l'addestramento è la seguente:
Servizio | Costo |
---|---|
Generazione di statistiche ed esempi di Dataflow | 518 $ (Dataflow è stato eseguito per 6 ore) |
Dati Dataflow, trasformazioni delle funzionalità | 471 $ (Dataflow è stato eseguito per 6 ore) |
Vertex AI Training | 17 ore x 20 $+ 3 ore x 20 $+ 41,5 $di costo SSD + costo del container della pipeline = 555 $ (17 ore di ottimizzazione, 3 ore di addestramento) |
Vertex AI Pipelines | 1 esecuzione x 0,03 $= 0,03 $ |
Totale | $1544,03 |