Ray è un framework open source per la scalabilità delle applicazioni di AI e Python. Ray fornisce l'infrastruttura per eseguire calcoli distribuiti e elaborazione parallela per il tuo flusso di lavoro di machine learning (ML).
Se utilizzi già Ray, puoi utilizzare lo stesso codice open source di Ray per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri servizi Google Cloud come Vertex AI Prediction e BigQuery all'interno del tuo flusso di lavoro di machine learning.
Se utilizzi già Vertex AI e hai bisogno di un modo più semplice per gestire le risorse di calcolo, puoi utilizzare il codice Ray per scalare l'addestramento.
Flusso di lavoro per l'utilizzo di Ray su Vertex AI
Utilizza Colab Enterprise e l'SDK Vertex AI per Python per connetterti al cluster Ray.
Passaggi | Descrizione |
---|---|
1. Configurazione per Ray su Vertex AI | Configura il tuo progetto Google, installa la versione dell'SDK Vertex AI per Python che include la funzionalità del client Ray e configura una rete di peering VPC, che è facoltativa. |
2. Creare un cluster Ray su Vertex AI | Crea un cluster Ray su Vertex AI. È necessario il ruolo Amministratore di Vertex AI. |
3. Sviluppare un'applicazione Ray su Vertex AI | Connettiti a un cluster Ray su Vertex AI e sviluppa un'applicazione. È necessario il ruolo utente Vertex AI. |
4. (Facoltativo) Utilizza Ray su Vertex AI con BigQuery | Leggi, scrivi e trasforma i dati con BigQuery. |
5. (Facoltativo) Esegui il deployment di un modello su Vertex AI e ottieni le previsioni | Esegui il deployment di un modello in un endpoint online Vertex AI e ottieni le previsioni. |
6. Monitorare il cluster Ray su Vertex AI | Monitora i log generati in Cloud Logging e le metriche in Cloud Monitoring. |
7. Eliminare un cluster Ray su Vertex AI | Elimina un cluster Ray su Vertex AI per evitare una fatturazione non necessaria. |
Panoramica
I cluster Ray sono integrati per garantire la disponibilità della capacità per i workload di ML critici o durante le stagioni di picco. A differenza dei job personalizzati, in cui il servizio di addestramento rilascia la risorsa al termine del job, i cluster Ray rimangono disponibili fino all'eliminazione.
Nota: utilizza i cluster Ray a lungo termine in questi scenari:
- Se invii lo stesso job Ray più volte e puoi trarre vantaggio dalla memorizzazione nella cache di dati e immagini eseguendo i job sugli stessi cluster Ray a lungo termine.
- Se esegui molti job Ray di breve durata in cui il tempo di elaborazione effettivo è inferiore al tempo di avvio del job, potrebbe essere utile avere un cluster a lungo termine.
I cluster Ray su Vertex AI possono essere configurati con connettività pubblica o privata. I seguenti diagrammi mostrano l'architettura e il flusso di lavoro di Ray su Vertex AI. Per ulteriori informazioni, consulta Connettività pubblica o privata.
Architettura con connettività pubblica
Crea il cluster Ray su Vertex AI utilizzando le seguenti opzioni:
a. Utilizza la console Google Cloud per creare il cluster Ray su Vertex AI.
b. Crea il cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python.
Connettiti al cluster Ray su Vertex AI per lo sviluppo interattivo utilizzando le seguenti opzioni:
a. Utilizza Colab Enterprise nella console Google Cloud per una connessione senza problemi.
b. Utilizza qualsiasi ambiente Python accessibile alla rete internet pubblica.
Sviluppare l'applicazione e addestrare il modello sul cluster Ray su Vertex AI:
Utilizza l'SDK Vertex AI per Python nel tuo ambiente preferito (Colab Enterprise o qualsiasi notebook Python).
Scrivi uno script Python utilizzando l'ambiente che preferisci.
Invia un job Ray al cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python, la CLI Ray Job o l'API Ray Job Submission.
Esegui il deployment del modello addestrato in un endpoint Vertex AI online per la previsione in tempo reale.
Utilizza BigQuery per gestire i tuoi dati.
Architettura con VPC
Il seguente diagramma mostra l'architettura e il flusso di lavoro di Ray su Vertex AI dopo aver configurato il progetto Google Cloud e la rete VPC, che è facoltativa:
Configura (a) il progetto Google e (b) la rete VPC.
Crea il cluster Ray su Vertex AI utilizzando le seguenti opzioni:
a. Utilizza la console Google Cloud per creare il cluster Ray su Vertex AI.
b. Crea il cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python.
Connettiti al cluster Ray su Vertex AI tramite una rete con peering VPC utilizzando le seguenti opzioni:
Utilizza Colab Enterprise nella console Google Cloud.
Utilizza un blocco note Vertex AI Workbench.
Sviluppa l'applicazione e addestra il modello sul cluster Ray su Vertex AI utilizzando le seguenti opzioni:
Utilizza l'SDK Vertex AI per Python nell'ambiente che preferisci (Colab Enterprise o un notebook Vertex AI Workbench).
Scrivi uno script Python utilizzando l'ambiente che preferisci. Invia un job Ray al cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python, la CLI Ray Job o la dashboard Ray.
Esegui il deployment del modello addestrato in un endpoint Vertex AI online per le previsioni.
Utilizza BigQuery per gestire i tuoi dati.
Prezzi
I prezzi di Ray su Vertex AI vengono calcolati come segue:
Le risorse di calcolo utilizzate vengono addebitate in base alla configurazione della macchina selezionata quando crei il cluster Ray su Vertex AI. Per i prezzi di Ray su Vertex AI, consulta la pagina dei prezzi.
Per i cluster Ray, ti viene addebitato solo durante gli stati RUNNING e UPDATING. Non vengono addebitati altri stati. L'importo addebitato si basa sulle dimensioni effettive del cluster al momento.
Quando esegui attività utilizzando il cluster Ray su Vertex AI, i log vengono generati automaticamente e addebitati in base ai prezzi di Cloud Logging.
Se esegui il deployment del modello in un endpoint per le previsioni online, consulta la sezione "Previsione ed spiegazione" della pagina dei prezzi di Vertex AI.
Se utilizzi BigQuery con Ray su Vertex AI, consulta Prezzi di BigQuery.