Questa pagina spiega l'integrazione di TensorFlow di Vertex AI e fornisce risorse che mostrano come utilizzare TensorFlow su Vertex AI. L'integrazione di TensorFlow di Vertex AI semplifica l'addestramento, il deployment e l'orchestrazione dei modelli TensorFlow in produzione.
Eseguire il codice nei notebook
Vertex AI offre due opzioni per l'esecuzione del codice nei notebook: Colab Enterprise e Vertex AI Workbench. Per scoprire di più su queste opzioni, consulta Scegliere una soluzione per i notebook.
Container predefiniti per l'addestramento
Vertex AI fornisce immagini container Docker predefinite per l'addestramento del modello. Questi container sono organizzati per framework di machine learning e versioni del framework e includono dipendenze comuni che potresti voler utilizzare nel codice di addestramento.
Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Addestramento distribuito
Puoi eseguire l'addestramento distribuito dei modelli TensorFlow su Vertex AI. Per l'addestramento multi-worker, puoi utilizzare Reduction Server per ottimizzare ulteriormente il rendimento per tutte le operazioni collettive di riduzione. Per saperne di più sull'addestramento distribuito su Vertex AI, consulta Addestramento distribuito.
Container predefiniti per l'inferenza
Analogamente ai container predefiniti per l'addestramento, Vertex AI fornisce immagini container predefinite per fornire inferenze e spiegazioni da modelli TensorFlow creati all'interno o all'esterno di Vertex AI. Queste immagini forniscono server di inferenza HTTP che puoi utilizzare per fornire inferenze con una configurazione minima.
Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Runtime TensorFlow ottimizzato
Il runtime TensorFlow ottimizzato utilizza ottimizzazioni del modello e nuove tecnologie proprietarie di Google per migliorare la velocità e ridurre il costo delle inferenze rispetto ai container di inferenza predefiniti standard di Vertex AI per TensorFlow.
Integrazione di TensorFlow Cloud Profiler
Addestra i modelli in modo più economico e veloce monitorando e ottimizzando le prestazioni del job di addestramento utilizzando l'integrazione di TensorFlow Cloud Profiler di Vertex AI. TensorFlow Cloud Profiler ti aiuta a comprendere il consumo di risorse delle operazioni di addestramento, in modo da poter identificare ed eliminare i colli di bottiglia delle prestazioni.
Per saperne di più su Vertex AI TensorFlow Cloud Profiler, consulta Profilare le prestazioni di addestramento del modello utilizzando Profiler.
Risorse per l'utilizzo di TensorFlow su Vertex AI
Per scoprire di più e iniziare a utilizzare TensorFlow in Vertex AI, consulta le seguenti risorse.
Prototype to Production: una serie di video che fornisce un esempio end-to-end di sviluppo e deployment di un modello TensorFlow personalizzato su Vertex AI.
Ottimizza le prestazioni dell'addestramento con Reduction Server su Vertex AI: Un post del blog sull'ottimizzazione dell'addestramento distribuito su Vertex AI utilizzando Reduction Server.
Come ottimizzare le prestazioni dell'addestramento con TensorFlow Cloud Profiler su Vertex AI: un post del blog che mostra come identificare i colli di bottiglia delle prestazioni nel job di addestramento utilizzando Vertex AI TensorFlow Cloud Profiler.
Previsione batch del modello personalizzato con filtro delle funzionalità: un tutorial del blocco note che mostra come utilizzare l'SDK Vertex AI per Python per addestrare un modello di classificazione tabulare personalizzato ed eseguire l'inferenza batch con il filtro delle funzionalità.
Vertex AI Pipelines: addestramento personalizzato con componenti della pipeline Google Cloud predefiniti: un tutorial sui notebook che mostra come utilizzare Vertex AI Pipelines con componenti della pipeline Google Cloud predefiniti per l'addestramento personalizzato.
Co-hosting di modelli TensorFlow sulla stessa VM per le previsioni: un codelab che mostra come utilizzare la funzionalità di co-hosting di modelli in Vertex AI per ospitare più modelli sulla stessa VM per le inferenze online.