Integrazione di TensorFlow

Questa pagina spiega l'integrazione di TensorFlow di Vertex AI e fornisce risorse che mostrano come utilizzare TensorFlow su Vertex AI. L'integrazione di TensorFlow di Vertex AI semplifica l'addestramento, il deployment e l'orchestrazione dei modelli TensorFlow in produzione.

Eseguire il codice nei notebook

Vertex AI offre due opzioni per l'esecuzione del codice nei notebook: Colab Enterprise e Vertex AI Workbench. Per scoprire di più su queste opzioni, consulta Scegliere una soluzione per i notebook.

Container predefiniti per l'addestramento

Vertex AI fornisce immagini container Docker predefinite per l'addestramento del modello. Questi container sono organizzati per framework di machine learning e versioni del framework e includono dipendenze comuni che potresti voler utilizzare nel codice di addestramento.

Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.

Addestramento distribuito

Puoi eseguire l'addestramento distribuito dei modelli TensorFlow su Vertex AI. Per l'addestramento multi-worker, puoi utilizzare Reduction Server per ottimizzare ulteriormente il rendimento per tutte le operazioni collettive di riduzione. Per saperne di più sull'addestramento distribuito su Vertex AI, consulta Addestramento distribuito.

Container predefiniti per l'inferenza

Analogamente ai container predefiniti per l'addestramento, Vertex AI fornisce immagini container predefinite per fornire inferenze e spiegazioni da modelli TensorFlow creati all'interno o all'esterno di Vertex AI. Queste immagini forniscono server di inferenza HTTP che puoi utilizzare per fornire inferenze con una configurazione minima.

Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.

Runtime TensorFlow ottimizzato

Il runtime TensorFlow ottimizzato utilizza ottimizzazioni del modello e nuove tecnologie proprietarie di Google per migliorare la velocità e ridurre il costo delle inferenze rispetto ai container di inferenza predefiniti standard di Vertex AI per TensorFlow.

Integrazione di TensorFlow Cloud Profiler

Addestra i modelli in modo più economico e veloce monitorando e ottimizzando le prestazioni del job di addestramento utilizzando l'integrazione di TensorFlow Cloud Profiler di Vertex AI. TensorFlow Cloud Profiler ti aiuta a comprendere il consumo di risorse delle operazioni di addestramento, in modo da poter identificare ed eliminare i colli di bottiglia delle prestazioni.

Per saperne di più su Vertex AI TensorFlow Cloud Profiler, consulta Profilare le prestazioni di addestramento del modello utilizzando Profiler.

Risorse per l'utilizzo di TensorFlow su Vertex AI

Per scoprire di più e iniziare a utilizzare TensorFlow in Vertex AI, consulta le seguenti risorse.