Integrasi TensorFlow

Halaman ini menjelaskan integrasi TensorFlow Vertex AI dan menyediakan referensi yang menunjukkan cara menggunakan TensorFlow di Vertex AI. Integrasi TensorFlow Vertex AI memudahkan Anda melatih, men-deploy, dan mengorkestrasi model TensorFlow dalam produksi.

Menjalankan kode di notebook

Vertex AI menyediakan dua opsi untuk menjalankan kode Anda di notebook, yaitu Colab Enterprise dan Vertex AI Workbench. Untuk mempelajari lebih lanjut opsi ini, lihat memilih solusi notebook.

Container bawaan untuk pelatihan

Vertex AI menyediakan image container Docker bawaan untuk pelatihan model. Container ini diatur menurut framework machine learning dan versi framework serta menyertakan dependensi umum yang mungkin ingin Anda gunakan dalam kode pelatihan.

Untuk mempelajari versi TensorFlow mana yang memiliki container pelatihan bawaan dan cara melatih model dengan container pelatihan bawaan, lihat Container bawaan untuk pelatihan kustom.

Pelatihan terdistribusi

Anda dapat menjalankan pelatihan model TensorFlow terdistribusi di Vertex AI. Untuk pelatihan multi-pekerja, Anda dapat menggunakan Reduction Server untuk mengoptimalkan performa lebih baik lagi untuk operasi kolektif dengan pengurangan penuh. Untuk mempelajari pelatihan terdistribusi di Vertex AI lebih lanjut, lihat Pelatihan terdistribusi.

Container bawaan untuk inferensi

Mirip dengan container bawaan untuk pelatihan, Vertex AI menyediakan image container bawaan untuk menyajikan inferensi dan penjelasan dari model TensorFlow yang Anda buat di dalam atau di luar Vertex AI. Image ini menyediakan server inferensi HTTP yang dapat Anda gunakan untuk menyajikan inferensi dengan sedikit konfigurasi.

Untuk mempelajari versi TensorFlow mana yang memiliki container pelatihan bawaan dan cara melatih model dengan container pelatihan bawaan, lihat Container bawaan untuk pelatihan kustom.

Runtime TensorFlow yang dioptimalkan

Runtime TensorFlow yang dioptimalkan menggunakan pengoptimalan model dan teknologi eksklusif Google yang baru untuk meningkatkan kecepatan dan menurunkan biaya inferensi dibandingkan dengan container inferensi bawaan standar Vertex AI untuk TensorFlow.

Integrasi TensorFlow Cloud Profiler

Latih model lebih murah dan lebih cepat dengan memantau dan mengoptimalkan performa tugas pelatihan Anda menggunakan integrasi TensorFlow Cloud Profiler Vertex AI. TensorFlow Cloud Profiler membantu Anda memahami penggunaan resource operasi pelatihan sehingga Anda dapat mengidentifikasi dan menghilangkan hambatan performa.

Untuk mempelajari Vertex AI TensorFlow Cloud Profiler lebih lanjut, lihat Membuat profil performa pelatihan model menggunakan Profiler.

Resource untuk menggunakan TensorFlow di Vertex AI

Untuk mempelajari lebih lanjut dan mulai menggunakan TensorFlow di Vertex AI, lihat referensi berikut.