Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Bagian ini menjelaskan layanan Vertex AI yang membantu Anda menerapkan
Operasi machine learning (MLOps) dengan alur kerja machine learning (ML) Anda.
Setelah di-deploy, model tersebut harus mengikuti perubahan data dari lingkungan agar dapat berperforma optimal dan tetap relevan. MLOps adalah serangkaian praktik yang meningkatkan stabilitas dan keandalan sistem ML Anda.
Alat Vertex AI MLOps membantu Anda berkolaborasi di seluruh tim AI dan meningkatkan
model melalui pemantauan model prediktif, pemberitahuan, diagnosis, dan penjelasan
yang dapat ditindaklanjuti. Semua alat ini bersifat modular, sehingga Anda dapat mengintegrasikannya ke dalam
sistem yang ada sesuai kebutuhan.
Mengorkestrasi alur kerja: Melatih dan menyajikan model secara manual dapat memakan waktu dan rentan error, terutama jika Anda perlu mengulangi proses ini berkali-kali.
Vertex AI Pipelines membantu Anda mengotomatiskan, memantau, dan mengatur
alur kerja ML Anda.
Melacak metadata yang digunakan dalam sistem ML: Dalam data science, penting untuk melacak parameter, artefak, dan metrik yang digunakan dalam alur kerja ML Anda, terutama saat Anda mengulangi alur kerja tersebut berulang kali.
Vertex ML Metadata memungkinkan Anda merekam metadata,
parameter, dan artefak yang digunakan dalam sistem ML Anda. Selanjutnya, Anda dapat membuat kueri metadata tersebut untuk membantu menganalisis, men-debug, dan mengaudit performa sistem ML Anda atau artefak yang dihasilkannya.
Identifikasi model terbaik untuk kasus penggunaan: Saat mencoba algoritma pelatihan baru, Anda perlu mengetahui model terlatih mana yang memiliki performa terbaik.
Vertex AI Experiments memungkinkan Anda melacak dan menganalisis
berbagai arsitektur model, hyper-parameter, dan lingkungan pelatihan
untuk mengidentifikasi model terbaik untuk kasus penggunaan Anda.
Vertex AI TensorBoard membantu Anda melacak, memvisualisasikan, dan
membandingkan eksperimen ML untuk mengukur performa model Anda.
Mengelola versi model: Menambahkan model ke repositori pusat membantu Anda memantau versi model.
Vertex AI Model Registry memberikan ringkasan model
sehingga Anda dapat mengatur, melacak, dan melatih versi baru dengan lebih baik. Dari Model Registry, Anda dapat mengevaluasi model, men-deploy model ke endpoint, membuat inferensi batch, serta melihat detail tentang model dan versi model tertentu.
Mengelola fitur: Saat menggunakan kembali fitur ML di beberapa tim, Anda memerlukan cara yang cepat dan efisien untuk membagikan dan menayangkan fitur.
Vertex AI Feature Store menyediakan repositori terpusat
untuk mengatur, menyimpan, dan menyalurkan fitur ML. Dengan menggunakan fitur ML, organisasi dapat menggunakan kembali fitur ML dalam skala besar dan meningkatkan kecepatan pengembangan serta deployment aplikasi ML baru.
Memantau kualitas model: Model yang di-deploy dalam produksi memiliki performa terbaik pada data input inferensi yang mirip dengan data pelatihan. Saat data input menyimpang dari data yang digunakan untuk melatih model, performa model dapat menurun, meskipun model itu sendiri belum berubah.
Vertex AI Model Monitoring memantau model untuk
mencari diferensiasi performa pelatihan dan penayangan serta penyimpangan inferensi, lalu mengirimi Anda pemberitahuan saat
data inferensi yang masuk menyimpang terlalu jauh dari dasar pengukuran pelatihan. Anda dapat menggunakan pemberitahuan dan distribusi fitur untuk mengevaluasi apakah Anda perlu melatih ulang model.
Menskalakan aplikasi AI dan Python: Ray adalah framework open source untuk menskalakan aplikasi AI dan Python. Ray menyediakan infrastruktur untuk melakukan komputasi terdistribusi dan pemrosesan paralel untuk alur kerja machine learning (ML) Anda.
Ray di Vertex AI dirancang agar Anda dapat menggunakan
kode Ray open source yang sama untuk menulis program dan mengembangkan aplikasi
di Vertex AI dengan sedikit perubahan. Selanjutnya, Anda dapat menggunakan integrasi Vertex AI dengan layanan Google Cloud lain seperti Inferensi Vertex AI dan BigQuery sebagai bagian dari alur kerja machine learning (ML) Anda.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-19 UTC."],[],[],null,["# MLOps on Vertex AI\n\nThis section describes Vertex AI services that help you implement\n*Machine learning operations (MLOps)* with your machine learning (ML) workflow.\n\nAfter your models are deployed, they must keep up with changing data from the\nenvironment to perform optimally and stay relevant. MLOps is a set of practices\nthat improves the stability and reliability of your ML systems.\n\nVertex AI MLOps tools help you collaborate across AI teams and improve your\nmodels through predictive model monitoring, alerting, diagnosis, and actionable\nexplanations. All the tools are modular, so you can integrate them into your\nexisting systems as needed.\n\nFor more information about MLOps, see [Continuous delivery and automation\npipelines in machine learning](/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning) and the [Practitioners Guide to MLOps](https://services.google.com/fh/files/misc/practitioners_guide_to_mlops_whitepaper.pdf).\n\n- **Orchestrate workflows**: Manually training and serving your models\n can be time-consuming and error-prone, especially if you need to repeat the\n processes many times.\n\n - [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) helps you automate, monitor, and govern your ML workflows.\n- **Track the metadata used in your ML system**: In data science, it's\n important to track the parameters, artifacts, and metrics used in your ML\n workflow, especially when you repeat the workflow multiple times.\n\n - [Vertex ML Metadata](/vertex-ai/docs/ml-metadata/introduction) lets you record the metadata, parameters, and artifacts that are used in your ML system. You can then query that metadata to help analyze, debug, and audit the performance of your ML system or the artifacts that it produces.\n- **Identify the best model for a use case**: When you try new training algorithms,\n you need to know which trained model performs the best.\n\n - [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) lets you track and analyze\n different model architectures, hyper-parameters, and training environments\n to identify the best model for your use case.\n\n - [Vertex AI TensorBoard](/vertex-ai/docs/experiments/tensorboard-introduction) helps you track, visualize, and\n compare ML experiments to measure how well your models perform.\n\n- **Manage model versions**: Adding models to a central repository helps you\n keep track of model versions.\n\n - [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) provides an overview of your models so you can better organize, track, and train new versions. From Model Registry, you can evaluate models, deploy models to an endpoint, create batch inferences, and view details about specific models and model versions.\n- **Manage features**: When you re-use ML features across multiple teams, you\n need a quick and efficient way to share and serve the features.\n\n - [Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview) provides a centralized repository for organizing, storing, and serving ML features. Using a central featurestore enables an organization to re-use ML features at scale and increase the velocity of developing and deploying new ML applications.\n- **Monitor model quality**: A model deployed in production performs best on\n inference input data that is similar to the training data. When the input\n data deviates from the data used to train the model, the model's performance\n can deteriorate, even if the model itself hasn't changed.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline. You can use the alerts and feature distributions to evaluate whether you need to retrain your model.\n- **Scale AI and Python applications** : [Ray](https://docs.ray.io/en/latest/ray-overview/index.html) is an open-source framework for scaling AI and Python applications. Ray provides the infrastructure to perform distributed computing and parallel processing for your machine learning (ML) workflow.\n\n - [Ray on Vertex AI](/vertex-ai/docs/open-source/ray-on-vertex-ai/overview) is designed so you can use the same open source Ray code to write programs and develop applications on Vertex AI with minimal changes. You can then use Vertex AI's integrations with other Google Cloud services such as [Vertex AI Inference](/vertex-ai/pricing#prediction-prices) and [BigQuery](/bigquery/docs/introduction) as part of your machine learning (ML) workflow.\n\nWhat's next\n-----------\n\n- [Vertex AI interfaces](/vertex-ai/docs/start/introduction-interfaces)"]]