Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Vertex AI menawarkan prediksi online di
Google Distributed Cloud (GDC) yang terisolasi melalui Online Prediction API. Prediksi adalah output dari model machine learning yang telah dilatih. Secara khusus,
prediksi online adalah permintaan sinkron yang dibuat ke endpoint model Anda.
Prediksi Online memungkinkan Anda mengupload, men-deploy, menyajikan, dan membuat permintaan menggunakan model prediksi Anda sendiri di sekumpulan container yang didukung.
Gunakan Prediksi Online saat membuat permintaan sebagai respons terhadap input aplikasi atau dalam situasi yang memerlukan inferensi tepat waktu.
Anda dapat menggunakan Online Prediction API dengan menerapkan resource kustom Kubernetes ke cluster prediksi khusus yang dibuat oleh Operator Infrastruktur (IO) untuk Anda.
Sebelum mendapatkan prediksi online, Anda harus
mengekspor artefak model
dan men-deploy model ke endpoint.
Tindakan ini mengaitkan resource komputasi dengan model untuk menyajikan prediksi online dengan latensi rendah.
Kemudian, Anda bisa mendapatkan prediksi online dari model yang dilatih secara khusus dengan
memformat
dan mengirim
permintaan.
Image container yang tersedia
Tabel berikut berisi daftar penampung yang didukung untuk Prediksi Online di Distributed Cloud:
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-07-16 UTC."],[[["Online Prediction is a Preview feature within Vertex AI on Google Distributed Cloud (GDC) air-gapped, designed for synchronous requests to trained machine-learning model endpoints, but not recommended for production environments."],["You can utilize Online Prediction to upload, deploy, serve, and request predictions from your own models using a set of specified containers."],["The Online Prediction API, accessed through Kubernetes custom resources, requires a dedicated prediction cluster set up by your Infrastructure Operator."],["Before using Online Prediction, you must export model artifacts and deploy the model to an endpoint, associating it with compute resources for low-latency predictions."],["Supported containers for Online Prediction in Distributed Cloud include TensorFlow (version 2.14 for both CPU and GPU) and PyTorch (version 2.1 for both CPU and GPU)."]]],[]]