Halaman ini menunjukkan cara mendapatkan inferensi batch dari model terlatih kustom menggunakan konsol Google Cloud atau Vertex AI API.
Untuk membuat permintaan inferensi batch, tentukan sumber input dan lokasi output, baik Cloud Storage maupun BigQuery, tempat Vertex AI menyimpan hasil inferensi batch.
Batasan dan persyaratan
Pertimbangkan batasan dan persyaratan berikut saat mendapatkan inferensi batch:
- Untuk meminimalkan waktu pemrosesan, lokasi input dan output Anda harus berada di region atau multi-region yang sama. Misalnya, jika input Anda dalam
us-central1
, output Anda dapat dalamus-central1
atauUS
, tetapi tidak dalameurope-west4
. Untuk mempelajari lebih lanjut, lihat lokasi Cloud Storage dan lokasi BigQuery. - Input dan output Anda juga harus berada di region atau multi-region yang sama dengan model Anda.
- Model BigQuery ML bukan model yang dilatih secara kustom. Namun, informasi di halaman ini dapat digunakan untuk mendapatkan inferensi batch dari model BigQuery ML dengan kondisi berikut:
- Model BigQuery ML harus didaftarkan ke Vertex AI Model Registry.
- Untuk menggunakan tabel BigQuery sebagai input, Anda harus menetapkan
InstanceConfig.instanceType
ke"object"
menggunakan Vertex AI API.
- Model inferensi batch yang dimuat akan mengalami waktu tunggu habis setelah sekitar 40 menit.
Jika Anda melihat pesan error berikut, gunakan model yang lebih kecil untuk inferensi batch:
Error: model server never became ready. Please validate that your model file or container configuration are valid.
Persyaratan data input
Input untuk permintaan batch menentukan item yang akan dikirim ke model Anda untuk inferensi. Kami mendukung format input berikut:
JSON Lines
Gunakan file JSON Lines untuk menentukan daftar instance input yang akan digunakan untuk membuat inferensi. Simpan file di bucket Cloud Storage.
Contoh 1
Contoh berikut menunjukkan file JSON Lines yang setiap barisnya berisi array:
[1, 2, 3, 4]
[5, 6, 7, 8]
Berikut adalah hal-hal yang dikirim ke penampung di isi permintaan HTTP:
Semua container lainnya
{"instances": [ [1, 2, 3, 4], [5, 6, 7, 8] ]}
Container PyTorch
{"instances": [ { "data": [1, 2, 3, 4] }, { "data": [5, 6, 7, 8] } ]}
Contoh 2
Contoh berikut menunjukkan file JSON Lines yang setiap barisnya berisi sebuah objek.
{ "values": [1, 2, 3, 4], "key": 1 }
{ "values": [5, 6, 7, 8], "key": 2 }
Berikut adalah hal-hal yang dikirim ke penampung di isi permintaan HTTP. Perhatikan bahwa isi permintaan yang sama dikirim ke semua container.
{"instances": [
{ "values": [1, 2, 3, 4], "key": 1 },
{ "values": [5, 6, 7, 8], "key": 2 }
]}
Contoh 3
Untuk container bawaan PyTorch, pastikan Anda menggabungkan setiap instance dalam
kolom data
seperti yang disyaratkan oleh pengendali default TorchServe; Vertex AI
tidak akan menggabungkan instance untuk Anda. Contoh:
{ "data": { "values": [1, 2, 3, 4], "key": 1 } }
{ "data": { "values": [5, 6, 7, 8], "key": 2 } }
Berikut adalah hal-hal yang dikirim ke container inferensi di isi permintaan HTTP:
{"instances": [
{ "data": { "values": [1, 2, 3, 4], "key": 1 } },
{ "data": { "values": [5, 6, 7, 8], "key": 2 } }
]}
TFRecord
Simpan instance input dalam format TFRecord. Anda dapat memilih untuk mengompresi file TFRecord dengan Gzip. Simpan file TFRecord dalam bucket Cloud Storage.
Vertex AI membaca setiap instance dalam file TFRecord Anda sebagai biner
lalu mengenkode base64 instance sebagai objek JSON dengan satu kunci bernama
b64
.
Berikut adalah hal-hal yang dikirim ke penampung di isi permintaan HTTP:
Semua container lainnya
{"instances": [ { "b64": "b64EncodedASCIIString" }, { "b64": "b64EncodedASCIIString" } ]}
Container PyTorch
{"instances": [ { "data": {"b64": "b64EncodedASCIIString" } }, { "data": {"b64": "b64EncodedASCIIString" } } ]}
Pastikan container Anda mengetahui cara men-dekode instance.
CSV
Tentukan satu instance input per baris dalam file CSV. Baris pertama harus berupa baris header. Anda harus memasukkan semua string dengan tanda kutip ganda ("). Vertex AI tidak menerima nilai sel yang berisi newline. Nilai yang tidak dikutip dibaca sebagai bilangan floating point.
Contoh berikut menunjukkan file CSV dengan dua instance input:
"input1","input2","input3"
0.1,1.2,"cat1"
4.0,5.0,"cat2"
Berikut adalah hal-hal yang dikirim ke penampung di isi permintaan HTTP:
Semua container lainnya
{"instances": [ [0.1,1.2,"cat1"], [4.0,5.0,"cat2"] ]}
Container PyTorch
{"instances": [ { "data": [0.1,1.2,"cat1"] }, { "data": [4.0,5.0,"cat2"] } ]}
Daftar file
Buat file teks dengan setiap baris berupa Cloud Storage URI ke file. Vertex AI membaca konten setiap file sebagai biner, lalu
mengenkode base64 instance sebagai objek JSON dengan satu kunci bernama b64
.
Jika Anda berencana menggunakan konsol Google Cloud untuk mendapatkan inferensi batch, tempelkan daftar file Anda langsung ke konsol Google Cloud . Jika tidak, simpan daftar di bucket Cloud Storage.
Contoh berikut menampilkan daftar file dengan dua instance input:
gs://path/to/image/image1.jpg
gs://path/to/image/image2.jpg
Berikut adalah hal-hal yang dikirim ke penampung di isi permintaan HTTP:
Semua container lainnya
{ "instances": [ { "b64": "b64EncodedASCIIString" }, { "b64": "b64EncodedASCIIString" } ]}
Container PyTorch
{ "instances": [ { "data": { "b64": "b64EncodedASCIIString" } }, { "data": { "b64": "b64EncodedASCIIString" } } ]}
Pastikan container Anda mengetahui cara men-dekode instance.
BigQuery
Tentukan tabel BigQuery sebagai projectId.datasetId.tableId
.
Vertex AI mengubah setiap baris dari tabel ke
instance JSON.
Misalnya, jika tabel Anda berisi data berikut:
Kolom 1 | Kolom 2 | Kolom 3 |
---|---|---|
1.0 | 3.0 | "Cat1" |
2.0 | 4.0 | "Cat2" |
Berikut adalah hal-hal yang dikirim ke penampung di isi permintaan HTTP:
Semua container lainnya
{"instances": [ [1.0,3.0,"cat1"], [2.0,4.0,"cat2"] ]}
Container PyTorch
{"instances": [ { "data": [1.0,3.0,"cat1"] }, { "data": [2.0,4.0,"cat2"] } ]}
Berikut cara jenis data BigQuery dikonversi ke JSON:
Jenis BigQuery | Jenis JSON | Nilai contoh |
---|---|---|
String | String | "abc" |
Bilangan Bulat | Bilangan Bulat | 1 |
Float | Float | 1,2 |
Angka | Float | 4925.000000000 |
Boolean | Boolean | benar |
TimeStamp | String | "2019-01-01 23:59:59.999999+00:00" |
Tanggal | String | "2018-12-31" |
Waktu | String | "23:59:59.999999" |
DateTime | String | "2019-01-01T00:00:00" |
Record | Objek | { "A": 1,"B": 2} |
Jenis Berulang | Array[Type] | [1, 2] |
Kumpulan Data Bertingkat | Objek | {"A": {"a": 0}, "B": 1} |
Data partisi
Inferensi batch menggunakan MapReduce untuk membagi input ke setiap replika. Untuk memanfaatkan fitur MapReduce, input harus dapat dipartisi.
Vertex AI secara otomatis mempartisi input BigQuery, daftar file, dan baris JSON.
Vertex AI tidak otomatis mempartisi file CSV karena file tersebut tidak secara alami cocok untuk dipartisi. Baris dalam file CSV tidak menjelaskan sendiri, diketik, dan mungkin berisi baris baru. Sebaiknya jangan gunakan input CSV untuk aplikasi yang sensitif terhadap throughput.
Untuk input TFRecord, pastikan Anda mempartisi data secara manual dengan membagi instance menjadi file yang lebih kecil dan meneruskan file ke tugas dengan karakter pengganti (misalnya, gs://my-bucket/*.tfrecord
). Jumlah file harus minimal sama dengan jumlah replika yang ditentukan.
Memfilter dan mengubah data input
Anda dapat memfilter dan mengubah input batch dengan menentukan
instanceConfig
dalam permintaan
BatchPredictionJob
.
Pemfilteran memungkinkan Anda mengecualikan kolom tertentu yang ada dalam data input dari permintaan inferensi Anda, atau menyertakan hanya subset kolom dari data input dalam permintaan inferensi Anda, tanpa harus melakukan pra-pemrosesan atau pasca-pemrosesan khusus di container inferensi. Hal ini berguna saat file data input Anda memiliki kolom tambahan yang tidak diperlukan model, seperti kunci atau data tambahan.
Mentransformasi memungkinkan Anda mengirim instance ke container dalam format JSON array
atau object
. Lihat instanceType
untuk mengetahui informasi selengkapnya.
Misalnya, jika tabel input Anda berisi data berikut:
customerId | col1 | col2 |
---|---|---|
1001 | 1 | 2 |
1002 | 5 | 6 |
dan tentukan instanceConfig
berikut:
{
"name": "batchJob1",
...
"instanceConfig": {
"excludedFields":["customerId"]
"instanceType":"object"
}
}
Selanjutnya, instance dalam permintaan inferensi Anda akan dikirim sebagai objek JSON, dan kolom customerId
dikecualikan:
{"col1":1,"col2":2}
{"col1":5,"col2":6}
Perhatikan bahwa menentukan instanceConfig
berikut akan memberikan hasil yang sama:
{
"name": "batchJob1",
...
"instanceConfig": {
"includedFields": ["col1","col2"]
"instanceType":"object"
}
}
Untuk demonstrasi tentang cara menggunakan filter fitur, lihat notebook Inferensi batch model kustom dengan pemfilteran fitur.
Meminta inferensi batch
Untuk permintaan inferensi batch, Anda dapat menggunakan konsol Google Cloud atau Vertex AI API. Bergantung pada jumlah item input yang Anda kirimkan, tugas inferensi batch dapat memerlukan waktu beberapa saat untuk diselesaikan.
Saat Anda meminta inferensi batch, container inferensi akan berjalan sebagai akun layanan kustom yang disediakan pengguna. Operasi baca-tulis, seperti membaca instance inferensi dari sumber data atau menulis hasil inferensi, dilakukan menggunakan agen layanan Vertex AI, yang secara default memiliki akses ke BigQuery dan Cloud Storage.
Google Cloud console
Gunakan konsol Google Cloud untuk meminta inferensi batch.
- Di konsol Google Cloud , di bagian Vertex AI, buka halaman Batch predictions.
Klik Create untuk membuka jendela New batch prediction.
Di bagian Define your batch prediction, selesaikan langkah-langkah berikut:
Masukkan nama untuk inferensi batch.
Untuk Model name, pilih nama model yang akan digunakan untuk inferensi batch ini.
Untuk Pilih sumber, pilih sumber yang berlaku untuk data input Anda:
- Jika Anda telah memformat input sebagai JSON Line, CSV, atau TFRecord, pilih File on Cloud Storage (JSON Lines, CSV, TFRecord, TFRecord Gzip). Selanjutnya, tentukan file input Anda di kolom Source path.
- Jika Anda menggunakan daftar file sebagai input, pilih Files on Cloud Storage (other) dan tempel daftar file Anda ke kolom berikut.
- Untuk input BigQuery, pilih BigQuery path. Jika memilih BigQuery sebagai input, Anda juga harus memilih BigQuery sebagai output dan Google-managed encryption key. Kunci enkripsi yang dikelola pelanggan (CMEK) tidak didukung dengan BigQuery sebagai input/output.
Di kolom Destination path, tentukan direktori Cloud Storage tempat Anda ingin Vertex AI menyimpan output inferensi batch.
Secara opsional, Anda dapat mencentang Aktifkan atribusi fitur untuk model ini untuk mendapatkan atribusi fitur sebagai bagian dari respons inferensi batch. Kemudian, klik Edit untuk mengonfigurasi setelan penjelasan. (Mengedit setelan penjelasan bersifat opsional jika Anda sebelumnya mengonfigurasi setelan penjelasan untuk model, dan jika tidak diwajibkan.)
Tentukan opsi komputasi untuk tugas inferensi batch: Jumlah node komputasi, Jenis mesin, dan (opsional) Jenis akselerator dan Jumlah akselerator.
Opsional: Pemantauan Model analisis untuk inferensi batch tersedia di Pratinjau. Lihat Prasyarat untuk menambahkan konfigurasi deteksi skew ke tugas inferensi batch Anda.
Klik untuk mengaktifkan opsi Aktifkan pemantauan model untuk prediksi batch ini.
Pilih Sumber data pelatihan. Masukkan jalur data atau lokasi untuk sumber data pelatihan yang Anda pilih.
Opsional: Di bagian Nilai minimum pemberitahuan, tentukan nilai minimum untuk memicu pemberitahuan.
Di bagian Email notifikasi, masukkan satu atau beberapa alamat email yang dipisahkan koma, yang akan menerima pemberitahuan saat model melebihi nilai minimum pemberitahuan.
Opsional: Untuk Notification channels, tambahkan saluran Cloud Monitoring untuk menerima pemberitahuan saat model melebihi nilai minimum pemberitahuan. Anda dapat memilih saluran Cloud Monitoring yang sudah ada atau membuat yang baru dengan mengklik Manage notifikasi channels. Konsol Google Cloud mendukung saluran notifikasi PagerDuty, Slack, dan Pub/Sub.
Klik Buat.
API
Gunakan Vertex AI API untuk mengirim permintaan inferensi batch. Pilih tab bergantung pada alat yang Anda gunakan untuk mendapatkan inferensi batch.
REST
Sebelum menggunakan data permintaan apa pun, lakukan penggantian berikut:
LOCATION_ID: Region tempat Model disimpan dan tugas prediksi batch dijalankan. Misalnya,
us-central1
.PROJECT_ID: Project ID Anda.
BATCH_JOB_NAME: Nama tampilan untuk tugas prediksi batch.
MODEL_ID: ID untuk model yang akan digunakan untuk membuat prediksi.
INPUT_FORMAT: Format data input:
jsonl
,csv
,tf-record
,tf-record-gzip
, ataufile-list
.INPUT_URI: Cloud Storage URI data input Anda. Dapat berisi karakter pengganti.
OUTPUT_DIRECTORY: Cloud Storage URI dari direktori tempat Anda ingin Vertex AI menyimpan output.
MACHINE_TYPE: Resource mesin yang akan digunakan untuk tugas prediksi batch ini.
Anda dapat memilih untuk mengonfigurasi kolom
machineSpec
untuk menggunakan akselerator, tetapi contoh berikut tidak menunjukkan hal ini.BATCH_SIZE: Jumlah instance yang akan dikirim dalam setiap permintaan prediksi; default-nya adalah 64. Meningkatkan ukuran tumpukan dapat menyebabkan throughput yang lebih tinggi, tetapi juga dapat menyebabkan waktu tunggu permintaan habis.
STARTING_REPLICA_COUNT: Jumlah node untuk tugas prediksi batch ini.
Metode HTTP dan URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Isi JSON permintaan:
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT_ID/locations/LOCATION_ID/models/MODEL_ID", "inputConfig": { "instancesFormat": "INPUT_FORMAT", "gcsSource": { "uris": ["INPUT_URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_DIRECTORY", }, }, "dedicatedResources" : { "machineSpec" : { "machineType": MACHINE_TYPE }, "startingReplicaCount": STARTING_REPLICA_COUNT }, "manualBatchTuningParameters": { "batch_size": BATCH_SIZE, } }
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Anda akan menerima respons JSON yang mirip dengan yang berikut ini:
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION_ID/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_ID/locations/LOCATION_ID/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "INPUT_URI" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_DIRECTORY" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", }
Java
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Java di panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Java Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Pada contoh berikut, ganti PREDICTIONS_FORMAT dengan jsonl
.
Untuk mempelajari cara mengganti placeholder lain, lihat tab REST & CMD LINE
di bagian ini.
Python
Untuk mempelajari cara menginstal atau mengupdate Vertex AI SDK untuk Python, lihat Menginstal Vertex AI SDK untuk Python. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Python.
BigQuery
Contoh REST sebelumnya menggunakan Cloud Storage untuk sumber dan tujuan. Untuk menggunakan BigQuery, lakukan perubahan berikut:
Ubah kolom
inputConfig
menjadi berikut:"inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "bq://SOURCE_PROJECT_ID.SOURCE_DATASET_NAME.SOURCE_TABLE_NAME" } }
Ubah kolom
outputConfig
menjadi berikut:"outputConfig": { "predictionsFormat":"bigquery", "bigqueryDestination":{ "outputUri": "bq://DESTINATION_PROJECT_ID.DESTINATION_DATASET_NAME.DESTINATION_TABLE_NAME" } }
Ganti kode berikut:
SOURCE_PROJECT_ID
: ID Google Cloud project sumberSOURCE_DATASET_NAME
: nama set data BigQuery sumberSOURCE_TABLE_NAME
: nama tabel sumber BigQueryDESTINATION_PROJECT_ID
: ID project tujuan Google CloudDESTINATION_DATASET_NAME
: nama set data BigQuery tujuanDESTINATION_TABLE_NAME
: nama tabel tujuan BigQuery
Tingkat kepentingan fitur
Jika ingin nilai kepentingan fitur ditampilkan untuk inferensi, tetapkan properti
generateExplanation
ke true
. Perhatikan bahwa model perkiraan tidak mendukung nilai penting fitur, sehingga Anda tidak dapat menyertakannya dalam permintaan inferensi batch.
Nilai penting fitur, yang terkadang disebut atribusi fitur, adalah bagian dari Vertex Explainable AI.
Anda hanya dapat menetapkan generateExplanation
ke true
jika Anda telah mengonfigurasi
Model
untuk penjelasan atau jika
Anda menentukan kolom explanationSpec
BatchPredictionJob
.
Pilih jenis mesin dan jumlah replika
Penskalaan horizontal dengan meningkatkan jumlah replika akan meningkatkan throughput secara lebih linear dan dapat diprediksi daripada menggunakan jenis mesin yang lebih besar.
Secara umum, sebaiknya tentukan jenis mesin terkecil yang memungkinkan untuk tugas Anda dan tingkatkan jumlah replika.
Agar biaya lebih efektif, sebaiknya pilih jumlah replika sehingga tugas inferensi batch Anda akan berjalan minimal selama 10 menit. Hal ini karena Anda ditagih per jam kerja node replika, yang mencakup waktu sekitar 5 menit yang diperlukan untuk memulai setiap replika. Biaya menjadi tidak efisien apabila memproses hanya selama beberapa detik untuk kemudian dimatikan.
Sebagai panduan umum, untuk ribuan instance, sebaiknya gunakan
starting_replica_count
dalam puluhan. Untuk jutaan instance, sebaiknya gunakan starting_replica_count
dalam ratusan. Anda juga dapat menggunakan
formula berikut untuk memperkirakan jumlah replika:
N / (T * (60 / Tb))
Dengan:
- N: Jumlah batch dalam tugas. Misalnya, 1 juta instance / 100 ukuran batch = 10.000 batch.
- T: Perkiraan waktu untuk tugas inferensi batch. Misalnya, 10 menit.
- Tb: Waktu dalam detik yang diperlukan replika untuk memproses satu batch. Misalnya, 1 detik per batch pada jenis mesin 2-core.
Dalam contoh ini, 10.000 batch / (10 menit * (60 / 1 dtk)) mengumpulkan hingga 17 replika.
Tidak seperti inferensi online, tugas inferensi batch tidak melakukan penskalaan otomatis. Karena semua data input diketahui di awal, sistem memartisi data ke setiap replika saat tugas dimulai. Sistem menggunakan parameter starting_replica_count
. Parameter max_replica_count
diabaikan.
Semua rekomendasi ini merupakan panduan perkiraan. Rekomendasi tersebut belum tentu memberikan throughput yang optimal untuk setiap model. Perkiraan ini tidak memberikan estimasi waktu dan biaya pemrosesan yang tepat. Selain itu, perkiraan tersebut belum tentu mencatat keuntungan biaya versus throughput terbaik untuk setiap skenario. Gunakan rekomendasi tersebut sebagai titik awal yang wajar dan sesuaikan seperlunya. Untuk mengukur karakteristik seperti throughput untuk model Anda, jalankan notebook Menemukan jenis mesin yang ideal.
Untuk mesin dengan akselerasi GPU atau TPU
Ikuti panduan sebelumnya (yang juga berlaku untuk model khusus CPU), dengan pertimbangan tambahan berikut:
- Anda mungkin memerlukan lebih banyak CPU dan GPU (misalnya, untuk pra-pemrosesan data).
- Jenis mesin GPU memerlukan waktu lebih lama untuk memulai (10 menit), jadi sebaiknya Anda menargetkan waktu yang lebih lama (misalnya, minimal 20 menit, bukan 10 menit) untuk tugas inferensi batch agar proporsi waktu dan biaya yang dihabiskan terasa wajar untuk menghasilkan inferensi.
Mengambil hasil inferensi batch
Setelah tugas inferensi batch selesai, output inferensi akan disimpan di bucket Cloud Storage atau lokasi BigQuery yang Anda tentukan dalam permintaan Anda.
Contoh hasil inferensi batch
Folder output berisi kumpulan file JSON Lines.
Nama filenya adalah
{gcs_path}/prediction.results-{file_number}-of-{number_of_files_generated}
.
Jumlah file tidak deterministik, karena sifat inferensi batch yang didistribusikan.
Setiap baris dalam file terkait dengan instance dari input dan memiliki key-value pair berikut:
prediction
: berisi nilai yang ditampilkan oleh container.instance
: Untuk daftar file, berisi Cloud Storage URI. Untuk semua format input lainnya, berisi nilai yang dikirim ke penampung dalam isi permintaan HTTP.
Contoh 1
Jika permintaan HTTP berisi:
{
"instances": [
[1, 2, 3, 4],
[5, 6, 7, 8]
]}
Dan container akan menampilkan:
{
"predictions": [
[0.1,0.9],
[0.7,0.3]
],
}
Kemudian, file output JSON Lines adalah:
{ "instance": [1, 2, 3, 4], "prediction": [0.1,0.9]}
{ "instance": [5, 6, 7, 8], "prediction": [0.7,0.3]}
Contoh 2
Jika permintaan HTTP berisi:
{
"instances": [
{"values": [1, 2, 3, 4], "key": 1},
{"values": [5, 6, 7, 8], "key": 2}
]}
Dan container akan menampilkan:
{
"predictions": [
{"result":1},
{"result":0}
],
}
Kemudian, file output JSON Lines adalah:
{ "instance": {"values": [1, 2, 3, 4], "key": 1}, "prediction": {"result":1}}
{ "instance": {"values": [5, 6, 7, 8], "key": 2}, "prediction": {"result":0}}
Menggunakan Explainable AI
Sebaiknya jangan jalankan penjelasan berbasis fitur pada data dalam jumlah besar. Hal ini karena setiap input berpotensi dipecah menjadi ribuan permintaan berdasarkan kumpulan nilai fitur yang mungkin akan menghasilkan peningkatan waktu dan biaya pemrosesan secara besar-besaran. Secara umum, set data kecil sudah cukup untuk memahami kepentingan fitur.
Inferensi batch tidak mendukung penjelasan berbasis contoh.
Notebook
Langkah berikutnya
- Pelajari Resource komputasi untuk inferensi.