-
kumpulan anotasi
- Kumpulan anotasi berisi label yang berkaitan dengan file sumber yang diupload dalam sebuah set data. Kumpulan anotasi berkaitan dengan jenis data dan tujuan (misalnya, video/klasifikasi).
-
Endpoint API
- Endpoint API adalah aspek konfigurasi layanan yang menentukan alamat jaringan, yang juga dikenal sebagai endpoint layanan (misalnya, aiplatform.googleapis.com).
-
Kredensial Default Aplikasi (ADC)
- Kredensial Default Aplikasi (ADC) menyediakan cara sederhana untuk mendapatkan kredensial otorisasi yang akan digunakan dalam memanggil Google API. Cara ini paling cocok untuk kasus saat panggilan harus memiliki identitas dan tingkat otorisasi yang sama untuk aplikasi, terlepas dari pengguna. Ini adalah pendekatan yang direkomendasikan untuk mengizinkan panggilan ke Google Cloud API, terutama saat Anda membangun aplikasi yang di-deploy ke mesin virtual Google App Engine (GAE) atau Compute Engine. Untuk mengetahui informasi selengkapnya, lihat Cara kerja Kredensial Default Aplikasi.
-
Approximate Nearest Neighbor (ANN)
- Layanan Approximate Nearest Neighbor (ANN) adalah solusi latensi rendah dan berskala tinggi untuk menemukan vektor serupa (atau lebih tepatnya, "embedding") untuk korpus berukuran besar. Untuk mengetahui informasi selengkapnya, lihat Cara menggunakan Vector Search untuk pencocokan semantik.
-
artefak
- Artefak adalah entity atau bagian data terpisah yang dihasilkan dan digunakan oleh alur kerja machine learning. Contoh artefak meliputi set data, model, file input, dan log pelatihan.
-
Artifact Registry
- Artifact Registry adalah layanan pengelolaan artefak universal. Layanan ini direkomendasikan untuk mengelola container dan artefak lain di Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Artifact Registry.
-
Kecerdasan Buatan (AI)
- Kecerdasan buatan (atau AI) adalah studi dan desain mesin yang tampak "cerdas", yang berarti mesin yang meniru fungsi intelektual atau manusia seperti gerakan mekanis, penalaran, atau pemecahan masalah. Salah satu subbidang AI yang paling populer adalah machine learning, yang menggunakan pendekatan statistik dan berbasis data untuk menciptakan AI. Namun, beberapa orang menggunakan kedua istilah ini secara bergantian.
-
autentikasi
- Proses memverifikasi identitas klien (yang mungkin berupa pengguna atau proses lain) untuk mendapatkan akses ke sistem yang aman. Klien yang telah membuktikan identitasnya dikatakan telah diautentikasi. Untuk mengetahui informasi selengkapnya, lihat Metode autentikasi di Google.
-
Automatic side-by-side (AutoSxS)
- Automatic side-by-side (AutoSxS) adalah alat evaluasi yang dibantu model yang membandingkan dua model bahasa besar (LLM) secara berdampingan. Layanan ini dapat digunakan untuk mengevaluasi performa model AI generatif di Vertex AI Model Registry atau inferensi yang telah dibuat sebelumnya. AutoSxS menggunakan autorater untuk memutuskan model mana yang memberikan respons yang lebih baik terhadap perintah. AutoSxS tersedia sesuai permintaan dan mengevaluasi model bahasa dengan performa yang sebanding dengan pemberi rating manusia.
-
AutoML
- Algoritma machine learning yang "belajar untuk belajar" melalui pengoptimalan black-box. Untuk mengetahui informasi selengkapnya, lihat Glosarium ML.
-
autologging
- Autologging adalah fitur di platform dan library machine learning yang secara otomatis mencatat metrik, parameter, dan artefak utama selama proses pelatihan model tanpa memerlukan instrumentasi kode eksplisit. MLflow menyederhanakan pelacakan eksperimen dengan otomatis merekam informasi seperti hyperparameter, metrik evaluasi (misalnya, akurasi, kehilangan), dan checkpoint model, sehingga developer dapat dengan mudah membandingkan dan mereproduksi eksperimen.
-
autorater
- Autorater adalah model bahasa yang mengevaluasi kualitas respons model berdasarkan perintah inferensi asli. Metrik ini digunakan dalam pipeline AutoSxS untuk membandingkan inferensi dua model dan menentukan model mana yang memiliki performa terbaik. Untuk mengetahui informasi selengkapnya, lihat Autorater.
-
autoscaling
- Penskalaan otomatis adalah kemampuan resource komputasi, seperti kumpulan pekerja cluster Ray, untuk menyesuaikan jumlah node secara otomatis ke atas atau ke bawah berdasarkan permintaan workload, sehingga mengoptimalkan penggunaan resource dan biaya. Untuk mengetahui informasi selengkapnya, lihat Menskalakan cluster Ray di Vertex AI: Penskalaan otomatis.
-
dasar pengukuran
- Model yang digunakan sebagai titik referensi untuk membandingkan seberapa baik performa model lain (biasanya, model yang lebih kompleks). Misalnya, model regresi logistik dapat berfungsi sebagai dasar yang baik untuk model dalam. Untuk masalah tertentu, tolok ukur membantu developer model mengukur performa minimum yang diharapkan yang harus dicapai oleh model baru agar model tersebut berguna. Untuk mengetahui informasi selengkapnya, lihat Set data dasar dan target.
-
batch
- Kumpulan contoh yang digunakan dalam satu iterasi pelatihan. Ukuran batch menentukan jumlah contoh dalam batch.
-
ukuran batch
- Jumlah contoh dalam batch. Misalnya, ukuran tumpukan SGD adalah 1, sedangkan ukuran tumpukan mini biasanya antara 10 dan 1.000. Ukuran tumpukan biasanya bernilai tetap selama pelatihan dan inferensi; namun, TensorFlow mengizinkan ukuran tumpukan dinamis.
-
inferensi batch
- Inferensi batch mengambil sekumpulan permintaan inferensi dan mengeluarkan hasilnya dalam satu file. Untuk mengetahui informasi selengkapnya, lihat Ringkasan cara mendapatkan inferensi di Vertex AI.
-
bias
- 1. Stereotip, prasangka, atau preferensi terhadap beberapa hal, orang, atau kelompok dibandingkan yang lain. Bias ini dapat memengaruhi pengumpulan dan interpretasi data, desain sistem, dan cara pengguna berinteraksi dengan sistem. 2. Error sistematis yang disebabkan oleh prosedur sampling atau pelaporan.
-
bidirectional
- Istilah yang digunakan untuk mendeskripsikan sistem yang mengevaluasi teks yang mendahului dan mengikuti bagian teks target. Sebaliknya, sistem satu arah hanya mengevaluasi teks yang mendahului bagian teks target.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT adalah metode pelatihan awal representasi bahasa, yang berarti kami melatih model "pemahaman bahasa" serbaguna pada korpus teks yang besar (seperti Wikipedia), lalu menggunakan model tersebut untuk tugas NLP downstream yang kami inginkan (seperti penjawaban pertanyaan). BERT mengungguli metode sebelumnya karena merupakan sistem dua arah yang mendalam dan tanpa pengawasan pertama untuk pra-pelatihan NLP.
-
BigQuery
- BigQuery adalah data warehouse perusahaan yang terkelola sepenuhnya, serverless, dan sangat skalabel yang disediakan oleh Google Cloud, yang dirancang untuk menganalisis set data besar menggunakan kueri SQL dengan kecepatan yang sangat tinggi. BigQuery memungkinkan business intelligence dan analisis yang canggih tanpa mengharuskan pengguna mengelola infrastruktur apa pun. Untuk mengetahui informasi selengkapnya, lihat Dari data warehouse hingga platform AI dan data otonom.
-
BigQuery ML
- BigQuery ML adalah fitur dalam data warehouse BigQuery Google Cloud yang memungkinkan analis data dan data scientist membuat, melatih, dan men-deploy model machine learning langsung di dalam BigQuery menggunakan kueri SQL standar. Dengan demikian, Anda tidak perlu memindahkan data ke platform ML terpisah, sehingga menyederhanakan alur kerja machine learning dan membuat ML lebih mudah diakses oleh pengguna SQL. Untuk mengetahui informasi selengkapnya, lihat Membuat model machine learning di BigQuery ML.
-
Bigtable
- Layanan database NoSQL yang terkelola sepenuhnya, juga direkomendasikan sebagai opsi penyimpanan untuk data pelatihan saat menggunakan Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Bigtable.
-
Bilingual Evaluation Understudy (BLEU)
- Ukuran populer untuk mengevaluasi kualitas algoritma terjemahan mesin dengan membandingkan outputnya dengan output satu atau beberapa terjemahan manusia.
-
kotak pembatas
- Kotak pembatas untuk objek dalam frame video dapat ditentukan menggunakan salah satu dari dua cara, yaitu (i) Menggunakan 2 verteks yang terdiri dari satu set koordinat x,y jika berlawanan secara diagonal dengan persegi panjang. Misalnya: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Menggunakan keempat verteks. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan data video.
-
bucket
- Folder tingkat teratas untuk Cloud Storage. Nama bucket harus unik di semua pengguna Cloud Storage. Bucket berisi file. Untuk mengetahui informasi selengkapnya, lihat Ringkasan produk Cloud Storage.
-
chat
- Isi dialog dua arah dengan sistem ML, biasanya model bahasa besar. Interaksi sebelumnya dalam chat (apa yang Anda ketik dan bagaimana respons model bahasa besar) menjadi konteks untuk bagian chat berikutnya. Chatbot adalah aplikasi model bahasa besar.
-
titik pemeriksaan
- Data yang merekam status parameter model selama pelatihan atau setelah pelatihan selesai. Misalnya, selama pelatihan, Anda dapat: 1. Menghentikan pelatihan, mungkin secara sengaja atau mungkin sebagai akibat dari error tertentu. 2. Ambil checkpoint. 3. Kemudian, muat ulang titik pemeriksaan, mungkin di hardware yang berbeda. 4. Mulai ulang pelatihan. Dalam Gemini, titik pemeriksaan mengacu pada versi tertentu dari model Gemini yang dilatih pada set data tertentu.
-
model klasifikasi
- Model yang inferensinya adalah class. Misalnya, berikut adalah semua model klasifikasi: Model yang memprediksi bahasa kalimat input (Prancis? Spanyol? Italia?). Model yang memprediksi spesies pohon (Maple? Oak? Baobab?). Model yang memprediksi kelas positif atau negatif untuk kondisi medis tertentu.
-
metrik klasifikasi
- Metrik klasifikasi yang didukung di Vertex AI SDK untuk Python adalah matriks konfusi dan kurva ROC.
-
Cloud Logging
- Cloud Logging adalah layanan logging real-time yang terkelola sepenuhnya dan disediakan oleh Google Cloud yang memungkinkan Anda mengumpulkan, menyimpan, menganalisis, dan memantau log dari semua resource Google Cloud, aplikasi lokal, dan bahkan sumber kustom. Cloud Logging memusatkan pengelolaan log, sehingga memudahkan pemecahan masalah, audit, dan pemahaman perilaku serta kondisi aplikasi dan infrastruktur Anda. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Cloud Logging.
-
Cloud Monitoring
- Cloud Monitoring adalah platform observasi komprehensif yang disediakan oleh Google Cloud yang mengumpulkan dan memvisualisasikan metrik, log, dan peristiwa dari layanan Google Cloud, infrastruktur lokal, dan komponen aplikasi. Layanan ini memungkinkan pengguna mendapatkan insight tentang performa, ketersediaan, dan respons keseluruhan sistem mereka, sehingga memungkinkan deteksi masalah, pemecahan masalah, dan pemberitahuan proaktif. Untuk mengetahui informasi selengkapnya, lihat Metrik Cloud Monitoring untuk Vertex AI.
-
Cloud Profiler
- Cloud Profiler adalah layanan pembuatan profil berkelanjutan yang disediakan oleh Google Cloud yang membantu Anda mengidentifikasi dan menganalisis konsumsi CPU dan memori, serta penggunaan resource lainnya (seperti heap, waktu nyata, pertentangan), dalam aplikasi Anda. Cloud Profiler secara otomatis mengumpulkan data pembuatan profil dari aplikasi produksi Anda dengan biaya minimal, sehingga Anda dapat memvisualisasikan dan memahami hambatan performa di berbagai layanan serta mengoptimalkan kode untuk efisiensi yang lebih baik dan biaya yang lebih rendah. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Cloud Profiler.
-
Cloud Storage
- Layanan penyimpanan objek yang skalabel dan aman dari Google Cloud, direkomendasikan untuk menyimpan set data besar yang digunakan dalam pelatihan dan verifikasi dengan Vertex AI untuk performa yang optimal. Untuk mengetahui informasi selengkapnya, lihat dokumentasi Cloud Storage.
-
Cloud TPU
- Akselerator hardware khusus yang dirancang untuk mempercepat workload machine learning di Google Cloud.
-
Colab Enterprise
- Colab Enterprise adalah lingkungan notebook Jupyter terkelola yang kolaboratif dan menghadirkan pengalaman pengguna Google Colab yang populer ke Google Cloud, serta menawarkan kemampuan kepatuhan dan keamanan tingkat perusahaan. Colab Enterprise memberikan pengalaman tanpa konfigurasi dan berfokus pada notebook, dengan resource komputasi yang dikelola oleh Vertex AI, serta terintegrasi dengan layanan Google Cloud lainnya seperti BigQuery. Untuk mengetahui informasi selengkapnya, lihat Pengantar Colab Enterprise.
-
image container
- Image container adalah paket yang menyertakan kode yang dapat dieksekusi komponen dan definisi lingkungan tempat kode dijalankan. Untuk mengetahui informasi selengkapnya, lihat Ringkasan pelatihan kustom.
-
konteks
- Konteks digunakan untuk mengelompokkan artefak dan eksekusi dalam satu kategori dengan jenis tertentu yang dapat dikueri. Konteks dapat digunakan untuk merepresentasikan kumpulan metadata. Contoh Konteks adalah operasi pipeline machine learning.
-
cache konteks
- Cache konteks di Vertex AI adalah sejumlah besar data yang dapat digunakan dalam beberapa permintaan ke model Gemini. Konten yang di-cache disimpan di region tempat permintaan untuk membuat cache dilakukan. Dapat berupa jenis MIME apa pun yang didukung oleh model multimodal Gemini, seperti teks, audio, atau video. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyimpanan ke dalam cache konteks.
-
jendela konteks
- Jumlah token yang dapat diproses model dalam perintah tertentu. Makin besar jendela konteks, makin banyak informasi yang dapat digunakan model untuk memberikan respons yang koheren dan konsisten terhadap perintah.
-
Kunci enkripsi yang dikelola pelanggan (CMEK)
- Kunci enkripsi yang dikelola pelanggan (CMEK) adalah integrasi yang memungkinkan pelanggan mengenkripsi data di layanan Google yang ada menggunakan kunci yang mereka kelola di Cloud KMS (juga dikenal sebagai Storky). Kunci dalam Cloud KMS adalah kunci enkripsi kunci yang melindungi data mereka. Untuk informasi selengkapnya, lihat Kunci enkripsi yang dikelola pelanggan (CMEK).
-
CustomJob
- CustomJob adalah salah satu dari tiga resource Vertex AI yang dapat dibuat pengguna untuk melatih model kustom di Vertex AI. Tugas pelatihan kustom adalah cara dasar untuk menjalankan kode pelatihan machine learning (ML) kustom di Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Membuat tugas pelatihan kustom.
-
image container kustom
- Image container kustom adalah paket yang dapat dieksekusi dan mandiri yang mencakup kode aplikasi pengguna, runtime, library, dependensi, dan konfigurasi lingkungannya. Dalam konteks Google Cloud, khususnya Vertex AI, hal ini memungkinkan pengguna memaketkan kode pelatihan machine learning atau aplikasi penayangan dengan dependensi yang tepat, sehingga memastikan reproduksibilitas dan memungkinkan pengguna menjalankan beban kerja di layanan terkelola menggunakan versi software tertentu atau konfigurasi unik yang tidak disediakan oleh lingkungan standar. Untuk mengetahui informasi selengkapnya, lihat Persyaratan container kustom untuk inferensi.
-
pelatihan kustom
- Pelatihan kustom Vertex AI adalah layanan fleksibel yang memungkinkan pengguna menjalankan aplikasi pelatihan kustom (skrip atau container) mereka sendiri di infrastruktur Google Cloud, sehingga memberikan kontrol atas jenis dan penskalaan mesin. Untuk mengetahui informasi selengkapnya, lihat Ringkasan pelatihan kustom.
-
Dask
- Dask adalah platform komputasi terdistribusi yang sering digunakan dengan TensorFlow, Pytorch, dan framework ML lainnya untuk mengelola tugas pelatihan terdistribusi. Untuk mengetahui informasi selengkapnya, lihat Wikipedia.
-
analisis data
- Memperoleh pemahaman data dengan mempertimbangkan sampel, pengukuran, dan visualisasi. Analisis data dapat sangat berguna saat pertama kali set data diterima, sebelum membuat model yang pertama. Analisis data juga penting dalam memahami masalah eksperimen dan proses debug dengan sistem.
-
augmentasi data
- Secara artifisial, meningkatkan rentang dan jumlah contoh pelatihan dengan mengubah contoh yang ada untuk membuat contoh tambahan. Misalnya, anggaplah gambar adalah salah satu fitur Anda, tetapi set data Anda tidak berisi contoh gambar yang memadai bagi model untuk mempelajari asosiasi yang berguna. Idealnya, tambahkan gambar berlabel yang memadai ke set data Anda agar model Anda dapat dilatih dengan benar. Jika tindakan tersebut tidak memungkinkan, pengayaan data dapat memutar, melebarkan, dan mencerminkan setiap gambar untuk memproduksi berbagai variasi dari gambar aslinya, yang mungkin menghasilkan data berlabel yang memadai agar dapat melakukan pelatihan yang sangat baik.
-
DataFrame
- Jenis data pandas yang populer untuk merepresentasikan set data dalam memori. DataFrame dapat dianalogikan dengan tabel atau spreadsheet. Setiap kolom DataFrame memiliki nama (header), dan setiap baris diidentifikasi oleh angka unik. Setiap kolom dalam DataFrame disusun seperti array 2D, kecuali setiap kolom dapat ditetapkan jenis datanya sendiri.
-
dataset (set data)
- Set data secara luas didefinisikan sebagai kumpulan data terstruktur atau tidak terstruktur. Kumpulan data mentah, yang biasanya (tetapi tidak secara eksklusif) disusun dalam salah satu format berikut: spreadsheet, file dalam format CSV (nilai yang dipisahkan koma). Untuk informasi lebih lanjut, lihat Membuat set data.
-
decoder
- Secara umum, sistem ML apa pun yang mengonversi dari representasi internal yang diproses dan padat ke representasi eksternal yang lebih mentah dan jarang. Decoder sering kali menjadi komponen dari model yang lebih besar, yang sering dipasangkan dengan encoder. Dalam tugas sequence-to-sequence, decoder dimulai dengan status internal yang dihasilkan oleh encoder untuk memprediksi urutan berikutnya.
-
deep neural network (DNN)
- Jaringan neural dengan beberapa lapisan tersembunyi, biasanya diprogram melalui teknik deep learning.
-
depth
- Jumlah berikut dalam jaringan neural: 1. jumlah lapisan tersembunyi 2. jumlah lapisan output, yang biasanya satu 3. jumlah lapisan penyematan. Misalnya, jaringan neural dengan lima lapisan tersembunyi dan satu lapisan keluaran memiliki kedalaman 6. Perhatikan bahwa lapisan input tidak memengaruhi kedalaman.
-
DevOps
- DevOps adalah serangkaian produk Google Cloud Platform, misalnya, Artifact Registry, Cloud Deploy.
-
penghentian awal
- Metode untuk regularisasi yang melibatkan penghentian pelatihan sebelum kerugian pelatihan selesai menurun. Dalam penghentian awal, Anda sengaja menghentikan pelatihan model saat kerugian pada set data validasi mulai meningkat; yaitu, saat performa generalisasi memburuk.
-
penyematan
- Representasi numerik kata atau bagian teks. Angka-angka ini menangkap makna semantik dan konteks teks. Kata atau teks yang serupa atau terkait cenderung memiliki embedding yang serupa, yang berarti posisinya lebih berdekatan dalam ruang vektor berdimensi tinggi.
-
ruang sematan (ruang laten)
- Dalam AI Generatif, ruang sematan mengacu pada representasi numerik dari teks, gambar, atau video yang menangkap hubungan antara input. Model machine learning, terutama model AI generatif, mahir dalam membuat penyematan ini dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat memanfaatkan embedding untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang khusus untuk konten.
-
vektor embedding
- Representasi vektor padat, sering kali berdimensi rendah, dari suatu item sehingga, jika dua item serupa secara semantik, embedding masing-masing item tersebut berdekatan satu sama lain di ruang vektor embedding.
-
encoder
- Secara umum, sistem ML apa pun yang mengonversi dari representasi mentah, jarang, atau eksternal menjadi representasi yang lebih diproses, lebih padat, atau lebih internal. Encoder sering kali menjadi komponen dari model yang lebih besar, yang sering dipasangkan dengan decoder. Beberapa transformer memasangkan encoder dengan decoder, meskipun transformer lainnya hanya menggunakan encoder atau hanya menggunakan decoder. Beberapa sistem menggunakan output encoder sebagai input ke jaringan klasifikasi atau regresi. Dalam tugas sequence-to-sequence, encoder mengambil urutan input dan menampilkan status internal (vektor). Kemudian, dekoder menggunakan status internal tersebut untuk memprediksi urutan berikutnya.
-
endpoint
- Resource tempat Anda dapat men-deploy model terlatih untuk menayangkan inferensi. Untuk mengetahui informasi selengkapnya, lihat Memilih jenis endpoint.
-
ensemble
- Kumpulan model yang dilatih secara independen yang inferensinya dirata-ratakan atau digabungkan. Dalam banyak kasus, ansambel menghasilkan inferensi yang lebih baik daripada model tunggal. Misalnya, hutan acak adalah ansambel yang dibangun dari beberapa pohon keputusan. Perhatikan bahwa tidak semua hutan keputusan adalah ansambel.
-
environment
- Dalam pembelajaran beruntun, dunia yang berisi agen dan memungkinkan agen mengamati status dunia tersebut. Misalnya, dunia yang direpresentasikan dapat berupa game seperti catur, atau dunia fisik seperti labirin. Saat agen menerapkan tindakan ke lingkungan, lingkungan akan bertransisi antar-status.
-
evaluasi (eval)
- Evaluasi, atau "evaluasi", adalah jenis eksperimen yang mengirimkan kueri yang dicatat atau sintetis melalui dua stack Penelusuran--stack eksperimental yang mencakup perubahan Anda dan stack dasar tanpa perubahan Anda. Evaluasi menghasilkan perbedaan dan metrik yang memungkinkan Anda mengevaluasi dampak, kualitas, dan efek lain dari perubahan Anda pada hasil penelusuran dan bagian lain dari pengalaman pengguna Google. Evaluasi digunakan selama penyesuaian, atau iterasi, pada perubahan Anda. Metode ini juga digunakan sebagai bagian dari peluncuran perubahan pada traffic pengguna aktif.
-
peristiwa
- Peristiwa menjelaskan hubungan antara artefak dan eksekusi. Setiap artefak dapat dihasilkan oleh suatu eksekusi dan digunakan oleh eksekusi lainnya. Peristiwa membantu Anda menentukan asal artefak dalam alur kerja ML dengan merangkai artefak dan eksekusi.
-
eksekusi
- Eksekusi adalah kumpulan data dari setiap langkah alur kerja machine learning, biasanya dianotasi dengan parameter runtime-nya. Contoh eksekusi meliputi penyerapan data, validasi data, pelatihan model, evaluasi model, dan deployment model.
-
eksperimen
- Eksperimen adalah konteks yang dapat berisi kumpulan n operasi eksperimen selain proses pipeline tempat pengguna dapat menyelidiki—sebagai suatu grup—berbagai konfigurasi, seperti hyperparameter atau artefak input.
-
operasi eksperimen
- Eksekusi tertentu yang dapat dilacak dalam Eksperimen Vertex AI, yang mencatat input (seperti algoritma, parameter, dan set data) dan output (seperti model, checkpoint, dan metrik) untuk memantau dan membandingkan iterasi pengembangan ML. Untuk mengetahui informasi selengkapnya, lihat Membuat dan mengelola operasi eksperimen.
-
Explainable AI
- Fitur Vertex AI yang menyediakan alat dan kemampuan untuk memahami dan menafsirkan inferensi yang dibuat oleh model ML, yang menawarkan insight tentang pentingnya fitur dan perilaku model. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex Explainable AI.
-
analisis data eksploratif
- Dalam statistik, analisis data eksploratif (EDA) merupakan pendekatan untuk menganalisis set data guna merangkum karakteristik utamanya, sering kali dengan metode visual. Model statistik dapat digunakan ataupun tidak, tetapi utamanya EDA digunakan untuk melihat apa yang dapat ditunjukkan data kepada kita di luar tugas pengujian hipotesis atau pemodelan formal.
-
Skor F1
- Skor F1 adalah metrik yang digunakan untuk mengevaluasi akurasi output model. Metrik ini sangat berguna untuk menilai performa model pada tugas yang memerlukan presisi dan perolehan, seperti ekstraksi informasi. Untuk model AI generatif, skor F1 dapat digunakan untuk membandingkan inferensi model dengan data kebenaran dasar untuk menentukan akurasi model. Namun, untuk tugas generatif seperti ringkasan dan pembuatan teks, metrik lain seperti skor Rough-L mungkin lebih sesuai.
-
fitur
- Dalam machine learning (ML), fitur adalah karakteristik atau atribut instance atau entity yang digunakan sebagai input untuk melatih model ML atau membuat inferensi.
-
rekayasa fitur
- Rekayasa fitur adalah proses mengubah data mentah machine learning (ML) menjadi fitur yang dapat digunakan untuk melatih model ML atau membuat inferensi.
-
grup fitur
- Grup fitur adalah resource registry fitur yang sesuai dengan tabel sumber BigQuery atau tampilan yang berisi data fitur. Tampilan fitur dapat berisi fitur dan dapat dianggap sebagai pengelompokan logis kolom fitur dalam sumber data.
-
kumpulan data fitur
- Kumpulan data fitur adalah penggabungan semua nilai fitur yang mendeskripsikan atribut entitas unik pada titik waktu tertentu.
-
registry fitur
- Registry fitur adalah antarmuka pusat untuk merekam sumber data fitur yang ingin Anda sajikan untuk inferensi online. Untuk mengetahui informasi selengkapnya, lihat Penyiapan Feature Registry.
-
penyajian fitur
- Penyajian fitur adalah proses mengekspor atau mengambil nilai fitur untuk pelatihan atau inferensi. Di Vertex AI, ada dua jenis penyajian fitur, yaitu layanan online dan offline. Penyajian online mengambil nilai fitur terbaru dari subset sumber data fitur untuk inferensi online. Penyajian offline atau penyaluran batch mengekspor data fitur dalam jumlah besar—termasuk data historis—untuk pemrosesan offline, seperti pelatihan model ML.
-
stempel waktu fitur
- Stempel waktu fitur menunjukkan kapan serangkaian nilai fitur dalam kumpulan data fitur tertentu untuk entity dihasilkan.
-
nilai fitur
- Nilai fitur sesuai dengan nilai aktual dan terukur fitur (atribut) dari sebuah instance atau entity. Kumpulan nilai fitur untuk entity unik yang mewakili kumpulan data fitur yang sesuai dengan entity.
-
tampilan fitur
- Tampilan fitur adalah kumpulan logis fitur yang terwujud dari sumber data BigQuery ke instance penyimpanan online. Tampilan fitur menyimpan dan memperbarui data fitur pelanggan secara berkala, yang diperbarui secara berkala dari sumber BigQuery. Tampilan fitur berkaitan dengan penyimpanan data fitur baik secara langsung maupun melalui pengaitan ke resource registry fitur.
-
model dasar (FM)
- Model yang dilatih dengan data luas sehingga dapat diadaptasi (misalnya, disesuaikan) untuk berbagai tugas downstream.
-
Operasi Model Dasar (FMOPs)
- FMOps memperluas kemampuan MLOps dan berfokus pada produksi FM yang efisien yang telah dilatih (dilatih dari awal) atau disesuaikan (di-fine-tune).
-
Google Cloud pipeline components SDK
- Google Cloud pipeline components (GCPC) SDK menyediakan sekumpulan komponen Kubeflow Pipeline bawaan yang berkualitas produksi, berperforma tinggi, dan mudah digunakan. Anda dapat menggunakan Google Cloud Pipeline Components untuk menentukan dan menjalankan pipeline ML di Vertex AI Pipelines serta backend eksekusi pipeline ML lainnya yang sesuai dengan Kubeflow Pipelines. Untuk mengetahui informasi selengkapnya, lihat Pengantar Google Cloud Pipeline Components.
-
Sistem Modem Tersemat Google (GEMS)
- GEMS adalah framework software tersemat yang menargetkan modem, dan serangkaian alur kerja pengembangan serta infrastruktur yang menyertainya. Visi utama GEMS adalah menyediakan kode sistem modem berkualitas tinggi dengan kemampuan penggunaan ulang yang tinggi di banyak perangkat Google yang berisi modem. Untuk mencapai visi yang luas ini, GEMS menyediakan lingkungan yang komprehensif bagi developer, yang terdiri dari elemen penyusun utama yang digambarkan di bawah.
-
gradien
- Vektor turunan parsial yang terkait dengan semua variabel independen. Dalam machine learning, gradien adalah vektor turunan parsial dari fungsi model. Gradien mengarah ke arah pendakian paling curam.
-
grafik
- Dalam konteks Vertex AI, grafik mengacu pada struktur data yang merepresentasikan hubungan antara entitas dan atributnya. Graph database digunakan untuk memodelkan dan menganalisis data yang kompleks, seperti pustaka pengetahuan, jaringan sosial, dan proses bisnis. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex ML Metadata.
-
kebenaran dasar (GT)
- Kebenaran nyata adalah istilah yang digunakan di berbagai bidang untuk merujuk pada kebenaran mutlak dari beberapa masalah keputusan atau pengukuran, dibandingkan dengan perkiraan beberapa sistem. Dalam machine learning, istilah "kebenaran dasar" mengacu pada set pelatihan untuk teknik supervised learning.
-
heuristik
- Solusi sederhana dan cepat diterapkan untuk suatu masalah. Misalnya, "Dengan heuristik, kami mencapai akurasi 86%. Saat kami beralih ke jaringan neural dalam, akurasi meningkat hingga 98%".
-
lapisan tersembunyi
- Lapisan dalam jaringan neural antara lapisan input (fitur) dan lapisan output (inferensi). Setiap lapisan tersembunyi terdiri dari satu atau beberapa neuron. Jaringan neural dalam berisi lebih dari satu lapisan tersembunyi.
-
histogram
- Tampilan grafis variasi dalam satu set data menggunakan batang. Histogram memvisualisasikan pola yang sulit dideteksi dalam tabel angka sederhana.
-
hyperparameter
- Hyperparameter mengacu pada variabel yang mengatur proses pelatihan model machine learning. Variabel ini dapat mencakup kecepatan pembelajaran, nilai momentum dalam pengoptimal, dan jumlah unit dalam lapisan tersembunyi terakhir dari model. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
penyesuaian hyperparameter
- Penyesuaian hyperparameter di Vertex AI melibatkan menjalankan beberapa uji coba aplikasi pelatihan dengan nilai yang berbeda untuk hyperparameter yang dipilih, yang ditetapkan dalam batas yang ditentukan. Tujuannya adalah mengoptimalkan setelan hyperparameter untuk memaksimalkan akurasi prediktif model. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
Izin Identity and Access Management (IAM)
- Izin Identity and Access Management (IAM) adalah kemampuan terperinci tertentu yang menentukan siapa yang dapat melakukan tindakan apa pada resource Google Cloud tertentu. Peran ditetapkan ke kepala sekolah (seperti pengguna, grup, atau akun layanan) melalui peran, sehingga memungkinkan kontrol yang tepat atas akses ke layanan dan data dalam project atau organisasi Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Kontrol akses dengan IAM.
-
pengenalan gambar
- Pengenalan gambar adalah proses mengklasifikasikan objek, pola, atau konsep dalam suatu gambar. Fitur ini juga dikenal sebagai klasifikasi gambar. Pengenalan gambar adalah subbidang machine learning dan computer vision.
-
indeks
- Sekumpulan vektor yang di-deploy bersama untuk penelusuran kemiripan. Vektor dapat ditambahkan ke indeks atau dihapus dari indeks. Kueri penelusuran kemiripan dikeluarkan pada indeks tertentu dan akan menelusuri vektor dalam indeks tersebut.
-
inferensi
- Dalam konteks platform Vertex AI, inferensi mengacu pada proses menjalankan titik data melalui model machine learning untuk menghitung output, seperti satu skor numerik. Proses ini juga dikenal sebagai "mengoperasikan model machine learning" atau "memasukkan model machine learning ke dalam produksi". Inferensi adalah langkah penting dalam alur kerja machine learning, karena memungkinkan model digunakan untuk membuat inferensi pada data baru. Di Vertex AI, inferensi dapat dilakukan dengan berbagai cara, termasuk inferensi batch dan inferensi online. Inferensi batch melibatkan menjalankan sekelompok permintaan inferensi dan menghasilkan hasilnya dalam satu file, sedangkan inferensi online memungkinkan inferensi real-time pada setiap titik data.
-
penelusuran informasi (IR)
- Pengambilan informasi (IR) adalah komponen utama Vertex AI Search. Proses ini adalah proses menemukan dan mengambil informasi yang relevan dari kumpulan data yang besar. Dalam konteks Vertex AI, IR digunakan untuk mengambil dokumen dari korpus berdasarkan kueri pengguna. Vertex AI menawarkan serangkaian API untuk membantu Anda membangun aplikasi Retrieval Augmented Generation (RAG) sendiri atau membangun mesin Penelusuran Anda sendiri. Untuk mengetahui informasi selengkapnya, lihat Menggunakan Vertex AI Search sebagai backend pengambilan menggunakan RAG Engine.
-
Infrastructure as Code (IaC)
- Infrastructure as Code. Pendekatan untuk mengelola infrastruktur IT di mana tim dapat mengelola dan menyediakan layanan melalui kode. Dengan IaC, file konfigurasi yang berisi spesifikasi infrastruktur dibuat, sehingga mempermudah pembuatan dan pengeditan infrastruktur dalam skala besar.
-
learning rate (ukuran langkah)
- Kecepatan pembelajaran adalah hyperparameter yang digunakan untuk menyesuaikan proses pengoptimalan model machine learning. Menentukan ukuran langkah saat model memperbarui bobotnya selama pelatihan. Kecepatan pemelajaran yang lebih tinggi dapat menyebabkan konvergensi yang lebih cepat, tetapi dapat mengakibatkan ketidakstabilan atau overfitting. Sebaliknya, kecepatan pembelajaran yang lebih rendah dapat menyebabkan konvergensi yang lebih lambat, tetapi dapat membantu mencegah overfitting, tanpa sumber. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
kerugian (biaya)
- Selama pelatihan model supervised, ukuran seberapa jauh inferensi model dari labelnya. Fungsi kerugian menghitung kerugian.
-
Machine Learning Metadata
- ML Metadata (MLMD) adalah library untuk merekam dan mengambil metadata yang terkait dengan alur kerja developer ML dan data scientist. MLMD merupakan bagian integral dari TensorFlow Extended (TFX), tetapi didesain agar dapat digunakan secara independen. Sebagai bagian dari platform TFX yang lebih luas, sebagian besar pengguna hanya berinteraksi dengan MLMD saat memeriksa hasil komponen pipeline, misalnya di notebook atau di TensorBoard.
-
set data terkelola
- Objek set data yang dibuat dan dihosting oleh Vertex AI.
-
logging manual
- Proses menambahkan kode secara eksplisit (misalnya, menggunakan Vertex AI SDK untuk Python) ke skrip pelatihan untuk melacak dan mencatat parameter, metrik, dan artefak kustom ke operasi Vertex AI Experiments. Untuk mengetahui informasi selengkapnya, lihat Ringkasan pemantauan dan logging.
-
penskalaan manual
- Penskalaan manual mengacu pada proses penyesuaian jumlah resource komputasi (seperti virtual machine, container, atau server) yang dialokasikan ke aplikasi atau layanan secara eksplisit dan sengaja oleh pengguna atau administrator. Tidak seperti penskalaan otomatis, yang menyesuaikan resource secara otomatis berdasarkan permintaan, penskalaan manual memerlukan intervensi langsung untuk menyediakan atau membatalkan penyediaan resource, sehingga memberikan kontrol yang presisi tetapi tidak memiliki responsivitas dinamis dari solusi otomatis. Untuk mengetahui informasi selengkapnya, lihat Menskalakan cluster Ray di Vertex AI: Penskalaan manual.
-
resource metadata
- Vertex ML Metadata mengekspos model data seperti grafik untuk merepresentasikan metadata yang dihasilkan dan digunakan dari alur kerja ML. Konsep utamanya adalah artefak, eksekusi, peristiwa, dan konteks.
-
MetadataSchema
- MetadataSchema menjelaskan skema untuk jenis artefak, eksekusi, atau konteks tertentu. MetadataSchemas digunakan untuk memvalidasi pasangan nilai kunci selama pembuatan resource Metadata yang sesuai. Validasi skema hanya dilakukan pada kolom yang cocok antara resource dan MetadataSchema. Skema jenis direpresentasikan menggunakan Objek Skema OpenAPI, yang harus dideskripsikan menggunakan YAML.
-
MetadataStore
- MetadataStore adalah container tingkat atas untuk resource metadata. MetadataStore bersifat regional dan berkaitan dengan project Google Cloud tertentu. Biasanya, organisasi menggunakan satu MetadataStore bersama untuk resource metadata dalam setiap project.
-
pipeline ML
- Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container.
-
model
- Semua model yang telah dilatih maupun tidak. Secara umum, konstruksi matematika apa pun yang memproses data input dan menampilkan output. Dengan kata lain, model adalah kumpulan parameter dan struktur yang diperlukan agar sistem dapat membuat inferensi.
-
distilasi model (distilasi pengetahuan, model guru-murid)
- Distilasi model adalah teknik yang memungkinkan model siswa yang lebih kecil belajar dari model pengajar yang lebih besar. Model siswa dilatih untuk meniru output model pengajar, dan kemudian dapat digunakan untuk menghasilkan data baru atau membuat inferensi. Distilasi model sering digunakan untuk membuat model besar lebih efisien atau membuatnya lebih mudah diakses oleh perangkat dengan resource terbatas. Teknik ini juga dapat digunakan untuk meningkatkan generalisasi model dengan mengurangi overfitting.
-
Evaluasi Model
- Evaluasi Model Vertex AI adalah layanan terkelola dalam platform Vertex AI Google Cloud yang membantu pengguna menilai performa dan kualitas model machine learning mereka. Layanan ini menyediakan alat untuk membuat berbagai metrik dan visualisasi evaluasi, sehingga pengguna dapat memahami performa model mereka, mengidentifikasi potensi bias, dan membuat keputusan yang tepat tentang deployment dan peningkatan model. Untuk mengetahui informasi selengkapnya, lihat Evaluasi model di Vertex AI.
-
Pemantauan Model
- Vertex AI Model Monitoring adalah layanan yang terus-menerus mengevaluasi performa model yang di-deploy dengan mendeteksi kecondongan dan penyimpangan fitur dalam permintaan prediksi, sehingga membantu mempertahankan kualitas model dari waktu ke waktu. Untuk mengetahui informasi selengkapnya, lihat Pengantar Pemantauan Model Vertex AI.
-
nama resource model
- Nama resource untuk
model
adalah sebagai berikut:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Anda dapat menemukan ID model di konsol Cloud pada halaman Model Registry.
- Nama resource untuk
-
Network File System (NFS)
- Sistem klien/server yang memungkinkan pengguna mengakses file di seluruh jaringan dan memperlakukannya seolah-olah berada di direktori file lokal. Untuk mengetahui informasi selengkapnya, lihat Memasang berbagi secara NFS untuk pelatihan kustom.
-
penyimpanan offline
- Penyimpanan offline adalah fasilitas penyimpanan yang menyimpan data fitur terbaru dan historis, yang biasanya digunakan untuk melatih model ML. Penyimpanan offline juga berisi nilai fitur terbaru, yang dapat Anda sajikan untuk inferensi online.
-
Inferensi online
- Mendapatkan inferensi pada setiap instance secara serentak. Untuk mengetahui informasi selengkapnya, lihat Inferensi online.
-
Prediksi online
- Mendapatkan prediksi pada setiap instance secara serentak. Untuk mengetahui informasi selengkapnya, lihat Prediksi online.
-
penyimpanan online
- Dalam pengelolaan fitur, penyimpanan online adalah fasilitas penyimpanan untuk nilai fitur terbaru yang akan disajikan untuk inferensi online.
-
parameter
- Parameter adalah nilai input dengan kunci yang mengonfigurasi operasi, mengatur perilaku operasi, dan memengaruhi hasil operasi. Contohnya termasuk kecepatan pembelajaran, tingkat putus sekolah, dan jumlah langkah pelatihan.
-
resource persisten
- Jenis resource komputasi Vertex AI, seperti cluster Ray, yang tetap dialokasikan dan tersedia hingga dihapus secara eksplisit, yang bermanfaat untuk pengembangan iteratif dan mengurangi overhead startup antar-tugas. Untuk mengetahui informasi selengkapnya, lihat Mendapatkan informasi resource persisten.
-
pipeline
- Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Pipelines.
-
komponen pipeline
- Sekumpulan kode mandiri yang melakukan satu langkah dalam alur kerja pipeline, seperti prapemrosesan data, transformasi data, dan pelatihan model.
-
tugas pipeline
- Tugas pipeline atau operasi pipeline sesuai dengan resource PipelineJob di Vertex AI API. Ini adalah instance eksekusi definisi pipeline ML Anda, yang ditentukan sebagai sekumpulan tugas ML yang saling terhubung berdasarkan dependensi input-output.
-
operasi pipeline
- Satu atau beberapa PipelineJob Vertex dapat dikaitkan dengan eksperimen, dengan setiap PipelineJob direpresentasikan sebagai satu operasi. Dalam konteks ini, parameter operasi disimpulkan oleh parameter PipelineJob. Metrik disimpulkan dari artefak system.Metric yang dihasilkan oleh PipelineJob. Artefak proses disimpulkan dari artefak yang dihasilkan oleh PipelineJob tersebut.
-
template pipeline
- Definisi alur kerja ML yang dapat digunakan kembali oleh satu atau beberapa pengguna untuk membuat beberapa operasi pipeline.
-
class positif
- "Kelas positif" mengacu pada hasil atau kategori yang dilatih untuk diprediksi oleh model. Misalnya, jika model memprediksi apakah pelanggan akan membeli jaket, kelas positifnya adalah "pelanggan membeli jaket". Demikian pula, dalam model yang memprediksi pendaftaran pelanggan untuk deposit berjangka, kelas positifnya adalah "pelanggan mendaftar". Kebalikannya adalah "kelas negatif".
-
Container bawaan
- Image container yang disediakan oleh Vertex AI yang telah diinstal sebelumnya dengan framework dan dependensi ML umum, sehingga menyederhanakan penyiapan untuk tugas pelatihan dan inferensi. Untuk mengetahui informasi selengkapnya, lihat Container bawaan untuk pelatihan khusus .
-
Akses Google Pribadi (PGA)
- Akses Google Pribadi memungkinkan instance VM dengan hanya alamat IP internal (pribadi) (tanpa alamat IP eksternal) untuk menjangkau alamat IP publik dari API dan layanan Google. Untuk mengetahui informasi selengkapnya, lihat Mengonfigurasi Akses Google Pribadi.
-
akses layanan pribadi
- Akses layanan pribadi adalah koneksi pribadi antara jaringan Virtual Private Cloud (VPC) Anda dan jaringan yang dimiliki oleh Google atau penyedia layanan pihak ketiga. Dengan demikian, instance mesin virtual (VM) di jaringan VPC Anda dapat berkomunikasi dengan layanan ini menggunakan alamat IP internal, sehingga tidak terekspos ke internet publik. Untuk mengetahui informasi selengkapnya, lihat Akses layanan pribadi.
-
Private Service Connect (PSC)
- Private Service Connect adalah teknologi yang memungkinkan pelanggan Compute Engine memetakan IP pribadi di jaringan mereka ke jaringan VPC lain atau ke Google API. Untuk mengetahui informasi selengkapnya, lihat Private Service Connect.
-
Antarmuka Private Service Connect (PSC-I)
- Antarmuka Private Service Connect menyediakan cara bagi produsen untuk memulai koneksi ke resource jaringan apa pun di VPC konsumen secara pribadi.
-
kuantisasi
- Kuantisasi adalah teknik pengoptimalan model yang digunakan untuk mengurangi presisi angka yang digunakan untuk merepresentasikan parameter model. Hal ini dapat menghasilkan model yang lebih kecil, konsumsi daya yang lebih rendah, dan latensi inferensi yang lebih rendah.
-
Random Forest
- Random Forest adalah algoritma machine learning yang digunakan untuk klasifikasi dan regresi. Model ini bukan model AI generatif secara langsung, tetapi merupakan komponen yang dapat digunakan dalam sistem AI generatif yang lebih besar. Hutan acak terdiri dari beberapa pohon keputusan, dan inferensinya adalah gabungan dari inferensi dari setiap pohon. Misalnya, dalam tugas klasifikasi, setiap pohon "memilih" kelas, dan inferensi akhir adalah kelas dengan suara terbanyak. Untuk mengetahui informasi selengkapnya, lihat Decision forest.
-
API klien Ray (Ray Client)
- Klien Ray adalah API yang memungkinkan skrip Python lokal atau shell interaktif (seperti notebook Jupyter) terhubung dan berinteraksi dengan cluster Ray jarak jauh. Pada dasarnya, klien Ray memungkinkan pengguna mengembangkan dan mengeksekusi kode Ray seolah-olah kode tersebut berjalan secara lokal, sekaligus memanfaatkan daya komputasi terdistribusi dari cluster jarak jauh. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Ray di Vertex AI.
-
Cluster Ray di Vertex AI
- Cluster Ray di Vertex AI adalah cluster node komputasi terkelola yang dapat digunakan untuk menjalankan aplikasi machine learning (ML) dan Python terdistribusi. Ray menyediakan infrastruktur untuk melakukan komputasi terdistribusi dan pemrosesan paralel untuk alur kerja ML Anda. Cluster Ray dibangun ke dalam Vertex AI untuk memastikan ketersediaan kapasitas untuk workload ML penting atau selama musim puncak. Tidak seperti tugas kustom, yang mengharuskan layanan pelatihan untuk merilis resource setelah tugas selesai, cluster Ray akan tetap tersedia hingga dihapus. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Ray di Vertex AI.
-
Ray on Vertex AI (RoV)
- Ray on Vertex AI dirancang agar Anda dapat menggunakan kode Ray open source yang sama untuk menulis program dan mengembangkan aplikasi di Vertex AI dengan sedikit perubahan. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Ray di Vertex AI.
-
Ray on Vertex AI SDK for Python
- Ray on Vertex AI SDK untuk Python adalah versi Vertex AI SDK untuk Python yang menyertakan fungsi Ray Client, konektor Ray BigQuery, pengelolaan cluster Ray di Vertex AI, dan inferensi di Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI SDK untuk Python.
-
perolehan
- Persentase tetangga terdekat sebenarnya yang ditampilkan oleh indeks. Misalnya, jika kueri tetangga terdekat untuk 20 tetangga terdekat menampilkan 19 tetangga terdekat “kebenaran nyata”, perolehannya adalah 19/20x100 = 95%.
-
Server Pengurangan
- Reduction Server adalah fitur atau komponen yang tersedia dalam Vertex AI, yang dirancang khusus untuk mengoptimalkan pelatihan GPU terdistribusi. Reduction Server berfungsi sebagai algoritma semua reduksi yang membantu meningkatkan throughput dan mengurangi latensi untuk pelatihan model machine learning skala besar. Untuk mengetahui informasi selengkapnya, lihat Mengurangi waktu pelatihan dengan Server Reduksi.
-
regularisasi
- Regularisasi adalah teknik yang digunakan untuk mencegah overfitting dalam model machine learning. Overfitting terjadi saat model mempelajari data pelatihan terlalu baik, sehingga menghasilkan performa yang buruk pada data yang belum pernah dilihat. Salah satu jenis regularisasi khusus yang disebutkan adalah penghentian awal, yaitu pelatihan dihentikan sebelum kerugian pada set data validasi mulai meningkat, yang menunjukkan penurunan performa generalisasi. Untuk mengetahui informasi selengkapnya, lihat Overfitting: Regularisasi L2.
-
batasan
- Fungsionalitas untuk "membatasi" penelusuran ke subset indeks dengan menggunakan aturan Boolean. Membatasi disebut juga sebagai "pemfilteran". Dengan Vector Search, Anda dapat menggunakan pemfilteran numerik dan pemfilteran atribut teks.
-
akun layanan
- Akun layanan adalah akun Google Cloud khusus yang digunakan oleh aplikasi atau virtual machine untuk melakukan panggilan API yang diotorisasi ke layanan Google Cloud. Tidak seperti akun pengguna, akun layanan tidak terikat dengan manusia, tetapi bertindak sebagai identitas untuk kode Anda, sehingga memungkinkan akses yang aman dan terprogram ke resource tanpa memerlukan kredensial manusia. Untuk mengetahui informasi selengkapnya, lihat Ringkasan akun layanan.
-
agen layanan
- Agen layanan merujuk ke akun layanan yang dikelola Google. Fitur ini digunakan saat layanan memerlukan akses ke resource yang dibuat oleh layanan lain. Misalnya, saat layanan Dataflow atau Dataproc perlu membuat instance selama runtime atau saat Cloud Function ingin menggunakan Key Management Service (KMS) untuk melindungi Cloud Function. Agen layanan dibuat secara otomatis oleh Google Cloud saat layanan memerlukannya. Akun ini biasanya digunakan untuk mengelola akses ke resource dan melakukan berbagai tugas atas nama layanan. Untuk mengetahui informasi selengkapnya, lihat Agen layanan.
-
metrik ringkasan
- Metrik ringkasan adalah satu nilai untuk setiap kunci metrik dalam suatu operasi eksperimen. Misalnya, akurasi pengujian eksperimen adalah akurasi yang dihitung terhadap set data pengujian di akhir pelatihan yang dapat dicatat sebagai metrik ringkasan nilai tunggal.
-
TensorBoard
- TensorBoard adalah rangkaian aplikasi web untuk memvisualisasikan dan memahami operasi dan model TensorFlow. Untuk mengetahui informasi selengkapnya, lihat TensorBoard.
-
instance TensorBoard
- Instance TensorBoard adalah resource regional yang menyimpan Eksperimen Vertex AI TensorBoard yang terkait dengan Project. Anda dapat membuat beberapa instance TensorBoard dalam suatu project jika, misalnya, Anda menginginkan beberapa instance dengan CMEK yang aktif. Hal ini sama dengan resource TensorBoard pada API.
-
Nama resource TensorBoard
- Nama Resource TensorBoard digunakan untuk mengidentifikasi instance Vertex AI TensorBoard sepenuhnya. Formatnya adalah sebagai berikut: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
TensorFlow Extended (TFX)
- TensorFlow Extended (TFX) adalah platform end-to-end untuk men-deploy pipeline machine learning produksi berdasarkan platform TensorFlow.
-
Container TensorFlow Serving
- Image container khusus yang dirancang untuk secara efisien menayangkan model TensorFlow untuk inferensi, yang digunakan saat men-deploy model tabular kustom dengan Vertex AI Model Monitoring.
-
selisih waktu
- Selisih waktu bersifat relatif terhadap awal video.
-
segmen waktu
- Segmen waktu diidentifikasi dengan selisih waktu awal dan akhir.
-
metrik deret waktu
- Metrik deret waktu adalah nilai metrik longitudinal dengan setiap nilai mewakili langkah dalam bagian rutinitas pelatihan dari suatu operasi. Metrik deret waktu disimpan di Vertex AI TensorBoard. Eksperimen Vertex AI menyimpan referensi ke resource Vertex TensorBoard.
-
token
- Token dalam model bahasa adalah unit atomik yang digunakan model untuk melatih dan membuat inferensi, yaitu kata, morfem, dan karakter. Di domain di luar model bahasa, token dapat merepresentasikan jenis unit atomik lainnya. Misalnya, dalam visi komputer, token dapat berupa subset gambar. Untuk mengetahui informasi selengkapnya, lihat Mencantumkan dan menghitung token.
-
cluster pelatihan
- Cluster pelatihan adalah sekelompok resource komputasi yang saling terhubung (seperti virtual machine, GPU, dan penyimpanan terkait) yang dikonfigurasi secara khusus dan didedikasikan untuk menjalankan beban kerja pelatihan model machine learning secara terdistribusi. Cluster ini dirancang untuk memberikan daya komputasi dan skalabilitas yang diperlukan untuk melatih model kompleks secara efisien, sering kali memanfaatkan pemrosesan paralel di beberapa node. Untuk mengetahui informasi selengkapnya, lihat Struktur cluster pelatihan.
-
set pelatihan
- Di Vertex AI, set pelatihan adalah bagian terbesar dari data Anda (biasanya 80%) yang digunakan untuk melatih model machine learning. Model mempelajari pola dan hubungan dalam data ini untuk membuat inferensi. Set pelatihan berbeda dengan set validasi dan pengujian, yang digunakan untuk mengevaluasi performa model selama dan setelah pelatihan.
-
trajektori
- "Trajektori" mengacu pada urutan langkah atau tindakan yang dilakukan oleh agen atau model. Metrik ini sering digunakan dalam evaluasi model generatif, yang menilai kemampuan model untuk menghasilkan teks, kode, atau konten lainnya. Ada beberapa jenis metrik lintasan yang dapat digunakan untuk mengevaluasi model generatif, termasuk pencocokan persis lintasan, pencocokan lintasan berurutan, pencocokan lintasan urutan apa pun, dan presisi lintasan. Metrik ini mengukur kesamaan antara output model dan sekumpulan output referensi buatan manusia.
-
Transformer
- "Transformer" adalah arsitektur jaringan neural yang mendasari sebagian besar model generatif canggih. Model ini digunakan dalam berbagai aplikasi model bahasa, termasuk terjemahan. Transformer terdiri dari encoder dan decoder; encoder mengonversi teks input menjadi representasi perantara, dan decoder mengonversinya menjadi output yang berguna. Model ini menggunakan mekanisme self-attention untuk mengumpulkan konteks dari kata-kata di sekitar kata yang sedang diproses. Meskipun melatih Transformer memerlukan resource yang signifikan, menyesuaikan Transformer terlatih untuk aplikasi tertentu lebih efisien.
-
positif benar
- "Positif benar" mengacu pada inferensi saat model mengidentifikasi kelas positif dengan benar. Misalnya, jika model dilatih untuk mengidentifikasi pelanggan yang akan membeli jaket, positif benar adalah memprediksi dengan benar bahwa pelanggan akan melakukan pembelian tersebut.
-
artefak yang tidak dikelola
- Artefak yang ada di luar konteks Vertex AI.
-
vektor
- Vektor mengacu pada representasi numerik dari teks, gambar, atau video yang menangkap hubungan antar-input. Model machine learning cocok untuk membuat penyematan dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat menggunakan penyematan untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang khusus untuk konten. Untuk mengetahui informasi selengkapnya, lihat Ringkasan API Embeddings.
-
Jenis data Vertex AI
- Jenis data Vertex AI adalah "gambar", "teks", "tabel", dan "video".
-
Eksperimen Vertex AI
- Vertex AI Experiments memungkinkan pengguna melacak hal berikut: 1. Langkah-langkah operasi eksperimen (misalnya, pra-pemrosesan dan pelatihan). 2. Input (misalnya, algoritma, parameter, dan set data). 3. Output dari langkah-langkah tersebut (misalnya, model, checkpoint, dan metrik).
-
Vertex AI Model Registry
- Vertex AI Model Registry adalah repositori pusat tempat Anda dapat mengelola siklus proses model ML. Dari Vertex AI Model Registry, Anda mendapatkan ringkasan model sehingga dapat mengatur, melacak, dan melatih versi baru dengan lebih baik. Jika memiliki versi model yang ingin di-deploy, Anda dapat menetapkannya ke endpoint langsung dari registry, atau dengan menggunakan alias, Anda dapat men-deploy model ke endpoint. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Model Registry.
-
Vertex AI SDK untuk Python
- Vertex AI SDK untuk Python menyediakan fungsi yang serupa dengan library klien Python Vertex AI, hanya saja SDK ini lebih umum dan kurang terperinci.
-
Vertex AI TensorBoard
- Vertex AI TensorBoard adalah layanan terkelola dan skalabel di Google Cloud yang memungkinkan data scientist dan engineer ML memvisualisasikan eksperimen machine learning mereka, men-debug pelatihan model, dan melacak metrik performa menggunakan antarmuka TensorBoard open source yang sudah dikenal. Layanan ini terintegrasi dengan lancar dengan Vertex AI Training dan layanan lainnya, menyediakan penyimpanan persisten untuk data eksperimen dan memungkinkan analisis kolaboratif pengembangan model. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI TensorBoard.
-
Eksperimen Vertex AI TensorBoard
- Data yang terkait dengan Eksperimen dapat dilihat di aplikasi web TensorBoard (skalar, histogram, distribusi, dll.). Skalar deret waktu dapat dilihat di Konsol Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Membandingkan dan menganalisis operasi.
-
Vertex AI Feature Store
- Layanan terkelola untuk menyimpan, menyajikan, dan mengelola fitur machine learning. Untuk mengetahui informasi selengkapnya, lihat Tentang Vertex AI Feature Store.
-
Vertex ML Metadata
- Sistem untuk melacak dan menganalisis metadata dari alur kerja machine learning. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex ML Metadata.
-
Vertex AI Vizier
- Layanan pengoptimalan black-box untuk menyesuaikan hyperparameter dan parameter lainnya. Untuk mengetahui informasi selengkapnya, lihat ringkasan Vertex AI Vizier.
-
Vertex AI Workbench
- Vertex AI Workbench adalah lingkungan pengembangan terpadu berbasis notebook Jupyter yang mendukung seluruh alur kerja data science, mulai dari eksplorasi dan analisis data hingga pengembangan, pelatihan, dan deployment model. Vertex AI Workbench menyediakan infrastruktur terkelola dan skalabel dengan integrasi bawaan ke layanan Google Cloud lainnya seperti BigQuery dan Cloud Storage, sehingga memungkinkan ilmuwan data melakukan tugas machine learning secara efisien tanpa mengelola infrastruktur yang mendasarinya. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Workbench.
-
segmen video
- Segmen video diidentifikasi dengan selisih waktu awal dan akhir video.
-
virtual private cloud (VPC)
- Virtual private cloud adalah kumpulan resource komputasi bersama yang dapat dikonfigurasi dan sesuai permintaan, yang dialokasikan di lingkungan cloud publik serta menyediakan tingkat isolasi antara organisasi yang berbeda menggunakan resource tersebut.
-
Kontrol Layanan VPC
- Kontrol Layanan VPC adalah fitur keamanan dalam Google Cloud yang memungkinkan organisasi membuat perimeter aman di seputar data dan resource sensitif mereka untuk memitigasi risiko pemindahan data yang tidak sah. Kontrol Layanan VPC mencapai hal ini dengan membatasi akses ke layanan dan data Google Cloud tertentu dari jaringan yang tidak sah dan mencegah data dipindahkan ke luar perimeter yang ditentukan ini, sehingga memberikan pertahanan yang kuat terhadap ancaman dari dalam dan kebocoran data yang tidak disengaja. Untuk mengetahui informasi selengkapnya, lihat Kontrol Layanan VPC.
-
worker node
- Node pekerja mengacu pada mesin atau instance komputasi individual dalam cluster yang bertanggung jawab untuk menjalankan tugas atau melakukan pekerjaan. Dalam sistem seperti cluster Kubernetes atau Ray, node adalah unit komputasi dasar.
-
kumpulan pekerja
- Komponen cluster Ray yang menjalankan tugas terdistribusi. Kumpulan worker dapat dikonfigurasi dengan jenis mesin tertentu dan mendukung penskalaan otomatis dan penskalaan manual. Untuk mengetahui informasi selengkapnya, lihat Struktur cluster pelatihan.