-
kumpulan anotasi
- Kumpulan anotasi berisi label yang berkaitan dengan file sumber yang diupload dalam sebuah set data. Kumpulan anotasi dikaitkan dengan jenis data dan tujuan (misalnya, video/klasifikasi).
-
Endpoint API
- Endpoint API adalah aspek konfigurasi layanan yang menentukan alamat jaringan, yang juga dikenal sebagai endpoint layanan (misalnya, aiplatform.googleapis.com).
-
Kredensial Default Aplikasi (ADC)
- Application Default Credentials (ADC) menyediakan cara mudah untuk mendapatkan kredensial otorisasi untuk digunakan dalam memanggil Google API. Fungsi ini paling cocok untuk kasus-kasus saat panggilan perlu memiliki identitas dan tingkat otorisasi yang sama untuk aplikasi yang tidak bergantung pada pengguna. Ini adalah pendekatan yang direkomendasikan untuk mengizinkan panggilan ke Google Cloud API, terutama saat Anda membangun aplikasi yang di-deploy ke virtual machine Google App Engine (GAE) atau Compute Engine. Untuk informasi selengkapnya, lihat Cara kerja Kredensial Default Aplikasi.
-
Perkiraan Tetangga Terdekat (ANN)
- Layanan Perkiraan Nearest Neighbor (ANN) adalah solusi latensi rendah berskala tinggi, untuk menemukan vektor serupa (atau lebih spesifiknya, "embeddings") untuk korpus besar. Untuk informasi selengkapnya, lihat Cara menggunakan Penelusuran Vektor untuk pencocokan semantik.
-
artefak
- Artefak adalah entity atau bagian data terpisah yang dihasilkan dan digunakan oleh alur kerja machine learning. Contoh artefak meliputi set data, model, file input, dan log pelatihan.
-
Artifact Registry
- Artifact Registry adalah layanan pengelolaan artefak universal. Layanan ini direkomendasikan untuk mengelola container dan artefak lain di Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Artifact Registry.
-
Kecerdasan Buatan (AI)
- Kecerdasan buatan (atau AI) adalah studi dan desain mesin yang tampak "cerdas", yang berarti meniru fungsi manusia atau intelektual seperti gerakan mekanis, penalaran, atau pemecahan masalah. Salah satu subbidang AI yang paling populer adalah machine learning, yang menggunakan pendekatan statistik dan berbasis data untuk menciptakan AI. Namun, beberapa orang menggunakan kedua istilah ini secara bergantian.
-
autentikasi
- Proses verifikasi identitas klien (yang mungkin merupakan pengguna atau proses lain) untuk tujuan mendapatkan akses ke sistem yang aman. Klien yang telah membuktikan identitasnya dikatakan telah diotentikasi. Untuk mengetahui informasi selengkapnya, lihat Metode autentikasi di Google.
-
Otomatis berdampingan (AutoSxS)
- Otomatis berdampingan (AutoSxS) adalah alat evaluasi berbantuan model yang membandingkan dua model bahasa besar (LLM) secara berdampingan. Alat ini dapat digunakan untuk mengevaluasi performa model AI generatif di Vertex AI Model Registry atau prediksi yang telah dibuat sebelumnya. AutoSxS menggunakan autorater untuk menentukan model mana yang memberikan respons lebih baik terhadap suatu perintah. AutoSxS tersedia secara on-demand dan mengevaluasi model bahasa yang performanya sebanding dengan pelabel manusia.
-
AutoML
- Algoritma machine learning yang "belajar belajar" melalui pengoptimalan black-box. Untuk informasi selengkapnya, lihat Glosarium ML.
-
autorater
- Autorater adalah model bahasa yang mengevaluasi kualitas respons model yang diberikan pada perintah inferensi asli. Model ini digunakan di pipeline AutoSxS untuk membandingkan prediksi dua model dan menentukan model mana yang berperforma terbaik. Untuk mengetahui informasi selengkapnya, lihat Autorater.
-
dasar pengukuran
- Model yang digunakan sebagai titik referensi untuk membandingkan seberapa baik performa model lain (biasanya yang lebih kompleks). Misalnya, model regresi logistik dapat berfungsi sebagai dasar yang baik untuk model yang mendalam. Untuk masalah tertentu, dasar pengukuran ini membantu developer model mengukur performa minimal yang diharapkan yang harus dicapai model baru agar model baru dapat berguna. Untuk mengetahui informasi selengkapnya, lihat Set data dasar dan target.
-
kumpulan
- Kumpulan contoh yang digunakan dalam satu iterasi pelatihan. Ukuran batch menentukan jumlah contoh dalam batch.
-
ukuran tumpukan
- Jumlah contoh dalam batch. Misalnya, ukuran tumpukan PGS adalah 1, sedangkan ukuran tumpukan dari tumpukan mini biasanya antara 10 dan 1.000. Ukuran tumpukan biasanya tetap selama pelatihan dan inferensi; namun, TensorFlow mengizinkan ukuran tumpukan dinamis.
-
prediksi batch
- Prediksi batch mengambil sekumpulan permintaan prediksi dan mengeluarkan hasilnya dalam satu file. Untuk mengetahui informasi selengkapnya, lihat Ringkasan mendapatkan prediksi di Vertex AI.
-
bias
- 1. Stereotip, prasangka, atau favoritisme terhadap beberapa hal, orang, atau kelompok daripada yang lain. Bias ini dapat memengaruhi pengumpulan dan interpretasi data, desain sistem, dan bagaimana pengguna berinteraksi dengan sistem. 2. Error sistematis yang disebabkan oleh prosedur sampling atau pelaporan.
-
bidrectional
- Istilah yang digunakan untuk menggambarkan sistem yang mengevaluasi teks yang mendahului dan mengikuti bagian target teks. Sebaliknya, sistem searah hanya mengevaluasi teks yang mendahului bagian target teks.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT adalah metode representasi bahasa pra-pelatihan, artinya kita melatih model "pemahaman bahasa" tujuan umum pada korpus teks besar (seperti Wikipedia), dan kemudian menggunakan model itu untuk tugas NLP downstream yang kita perlukan (seperti menjawab pertanyaan). BERT mengungguli metode sebelumnya karena merupakan sistem dua arah dan tanpa pengawasan pertama untuk NLP pra-pelatihan.
-
Bilingual Evaluation Understudy (BLEU)
- Ukuran populer untuk mengevaluasi kualitas algoritme terjemahan mesin dengan membandingkan outputnya dengan hasil terjemahan manusia atau lebih.
-
kotak pembatas
- Kotak pembatas untuk objek dalam frame video dapat ditentukan menggunakan salah satu dari dua cara, yaitu (i) Menggunakan 2 verteks yang terdiri dari satu set koordinat x,y jika berlawanan secara diagonal dengan persegi panjang. Misalnya: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Menggunakan keempat verteks. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan data video.
-
bucket
- Folder tingkat atas untuk Cloud Storage. Nama bucket harus unik di semua pengguna Cloud Storage. Bucket berisi file. Untuk informasi selengkapnya, lihat Ringkasan produk Cloud Storage.
-
chat
- Konten dialog dua arah dengan sistem ML, biasanya model bahasa besar. Interaksi sebelumnya dalam chat (hal yang Anda ketik dan bagaimana model bahasa besar merespons) menjadi konteks untuk bagian chat berikutnya. Chatbot adalah aplikasi dari model bahasa besar.
-
pos pemeriksaan
- Data yang mengambil status parameter model selama pelatihan atau setelah pelatihan selesai. Misalnya, selama pelatihan, Anda dapat: 1. Hentikan pelatihan, mungkin karena sengaja atau mungkin akibat error tertentu. 2. Ambil foto checkpoint. 3. Kemudian, muat ulang checkpoint, mungkin di hardware lain. 4. Mulai ulang pelatihan. Dalam Gemini, checkpoint mengacu pada versi tertentu model Gemini yang dilatih dengan set data tertentu.
-
model klasifikasi
- Model yang prediksinya berupa class. Misalnya, berikut ini adalah semua model klasifikasi: Model yang memprediksi bahasa kalimat input (bahasa Prancis? Spanyol? Italia?). Model yang memprediksi spesies pohon (Maple? Oak? Baobab?). Model yang memprediksi kelas positif atau negatif untuk kondisi medis tertentu.
-
metrik klasifikasi
- Metrik klasifikasi yang didukung di Vertex AI SDK untuk Python adalah matriks konfusi dan kurva ROC.
-
Cloud TPU
- Akselerator hardware khusus yang dirancang untuk mempercepat workload machine learning di Google Cloud.
-
image container
- Image container adalah paket yang menyertakan kode yang dapat dieksekusi komponen dan definisi lingkungan tempat kode dijalankan. Untuk mengetahui informasi selengkapnya, lihat Ringkasan pelatihan kustom.
-
konteks
- Konteks digunakan untuk mengelompokkan artefak dan eksekusi dalam satu kategori dengan jenis tertentu yang dapat dikueri. Konteks dapat digunakan untuk merepresentasikan kumpulan metadata. Contoh Konteks adalah operasi pipeline machine learning.
-
cache konteks
- Cache konteks di Vertex AI adalah data dalam jumlah besar yang dapat digunakan dalam beberapa permintaan ke model Gemini. Konten yang di-cache disimpan di region tempat permintaan untuk membuat cache dibuat. Metode ini dapat berupa jenis MIME apa pun yang didukung oleh model multimodal Gemini, seperti teks, audio, atau video. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyimpanan konteks dalam cache.
-
jendela konteks
- Jumlah token yang dapat diproses oleh model dalam prompt tertentu. Semakin besar jendela konteks, semakin banyak informasi yang dapat digunakan model untuk memberikan respons yang koheren dan konsisten terhadap perintah.
-
Kunci enkripsi yang dikelola pelanggan (CMEK)
- Kunci enkripsi yang dikelola pelanggan (CMEK) adalah integrasi yang memungkinkan pelanggan mengenkripsi data di layanan Google yang ada menggunakan kunci yang mereka kelola di Cloud KMS (juga dikenal sebagai Storky). Kunci dalam Cloud KMS adalah kunci enkripsi kunci yang melindungi data mereka. Untuk mengetahui informasi selengkapnya, lihat Kunci enkripsi yang dikelola pelanggan (CMEK).
-
Penampung kustom
- Image container Docker yang Anda bangun dan sediakan untuk menjalankan kode pelatihan. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penampung kustom.
-
CustomJob
- CustomJob adalah salah satu dari tiga resource Vertex AI yang dapat dibuat pengguna untuk melatih model kustom di Vertex AI. Tugas pelatihan kustom adalah cara dasar untuk menjalankan kode pelatihan machine learning (ML) kustom di Vertex AI. Untuk informasi selengkapnya, lihat Membuat tugas pelatihan kustom.
-
Pelatihan kustom
- Kemampuan untuk menjalankan kode pelatihan Anda sendiri di infrastruktur Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Ringkasan pelatihan kustom.
-
Daskok
- Dask adalah platform komputasi terdistribusi yang sering digunakan dengan TensorFlow, Pytorch, dan framework ML lainnya untuk mengelola tugas pelatihan terdistribusi. Untuk mengetahui informasi selengkapnya, lihat Wikipedia.
-
analisis data
- Memperoleh pemahaman tentang data dengan mempertimbangkan sampel, pengukuran, dan visualisasi. Analisis data bisa sangat berguna ketika sebuah {i>dataset<i} pertama kali diterima, sebelum membangun model yang pertama. Hal ini juga penting dalam memahami masalah eksperimen dan {i>debugging <i}dengan sistem.
-
pengayaan data
- Secara artifisial meningkatkan rentang dan jumlah contoh pelatihan dengan mengubah contoh yang ada untuk membuat contoh tambahan. Misalnya, anggaplah gambar adalah salah satu fitur Anda, tetapi set data Anda tidak berisi cukup contoh gambar bagi model untuk mempelajari asosiasi yang berguna. Idealnya, tambahkan gambar berlabel yang memadai ke set data agar model Anda dapat dilatih dengan benar. Jika hal itu tidak memungkinkan, augmentasi data dapat diputar, direntangkan, dan dicerminkan setiap gambar untuk menghasilkan banyak varian dari gambar aslinya, yang mungkin menghasilkan data berlabel yang memadai untuk memungkinkan pelatihan yang sangat baik.
-
DataFrame
- Jenis data pandas yang populer untuk merepresentasikan set data dalam memori. DataFrame dapat dianalogikan dengan tabel atau spreadsheet. Setiap kolom DataFrame memiliki nama (header), dan setiap baris diidentifikasi oleh angka unik. Setiap kolom dalam DataFrame disusun seperti array 2D, kecuali setiap kolom dapat diberi jenis datanya sendiri.
-
set data (set data)
- Set data secara luas didefinisikan sebagai kumpulan data terstruktur atau tidak terstruktur. Kumpulan data mentah, biasanya (tetapi tidak secara eksklusif) diatur dalam salah satu format berikut: {i>spreadsheet<i} file dalam format CSV ({i>comma-separated values<i}). Untuk informasi lebih lanjut, lihat Membuat set data.
-
decoder
- Secara umum, semua sistem ML yang melakukan konversi dari representasi yang diproses, padat, atau internal menjadi representasi yang lebih mentah, jarang, atau eksternal. Decoder sering kali merupakan komponen dari model yang lebih besar, yang sering dipasangkan dengan encoder. Dalam tugas urutan-ke-urutan, decoder dimulai dengan status internal yang dihasilkan oleh encoder untuk memprediksi urutan berikutnya.
-
jaringan neural dalam (DNN)
- Jaringan neural dengan beberapa lapisan tersembunyi, biasanya diprogram melalui teknik deep learning.
-
kedalaman
- Jumlah hal-hal berikut ini dalam jaringan neural: 1. jumlah lapisan tersembunyi 2. jumlah lapisan output, yang biasanya satu 3. jumlah lapisan embedding. Misalnya, jaringan neural dengan lima lapisan tersembunyi dan satu lapisan output memiliki kedalaman 6. Perhatikan bahwa lapisan input tidak memengaruhi kedalaman.
-
DevOps
- DevOps adalah rangkaian produk Google Cloud Platform, misalnya, Artifact Registry, Cloud Deploy.
-
penghentian awal
- Metode untuk regularisasi yang melibatkan penghentian pelatihan sebelum kerugian pelatihan selesai menurun. Di penghentian awal, Anda sengaja menghentikan pelatihan model saat kerugian pada set data validasi mulai meningkat; yaitu ketika performa generalisasi memburuk.
-
penyematan
- Representasi numerik dari kata atau potongan teks. Angka ini menangkap makna semantik dan konteks teks. Kata atau teks yang serupa atau terkait cenderung memiliki embedding yang serupa, yang berarti kata atau teks tersebut akan saling berdekatan dalam ruang vektor berdimensi tinggi.
-
ruang penyematan (ruang laten)
- Dalam AI Generatif, ruang penyematan mengacu pada representasi numerik teks, gambar, atau video yang menangkap hubungan antar-input. Model machine learning, khususnya model AI generatif, mahir membuat embedding ini dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat memanfaatkan embeddings untuk memproses dan menghasilkan bahasa, mengenali makna kompleks, serta hubungan semantik khusus untuk konten.
-
vektor embedding
- Representasi vektor padat dan sering kali berdimensi rendah dari suatu item sedemikian rupa sehingga, jika dua item mirip secara semantik, embeddings masing-masing terletak berdekatan satu sama lain dalam ruang vektor embedding.
-
encoder
- Secara umum, semua sistem ML yang melakukan konversi dari representasi mentah, jarang, atau eksternal menjadi representasi yang lebih diproses, lebih padat, atau lebih internal. Encoder sering kali merupakan komponen dari model yang lebih besar, yang sering dipasangkan dengan decoder. Beberapa transformer memasangkan encoder dengan decoder, meskipun transformer lain hanya menggunakan encoder atau hanya decoder. Beberapa sistem menggunakan output encoder sebagai input untuk jaringan klasifikasi atau regresi. Dalam tugas urutan-ke-urutan, encoder mengambil urutan input dan menampilkan status internal (vektor). Kemudian, decoder menggunakan status internal tersebut untuk memprediksi urutan berikutnya.
-
endpoint
- Resource tempat Anda dapat men-deploy model terlatih untuk menginferensi prediksi. Untuk mengetahui informasi selengkapnya, lihat Memilih jenis endpoint.
-
ansambel
- Kumpulan model yang dilatih secara independen yang prediksinya dirata-ratakan atau diagregasi. Dalam banyak kasus, suatu ensembel menghasilkan prediksi yang lebih baik daripada model tunggal. Misalnya, forest acak adalah ansambel yang dibangun dari beberapa pohon keputusan. Perhatikan bahwa tidak semua hutan keputusan adalah ansambel.
-
lingkungan
- Dalam reinforcement learning, dunia yang berisi agen dan memungkinkan agen untuk mengamati keadaan dunia. Misalnya, dunia yang direpresentasikan dapat berupa game seperti catur, atau dunia fisik seperti labirin. Ketika agen menerapkan tindakan ke lingkungan, maka lingkungan akan beralih antar-status.
-
evaluasi (eval)
- Eval, yang merupakan kependekan dari "evaluasi", adalah jenis eksperimen yang mengirimkan kueri yang dicatat atau kueri sintetis melalui dua stack Penelusuran--stack eksperimental yang menyertakan perubahan dan stack dasar tanpa perubahan Anda. Evaluasi menghasilkan perbedaan dan metrik yang memungkinkan Anda mengevaluasi dampak, kualitas, dan efek lainnya dari perubahan Anda pada hasil penelusuran dan bagian lain dari pengalaman pengguna Google. Evaluasi digunakan selama penyesuaian, atau iterasi, pada perubahan Anda. Metrik ini juga digunakan sebagai bagian dari peluncuran perubahan pada traffic pengguna aktif.
-
peristiwa
- Peristiwa menjelaskan hubungan antara artefak dan eksekusi. Setiap artefak dapat dihasilkan oleh suatu eksekusi dan digunakan oleh eksekusi lainnya. Peristiwa membantu Anda menentukan asal artefak dalam alur kerja ML dengan merangkai artefak dan eksekusi.
-
eksekusi
- Eksekusi adalah kumpulan data dari setiap langkah alur kerja machine learning, biasanya dianotasi dengan parameter runtime-nya. Contoh eksekusi meliputi penyerapan data, validasi data, pelatihan model, evaluasi model, dan deployment model.
-
eksperimen
- Eksperimen adalah konteks yang dapat berisi kumpulan n operasi eksperimen selain proses pipeline tempat pengguna dapat menyelidiki—sebagai suatu grup—berbagai konfigurasi, seperti hyperparameter atau artefak input.
-
operasi eksperimen
- Operasi eksperimen dapat berisi metrik, parameter, eksekusi, dan artefak yang ditentukan pengguna, serta resource Vertex (misalnya, PipelineJob).
-
Explainable AI
- Alat untuk memahami dan menafsirkan perilaku model machine learning. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex Explainable AI.
-
analisis data eksploratif
- Dalam statistik, analisis data eksploratif (EDA) merupakan pendekatan untuk menganalisis set data guna merangkum karakteristik utamanya, sering kali dengan metode visual. Model statistik dapat digunakan ataupun tidak, tetapi utamanya EDA digunakan untuk melihat apa yang dapat ditunjukkan data kepada kita di luar tugas pengujian hipotesis atau pemodelan formal.
-
Skor F1
- Skor F1 adalah metrik yang digunakan untuk mengevaluasi akurasi output model. Alat ini sangat berguna untuk menilai performa model pada tugas yang mengutamakan presisi dan perolehan, seperti ekstraksi informasi. Untuk model AI generatif, skor F1 dapat digunakan untuk membandingkan prediksi model dengan data kebenaran dasar untuk menentukan akurasi model. Namun, untuk tugas generatif seperti peringkasan dan pembuatan teks, metrik lain seperti skor Rough-L mungkin lebih sesuai.
-
fitur
- Dalam machine learning (ML), fitur adalah karakteristik atau atribut instance atau entity yang digunakan sebagai input untuk melatih model ML atau membuat prediksi.
-
rekayasa fitur
- Rekayasa fitur adalah proses mengubah data mentah machine learning (ML) menjadi fitur yang dapat digunakan untuk melatih model ML atau membuat prediksi.
-
grup fitur
- Grup fitur adalah resource registry fitur yang sesuai dengan tabel sumber BigQuery atau tampilan yang berisi data fitur. Tampilan fitur dapat berisi fitur dan dapat dianggap sebagai pengelompokan logis kolom fitur dalam sumber data.
-
kumpulan data fitur
- Kumpulan data fitur adalah penggabungan semua nilai fitur yang mendeskripsikan atribut entitas unik pada titik waktu tertentu.
-
registry fitur
- Registry fitur adalah antarmuka pusat untuk merekam sumber data fitur yang ingin Anda sajikan untuk prediksi online. Untuk informasi selengkapnya, lihat Penyiapan Registry Fitur.
-
penyajian fitur
- Penyajian fitur adalah proses mengekspor atau mengambil nilai fitur untuk pelatihan atau inferensi. Di Vertex AI, ada dua jenis penyajian fitur, yaitu layanan online dan offline. Penyajian online mengambil nilai fitur terbaru dari subset sumber data fitur untuk prediksi online. Penayangan offline atau batch mengekspor data fitur dalam volume tinggi—termasuk data historis—untuk pemrosesan offline, seperti pelatihan model ML.
-
stempel waktu fitur
- Stempel waktu fitur menunjukkan kapan serangkaian nilai fitur dalam kumpulan data fitur tertentu untuk entity dihasilkan.
-
nilai fitur
- Nilai fitur sesuai dengan nilai aktual dan terukur fitur (atribut) dari sebuah instance atau entity. Kumpulan nilai fitur untuk entity unik yang mewakili kumpulan data fitur yang sesuai dengan entity.
-
tampilan fitur
- Tampilan fitur adalah kumpulan logis fitur yang terwujud dari sumber data BigQuery ke instance penyimpanan online. Tampilan fitur menyimpan dan memperbarui data fitur pelanggan secara berkala, yang diperbarui secara berkala dari sumber BigQuery. Tampilan fitur berkaitan dengan penyimpanan data fitur baik secara langsung maupun melalui pengaitan ke resource registry fitur.
-
model dasar (FM)
- Model yang dilatih dengan data luas sehingga dapat diadaptasi (misalnya, di-fine-tune) ke berbagai tugas downstream.
-
Operasi Model Dasar (FMOP)
- FMOps memperluas kemampuan MLOps dan berfokus pada efisiensi produksi FM yang dilatih sebelumnya (dilatih dari awal) atau disesuaikan (disesuaikan secara mendetail).
-
Google Cloud pipeline components SDK
- Google Cloud pipeline components (GCPC) SDK menyediakan sekumpulan komponen Kubeflow Pipeline bawaan yang berkualitas produksi, berperforma tinggi, dan mudah digunakan. Anda dapat menggunakan Google Cloud Pipeline Components untuk menentukan dan menjalankan pipeline ML di Vertex AI Pipelines serta backend eksekusi pipeline ML lainnya yang sesuai dengan Kubeflow Pipelines. Untuk mengetahui informasi selengkapnya, lihat Pengantar Komponen Pipeline Google Cloud.
-
Google Embedded Modem System (GEMS)
- GEMS adalah framework software tersemat yang menargetkan modem, serta serangkaian alur kerja dan infrastruktur pengembangan yang menyertainya. Visi inti GEMS adalah menyediakan kode sistem modem berkualitas tinggi dengan penggunaan kembali yang tinggi di banyak perangkat Google yang berisi modem. Untuk mencapai visi yang luas ini, GEMS menyediakan lingkungan yang komprehensif bagi pengembang, yang terdiri dari elemen-elemen penyusun utama yang digambarkan di bawah ini.
-
gradien
- Vektor derivatif parsial sehubungan dengan semua variabel independen. Dalam machine learning, gradien adalah vektor turunan parsial dari fungsi model. Gradien menunjukkan arah pendakian paling curam.
-
grafik
- Dalam konteks Vertex AI, grafik mengacu pada struktur data yang merepresentasikan hubungan antara entity dan atributnya. Aplikasi ini digunakan untuk membuat model dan menganalisis data yang kompleks, seperti grafik pengetahuan, jejaring sosial, dan proses bisnis. Untuk informasi selengkapnya, lihat Pengantar Metadata Vertex ML.
-
kebenaran dasar (GT)
- Kebenaran dasar adalah istilah yang digunakan di berbagai bidang untuk merujuk pada kebenaran absolut dari beberapa masalah keputusan atau pengukuran, yang bertentangan dengan perkiraan beberapa sistem. Dalam machine learning, istilah "ground truth" mengacu pada set pelatihan untuk teknik supervised learning.
-
heuristik
- Solusi sederhana dan cepat diterapkan untuk suatu masalah. Misalnya, "Dengan heuristik, kami mencapai akurasi 86%. Saat kami beralih ke deep neural network, akurasinya meningkat hingga 98%".
-
lapisan tersembunyi
- Lapisan dalam jaringan neural antara lapisan input (fitur) dan lapisan output (prediksi). Setiap lapisan tersembunyi terdiri dari satu atau beberapa neuron. Deep neural network berisi lebih dari satu lapisan tersembunyi.
-
histogram
- Tampilan grafis variasi dalam satu set data menggunakan batang. Histogram memvisualisasikan pola yang sulit dideteksi dalam tabel angka sederhana.
-
hyperparameter
- Hyperparameter mengacu pada variabel yang mengatur proses pelatihan model machine learning. Variabel ini dapat mencakup kecepatan pembelajaran, nilai momentum dalam pengoptimal, dan jumlah unit dalam lapisan tersembunyi terakhir dari model. Penyesuaian hyperparameter di Vertex AI melibatkan pengoperasian beberapa uji coba aplikasi pelatihan dengan nilai yang berbeda untuk hyperparameter yang dipilih, yang ditetapkan dalam batas yang ditentukan. Sasarannya adalah mengoptimalkan setelan hyperparameter untuk memaksimalkan akurasi prediksi model. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
pengenalan citra
- Pengenalan citra adalah proses mengklasifikasikan objek, pola, atau konsep dalam sebuah gambar. Hal ini juga dikenal sebagai klasifikasi gambar. Pengenalan citra adalah subbidang dari machine learning dan computer vision.
-
indeks
- Sekumpulan vektor yang di-deploy bersama untuk penelusuran kemiripan. Vektor dapat ditambahkan ke indeks atau dihapus dari indeks. Kueri penelusuran kemiripan dikeluarkan pada indeks tertentu dan akan menelusuri vektor dalam indeks tersebut.
-
inferensi
- Dalam konteks platform Vertex AI, inferensi mengacu pada proses menjalankan titik data melalui model machine learning untuk menghitung output, seperti skor numerik tunggal. Proses ini juga dikenal sebagai "mengoperasionalkan model machine learning" atau "memasukkan model machine learning ke dalam produksi". Inferensi adalah langkah penting dalam alur kerja machine learning, karena memungkinkan model digunakan untuk membuat prediksi pada data baru. Di Vertex AI, inferensi dapat dilakukan dengan berbagai cara, termasuk prediksi batch dan prediksi online. Prediksi batch melibatkan pengoperasian sekelompok permintaan prediksi dan mengeluarkan hasilnya dalam satu file, sedangkan prediksi online memungkinkan prediksi secara real-time pada setiap titik data.
-
pengambilan informasi (IR)
- Pengambilan informasi (IR) adalah komponen utama dari Vertex AI Search. Proses tersebut adalah proses menemukan dan mengambil informasi yang relevan dari kumpulan data yang besar. Dalam konteks Vertex AI, IR digunakan untuk mengambil dokumen dari korpus berdasarkan kueri pengguna. Vertex AI menawarkan serangkaian API untuk membantu Anda membangun aplikasi Retrieval Augmented Generation (RAG) sendiri atau untuk membangun Mesin telusur sendiri. Untuk mengetahui informasi selengkapnya, lihat Menggunakan Vertex AI Search sebagai backend pengambilan menggunakan RAG Engine.
-
kecepatan pembelajaran (ukuran langkah)
- Kecepatan pembelajaran adalah hyperparameter yang digunakan untuk menyesuaikan proses pengoptimalan model machine learning. Fungsi ini menentukan ukuran langkah yang digunakan model untuk memperbarui bobotnya selama pelatihan. Kecepatan pembelajaran yang lebih tinggi dapat menghasilkan konvergensi yang lebih cepat, tetapi dapat menyebabkan ketidakstabilan atau overfitting. Sebaliknya, kecepatan pembelajaran yang lebih rendah dapat menyebabkan konvergensi lebih lambat tetapi dapat membantu mencegah overfitting, tanpa adanya sumber. Untuk informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
kerugian (biaya)
- Selama pelatihan model yang diawasi, ukuran seberapa jauh prediksi model dari labelnya. Fungsi kerugian menghitung kerugian.
-
Machine Learning Metadata
- ML Metadata (MLMD) adalah library untuk merekam dan mengambil metadata yang terkait dengan alur kerja developer ML dan data scientist. MLMD merupakan bagian integral dari TensorFlow Extended (TFX), tetapi didesain agar dapat digunakan secara independen. Sebagai bagian dari platform TFX yang lebih luas, sebagian besar pengguna hanya berinteraksi dengan MLMD saat memeriksa hasil komponen pipeline, misalnya di notebook atau di TensorBoard.
-
set data terkelola
- Objek set data yang dibuat dan dihosting oleh Vertex AI.
-
resource metadata
- Vertex ML Metadata mengekspos model data seperti grafik untuk merepresentasikan metadata yang dihasilkan dan digunakan dari alur kerja ML. Konsep utamanya adalah artefak, eksekusi, peristiwa, dan konteks.
-
MetadataSchema
- MetadataSchema menjelaskan skema untuk jenis artefak, eksekusi, atau konteks tertentu. MetadataSchemas digunakan untuk memvalidasi pasangan nilai kunci selama pembuatan resource Metadata yang sesuai. Validasi skema hanya dilakukan pada kolom yang cocok antara resource dan MetadataSchema. Skema jenis direpresentasikan menggunakan Objek Skema OpenAPI, yang harus dideskripsikan menggunakan YAML.
-
MetadataStore
- MetadataStore adalah container tingkat atas untuk resource metadata. MetadataStore bersifat regional dan berkaitan dengan project Google Cloud tertentu. Biasanya, organisasi menggunakan satu MetadataStore bersama untuk resource metadata dalam setiap project.
-
pipeline ML
- Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container.
-
model
- Semua model yang telah dilatih maupun tidak. Secara umum, konstruksi matematis apa pun yang memproses data input dan menghasilkan output. Dengan frasa yang berbeda, model adalah seperangkat parameter dan struktur yang dibutuhkan sistem untuk membuat prediksi.
-
distilasi model (distilasi pengetahuan, model pengajar-siswa)
- Distilasi model adalah teknik yang memungkinkan model siswa yang lebih kecil untuk belajar dari model pengajar yang lebih besar. Model siswa dilatih untuk meniru output model pengajar, dan kemudian dapat digunakan untuk menghasilkan data baru atau membuat prediksi. Distilasi model sering digunakan untuk membuat model besar menjadi lebih efisien atau membuatnya lebih mudah diakses oleh perangkat dengan resource terbatas. Model ini juga dapat digunakan untuk meningkatkan generalisasi model dengan mengurangi overfitting.
-
Pemantauan Model
- Pemantauan Model adalah layanan untuk melacak kualitas dan perilaku model yang di-deploy. Untuk mengetahui informasi selengkapnya, lihat Pengantar Pemantauan Model Vertex AI.
-
nama resource model
- Nama resource untuk
model
adalah sebagai berikut:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Anda dapat menemukan ID model di Konsol Cloud pada halaman Model Registry.
- Nama resource untuk
-
Sistem File Jaringan (NFS)
- Sistem klien/server yang memungkinkan pengguna mengakses file di seluruh jaringan dan memperlakukannya seolah-olah mereka berada di direktori file lokal. Untuk informasi selengkapnya, lihat Memasang berbagi NFS untuk pelatihan kustom.
-
penyimpanan offline
- Penyimpanan offline adalah fasilitas penyimpanan yang menyimpan data fitur terbaru dan historis, yang biasanya digunakan untuk melatih model ML. Penyimpanan offline juga berisi nilai fitur terbaru, yang dapat Anda sajikan untuk prediksi online.
-
Prediksi online
- Memperoleh prediksi pada setiap instance secara sinkron. Untuk mengetahui informasi selengkapnya, lihat Prediksi online.
-
penyimpanan online
- Dalam pengelolaan fitur, penyimpanan online adalah fasilitas penyimpanan untuk nilai fitur terbaru yang akan disajikan untuk prediksi online.
-
parameter
- Parameter adalah nilai input dengan kunci yang mengonfigurasi operasi, mengatur perilaku operasi, dan memengaruhi hasil operasi. Contohnya termasuk kecepatan pembelajaran, tingkat putus sekolah, dan jumlah langkah pelatihan.
-
pipeline
- Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Pipelines.
-
komponen pipeline
- Sekumpulan kode mandiri yang melakukan satu langkah dalam alur kerja pipeline, seperti prapemrosesan data, transformasi data, dan pelatihan model.
-
tugas pipeline
- Tugas pipeline atau proses pipeline berkaitan dengan resource PipelineJob di Vertex AI API. ML adalah instance eksekusi dari definisi pipeline ML Anda, yang didefinisikan sebagai serangkaian tugas ML yang saling berhubungan oleh dependensi input-output.
-
operasi pipeline
- Satu atau beberapa PipelineJob Vertex dapat dikaitkan dengan eksperimen, dengan setiap PipelineJob direpresentasikan sebagai satu operasi. Dalam konteks ini, parameter operasi disimpulkan oleh parameter PipelineJob. Metrik disimpulkan dari artefak system.Metric yang dihasilkan oleh PipelineJob. Artefak proses disimpulkan dari artefak yang dihasilkan oleh PipelineJob tersebut.
-
template pipeline
- Definisi alur kerja ML yang dapat digunakan kembali oleh satu atau beberapa pengguna untuk membuat beberapa operasi pipeline.
-
kelas positif
- "Class positif" mengacu pada hasil atau kategori yang dilatih oleh model untuk memprediksi. Misalnya, jika model memprediksi apakah pelanggan akan membeli jaket, kelas positifnya adalah "pelanggan membeli jaket". Demikian juga, dalam model yang memprediksi pendaftaran pelanggan untuk setoran berjangka, kelas positifnya adalah "pelanggan yang mendaftar". Kebalikannya adalah "kelas negatif".
-
Container bawaan
- Image container Docker yang disediakan oleh Vertex AI dengan framework dan dependensi machine learning umum. Untuk mengetahui informasi selengkapnya, lihat Container bawaan untuk pelatihan kustom .
-
Akses Google Pribadi (PGA)
- Akses Google Pribadi mengaktifkan instance VM dengan hanya alamat IP internal (pribadi) (tanpa alamat IP eksternal) untuk menjangkau alamat IP publik Google API dan layanan Google. Untuk mengetahui informasi selengkapnya, lihat Mengonfigurasi Akses Google Pribadi.
-
akses layanan pribadi
- Akses layanan pribadi adalah koneksi pribadi antara jaringan Virtual Private Cloud (VPC) Anda dan jaringan yang dimiliki oleh Google atau penyedia layanan pihak ketiga. Protokol ini memungkinkan instance virtual machine (VM) di jaringan VPC Anda berkomunikasi dengan layanan ini menggunakan alamat IP internal, sehingga menghindari eksposur ke internet publik. Untuk mengetahui informasi selengkapnya, lihat Akses layanan pribadi.
-
Private Service Connect
- Private Service Connect adalah teknologi yang memungkinkan pelanggan Compute Engine memetakan IP pribadi dalam jaringan mereka ke jaringan VPC lain atau ke Google API. Untuk mengetahui informasi selengkapnya, lihat Private Service Connect.
-
Antarmuka Private Service Connect (PSC-I)
- Antarmuka Private Service Connect menyediakan cara bagi produsen untuk memulai koneksi ke resource jaringan apa pun di VPC konsumen secara pribadi.
-
kuantisasi
- Kuantisasi adalah teknik pengoptimalan model yang digunakan untuk mengurangi presisi angka yang digunakan untuk mewakili parameter model. Hal ini dapat menghasilkan model yang lebih kecil, konsumsi daya yang lebih rendah, dan latensi inferensi yang lebih rendah.
-
Hutan Acak
- Random Forest adalah algoritma machine learning yang digunakan untuk klasifikasi dan regresi. AI generatif bukan langsung model AI generatif itu sendiri, tetapi adalah komponen yang dapat digunakan dalam sistem AI generatif yang lebih besar. {i>Forest<i} acak terdiri dari beberapa pohon keputusan, dan prediksinya adalah agregasi dari prediksi dari pohon-pohon individu ini. Misalnya, dalam tugas klasifikasi, setiap pohon "memberikan suara" untuk sebuah class, dan prediksi akhir adalah class dengan suara terbanyak. Untuk informasi selengkapnya, lihat Hutan keputusan.
-
Gugus Ray di Vertex AI
- Cluster Ray di Vertex AI adalah cluster node komputasi terkelola yang dapat digunakan untuk menjalankan aplikasi Python dan machine learning (ML) terdistribusi. Layanan ini menyediakan infrastruktur untuk melakukan komputasi terdistribusi dan pemrosesan paralel untuk alur kerja ML Anda. Cluster Ray di-build ke dalam Vertex AI untuk memastikan ketersediaan kapasitas untuk workload ML penting atau selama musim puncak. Tidak seperti tugas kustom, di mana layanan pelatihan melepaskan resource setelah tugas selesai, cluster Ray tetap tersedia hingga dihapus. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Ray on Vertex AI.
-
Ray on Vertex AI (RoV)
- Ray on Vertex AI dirancang agar Anda dapat menggunakan kode Ray open source yang sama untuk menulis program dan mengembangkan aplikasi di Vertex AI dengan perubahan minimal. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Ray on Vertex AI.
-
Ray on Vertex AI SDK untuk Python
- Ray on Vertex AI SDK untuk Python adalah versi Vertex AI SDK untuk Python yang mencakup fungsi Ray Client, konektor Ray BigQuery, pengelolaan cluster Ray pada Vertex AI, dan prediksi pada Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI SDK untuk Python.
-
perolehan
- Persentase tetangga terdekat sebenarnya yang ditampilkan oleh indeks. Misalnya, jika kueri tetangga terdekat untuk 20 tetangga terdekat menampilkan 19 tetangga terdekat “kebenaran nyata”, perolehannya adalah 19/20x100 = 95%.
-
regularisasi
- Regularisasi adalah teknik yang digunakan untuk mencegah overfitting dalam model machine learning. Overfitting terjadi saat model mempelajari data pelatihan terlalu baik, sehingga menghasilkan performa buruk pada data yang tidak terlihat. Salah satu jenis regulerisasi spesifik yang disebutkan adalah penghentian awal, di mana pelatihan dihentikan sebelum kerugian pada {i>dataset<i} validasi mulai meningkat, yang menunjukkan penurunan kinerja generalisasi. Untuk informasi selengkapnya, lihat Overfitting: Regularisasi L2.
-
batasan
- Fungsionalitas untuk "membatasi" penelusuran ke subset indeks dengan menggunakan aturan Boolean. Membatasi disebut juga sebagai "pemfilteran". Dengan Penelusuran Vektor, Anda dapat menggunakan pemfilteran numerik dan pemfilteran atribut teks.
-
akun layanan
- Di Google Cloud, akun layanan adalah jenis akun khusus yang digunakan oleh aplikasi atau instance virtual machine (VM), bukan orang. Aplikasi menggunakan akun layanan untuk melakukan panggilan API yang diotorisasi.
-
agen layanan
- Agen layanan mengacu pada akun layanan yang dikelola Google. ID ini digunakan saat layanan memerlukan akses ke resource yang dibuat oleh layanan yang berbeda. Misalnya, saat layanan Dataflow atau Dataproc perlu membuat instance selama runtime atau saat Cloud Function ingin menggunakan Key Management Service (KMS) untuk melindungi Cloud Function. Agen layanan dibuat secara otomatis oleh Google Cloud saat layanan memerlukannya. Mereka biasanya digunakan untuk mengelola akses ke sumber daya dan melakukan berbagai tugas atas nama layanan. Untuk mengetahui informasi selengkapnya, lihat Agen layanan.
-
metrik ringkasan
- Metrik ringkasan adalah satu nilai untuk setiap kunci metrik dalam suatu operasi eksperimen. Misalnya, akurasi pengujian eksperimen adalah akurasi yang dihitung terhadap set data pengujian di akhir pelatihan yang dapat dicatat sebagai metrik ringkasan nilai tunggal.
-
TensorBoard
- TensorBoard adalah rangkaian aplikasi web untuk memvisualisasikan dan memahami operasi dan model TensorFlow. Untuk mengetahui informasi selengkapnya, lihat TensorBoard.
-
instance TensorBoard
- Instance TensorBoard adalah resource regional yang menyimpan Eksperimen Vertex AI TensorBoard yang terkait dengan Project. Anda dapat membuat beberapa instance TensorBoard dalam suatu project jika, misalnya, Anda menginginkan beberapa instance dengan CMEK yang aktif. Hal ini sama dengan resource TensorBoard pada API.
-
Nama Resource TensorBoard
- Nama Resource TensorBoard digunakan untuk mengidentifikasi instance Vertex AI TensorBoard sepenuhnya. Formatnya adalah sebagai berikut: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
TensorFlow Extended (TFX)
- TensorFlow Extended (TFX) adalah platform menyeluruh untuk men-deploy pipeline machine learning produksi berdasarkan platform TensorFlow.
-
selisih waktu
- Selisih waktu bersifat relatif terhadap awal video.
-
segmen waktu
- Segmen waktu diidentifikasi dengan selisih waktu awal dan akhir.
-
metrik deret waktu
- Metrik deret waktu adalah nilai metrik longitudinal dengan setiap nilai mewakili langkah dalam bagian rutinitas pelatihan dari suatu operasi. Metrik deret waktu disimpan di Vertex AI TensorBoard. Eksperimen Vertex AI menyimpan referensi ke resource Vertex TensorBoard.
-
token
- Token dalam model bahasa adalah unit atom yang dilatih oleh model dan membuat prediksi, yaitu kata, morfem, dan karakter. Dalam domain di luar model bahasa, token dapat merepresentasikan jenis unit atom lainnya. Misalnya, dalam computer vision, token mungkin merupakan subset gambar. Untuk mengetahui informasi selengkapnya, lihat Mencantumkan dan menghitung token.
-
set pelatihan
- Di Vertex AI, set pelatihan adalah bagian terbesar dari data Anda (biasanya 80%) yang digunakan untuk melatih model machine learning. Model ini mempelajari pola dan hubungan dalam data ini untuk membuat prediksi. Set pelatihan berbeda dengan set validasi dan pengujian, yang digunakan untuk mengevaluasi performa model selama dan setelah pelatihan.
-
jalur
- "Jalur" mengacu pada urutan langkah atau tindakan yang dilakukan oleh agen atau model. Model ini sering digunakan dalam evaluasi model generatif, yang menilai kemampuan model untuk menghasilkan teks, kode, atau konten lainnya. Ada beberapa jenis metrik lintasan yang dapat digunakan untuk mengevaluasi model generatif, termasuk pencocokan persis lintasan, kecocokan lintasan dalam urutan, lintasan setiap urutan, dan presisi lintasan. Metrik ini mengukur kesamaan antara output model dan serangkaian output referensi buatan manusia.
-
Transformer
- "Transformer" adalah arsitektur jaringan neural yang mendasari sebagian besar model generatif yang canggih. Model bahasa ini digunakan dalam berbagai aplikasi model bahasa, termasuk penerjemahan. Transformer terdiri dari encoder dan decoder; encoder mengonversi teks input menjadi representasi perantara, dan decoder mengonversinya menjadi output yang berguna. Mereka menggunakan mekanisme self-attention untuk mengumpulkan konteks dari kata-kata seputar kata yang sedang diproses. Meskipun melatih Transformer memerlukan resource yang signifikan, melakukan fine-tuning Transformer yang sudah dilatih sebelumnya untuk aplikasi tertentu lebih efisien.
-
positif benar
- "positif benar" mengacu pada prediksi bila model mengidentifikasi class positif dengan benar. Misalnya, jika model dilatih untuk mengidentifikasi pelanggan yang akan membeli jaket, positif benar (true) akan memprediksi dengan benar bahwa pelanggan akan melakukan pembelian tersebut.
-
artefak yang tidak dikelola
- Artefak yang ada di luar konteks Vertex AI.
-
vektor
- Vektor mengacu pada representasi numerik dari teks, gambar, atau video yang menangkap hubungan antar {i>input.<i} Model machine learning cocok untuk membuat embeddings dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat menggunakan embeddings untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik khusus untuk konten. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Embeddings API.
-
Jenis data Vertex AI
- Jenis data Vertex AI adalah "gambar", "teks", "tabel", dan "video".
-
Eksperimen Vertex AI
- Eksperimen Vertex AI memungkinkan pengguna melacak hal berikut: 1. Langkah-langkah eksperimen yang dijalankan (misalnya, pra-pemrosesan dan pelatihan). 2. Input (misalnya, algoritma, parameter, dan set data). 3. Output dari langkah-langkah tersebut (misalnya, model, checkpoint, dan metrik).
-
Vertex AI Model Registry
- Vertex AI Model Registry adalah repositori pusat tempat Anda dapat mengelola siklus proses model ML Anda. Dari Vertex AI Model Registry, Anda memiliki ringkasan model sehingga Anda dapat mengatur, melacak, dan melatih versi baru dengan lebih baik. Jika memiliki versi model yang ingin di-deploy, Anda dapat menetapkannya ke endpoint langsung dari registry, atau menggunakan alias, men-deploy model ke endpoint. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Model Registry.
-
Vertex AI SDK untuk Python
- Vertex AI SDK untuk Python menyediakan fungsi yang serupa dengan library klien Vertex AI Python, hanya saja SDK-nya memiliki level yang lebih tinggi dan kurang terperinci.
-
Eksperimen Vertex AI TensorBoard
- Data yang terkait dengan Eksperimen dapat dilihat di aplikasi web TensorBoard (skalar, histogram, distribusi, dll.). Skalar deret waktu dapat dilihat di Konsol Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Membandingkan dan menganalisis operasi.
-
Vertex AI Feature Store
- Layanan terkelola untuk menyimpan, menyalurkan, dan mengelola fitur machine learning. Untuk mengetahui informasi selengkapnya, lihat Tentang Vertex AI Feature Store.
-
Metadata Vertex ML
- Sistem untuk melacak dan menganalisis metadata dari alur kerja machine learning. Untuk informasi selengkapnya, lihat Pengantar Metadata Vertex ML.
-
segmen video
- Segmen video diidentifikasi dengan selisih waktu awal dan akhir video.
-
virtual private cloud (VPC)
- Virtual private cloud adalah kumpulan resource komputasi bersama yang dapat dikonfigurasi dan sesuai permintaan, yang dialokasikan di lingkungan cloud publik serta menyediakan tingkat isolasi antara organisasi yang berbeda menggunakan resource tersebut.
-
Vertex AI Vizier
- Layanan pengoptimalan black-box untuk menyesuaikan hyperparameter dan parameter lainnya. Untuk mengetahui informasi selengkapnya, lihat ringkasan Vertex AI Vizier.