-
agent
- Dalam konteks AI generatif, agen adalah software yang secara mandiri merencanakan dan menjalankan serangkaian tindakan untuk mencapai tujuan, berpotensi dalam situasi baru. Agen dapat digunakan dalam berbagai aplikasi, seperti natural language processing, machine learning, dan robotika. Misalnya, agen LLM menggunakan model bahasa untuk mengevaluasi lingkungan dan memilih tindakan untuk membantunya mencapai tujuannya. Agen LLM dapat digunakan untuk menghasilkan teks, menerjemahkan bahasa, dan menjawab pertanyaan.
-
Endpoint API
- Endpoint API adalah aspek konfigurasi layanan yang menentukan alamat jaringan, yang juga dikenal sebagai endpoint layanan (misalnya, aiplatform.googleapis.com).
-
Kredensial Default Aplikasi (ADC)
- Kredensial Default Aplikasi (ADC) menyediakan cara sederhana untuk mendapatkan kredensial otorisasi yang akan digunakan dalam memanggil Google API. Cara ini paling cocok untuk kasus saat panggilan harus memiliki identitas dan tingkat otorisasi yang sama untuk aplikasi, terlepas dari pengguna. Ini adalah pendekatan yang direkomendasikan untuk mengizinkan panggilan ke Google Cloud API, terutama saat Anda membangun aplikasi yang di-deploy ke mesin virtual Google App Engine (GAE) atau Compute Engine. Untuk mengetahui informasi selengkapnya, lihat Cara kerja Kredensial Default Aplikasi.
-
Approximate Nearest Neighbor (ANN)
- Layanan Approximate Nearest Neighbor (ANN) adalah solusi latensi rendah dan berskala tinggi untuk menemukan vektor serupa (atau lebih tepatnya, "embedding") untuk korpus berukuran besar. Untuk mengetahui informasi selengkapnya, lihat Cara menggunakan Vector Search untuk pencocokan semantik.
-
artefak
- Artefak adalah entity atau bagian data terpisah yang dihasilkan dan digunakan oleh alur kerja machine learning. Contoh artefak meliputi set data, model, file input, dan log pelatihan.
-
Artifact Registry
- Artifact Registry adalah layanan pengelolaan artefak universal. Layanan ini direkomendasikan untuk mengelola container dan artefak lain di Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Artifact Registry.
-
Kecerdasan Buatan (AI)
- Kecerdasan buatan (atau AI) adalah studi dan desain mesin yang tampak "cerdas", yang berarti mesin yang meniru fungsi intelektual atau manusia seperti gerakan mekanis, penalaran, atau pemecahan masalah. Salah satu subbidang AI yang paling populer adalah machine learning, yang menggunakan pendekatan statistik dan berbasis data untuk menciptakan AI. Namun, beberapa orang menggunakan kedua istilah ini secara bergantian.
-
Augmented Reality (AR)
- Memadukan konten digital yang dirender dengan konten dunia nyata, baik melalui layar seperti di ponsel atau sebagai overlay ke dunia yang terlihat melalui optik seperti kacamata. Konten digital harus dilacak ke gerakan kamera atau kacamata (bergantung pada cara adegan dirender) sehingga tampak seolah-olah merupakan bagian dari dunia nyata.
-
autentikasi
- Proses memverifikasi identitas klien (yang mungkin berupa pengguna atau proses lain) untuk mendapatkan akses ke sistem yang aman. Klien yang telah membuktikan identitasnya dikatakan telah diautentikasi. Untuk mengetahui informasi selengkapnya, lihat Metode autentikasi di Google.
-
Automatic side-by-side (AutoSxS)
- Automatic side-by-side (AutoSxS) adalah alat evaluasi yang dibantu model yang membandingkan dua model bahasa besar (LLM) secara berdampingan. Layanan ini dapat digunakan untuk mengevaluasi performa model AI generatif di Vertex AI Model Registry atau inferensi yang telah dibuat sebelumnya. AutoSxS menggunakan autorater untuk memutuskan model mana yang memberikan respons yang lebih baik terhadap perintah. AutoSxS tersedia sesuai permintaan dan mengevaluasi model bahasa dengan performa yang sebanding dengan pemberi rating manusia.
-
Pengenalan Ucapan Otomatis (ASR,Speech to Text)
- Transkripsi otomatis bahasa lisan (ucapan) ke teks.
-
AutoML
- Algoritma machine learning yang "belajar untuk belajar" melalui pengoptimalan black-box. Untuk mengetahui informasi selengkapnya, lihat Glosarium ML.
-
autorater
- Autorater adalah model bahasa yang mengevaluasi kualitas respons model berdasarkan perintah inferensi asli. Metrik ini digunakan dalam pipeline AutoSxS untuk membandingkan inferensi dua model dan menentukan model mana yang memiliki performa terbaik. Untuk mengetahui informasi selengkapnya, lihat Autorater.
-
dasar pengukuran
- Model yang digunakan sebagai titik referensi untuk membandingkan seberapa baik performa model lain (biasanya, model yang lebih kompleks). Misalnya, model regresi logistik dapat berfungsi sebagai dasar yang baik untuk model dalam. Untuk masalah tertentu, tolok ukur membantu developer model mengukur performa minimum yang diharapkan yang harus dicapai oleh model baru agar model tersebut berguna. Untuk mengetahui informasi selengkapnya, lihat Set data dasar dan target.
-
batch
- Kumpulan contoh yang digunakan dalam satu iterasi pelatihan. Ukuran batch menentukan jumlah contoh dalam batch.
-
ukuran batch
- Jumlah contoh dalam batch. Misalnya, ukuran tumpukan SGD adalah 1, sedangkan ukuran tumpukan mini biasanya antara 10 dan 1.000. Ukuran tumpukan biasanya bernilai tetap selama pelatihan dan inferensi; namun, TensorFlow mengizinkan ukuran tumpukan dinamis.
-
inferensi batch
- Inferensi batch mengambil sekumpulan permintaan inferensi dan mengeluarkan hasilnya dalam satu file. Untuk mengetahui informasi selengkapnya, lihat Ringkasan cara mendapatkan inferensi di Vertex AI.
-
bias
- 1. Stereotip, prasangka, atau preferensi terhadap beberapa hal, orang, atau kelompok dibandingkan yang lain. Bias ini dapat memengaruhi pengumpulan dan interpretasi data, desain sistem, dan cara pengguna berinteraksi dengan sistem. 2. Error sistematis yang disebabkan oleh prosedur sampling atau pelaporan.
-
bidirectional
- Istilah yang digunakan untuk mendeskripsikan sistem yang mengevaluasi teks yang mendahului dan mengikuti bagian teks target. Sebaliknya, sistem satu arah hanya mengevaluasi teks yang mendahului bagian teks target.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT adalah metode pelatihan awal representasi bahasa, yang berarti kami melatih model "pemahaman bahasa" serbaguna pada korpus teks yang besar (seperti Wikipedia), lalu menggunakan model tersebut untuk tugas NLP downstream yang kami inginkan (seperti penjawaban pertanyaan). BERT mengungguli metode sebelumnya karena merupakan sistem dua arah yang mendalam dan tanpa pengawasan pertama untuk pra-pelatihan NLP.
-
Bilingual Evaluation Understudy (BLEU)
- Ukuran populer untuk mengevaluasi kualitas algoritma terjemahan mesin dengan membandingkan outputnya dengan output satu atau beberapa terjemahan manusia.
-
mempercepat
- Dalam pelatihan model: Peningkatan dapat merujuk pada teknik augmentasi data yang digunakan untuk meningkatkan ukuran dan keragaman set data pelatihan. Hal ini dilakukan dengan mengubah contoh yang ada untuk membuat contoh tambahan yang bervariasi, yang dapat meningkatkan performa model, terutama jika set data asli terbatas.
-
kotak pembatas
- Kotak pembatas untuk objek dalam frame video dapat ditentukan menggunakan salah satu dari dua cara, yaitu (i) Menggunakan 2 verteks yang terdiri dari satu set koordinat x,y jika berlawanan secara diagonal dengan persegi panjang. Misalnya: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Menggunakan keempat verteks. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan data video.
-
bucket
- Folder tingkat teratas untuk Cloud Storage. Nama bucket harus unik di semua pengguna Cloud Storage. Bucket berisi file. Untuk mengetahui informasi selengkapnya, lihat Ringkasan produk Cloud Storage.
-
Chain-of-Thought
- Dalam AI generatif, Chain-of-Thought (CoT) adalah teknik perintah yang mendorong model bahasa besar (LLM) untuk menjelaskan proses penalarannya secara eksplisit sebelum sampai pada kesimpulan. Hal ini melibatkan pemberian perintah kepada model untuk menunjukkan langkah-langkah perantara yang dilakukannya untuk menyelesaikan masalah, bukan hanya memberikan jawaban akhir. Metode ini dapat meningkatkan performa LLM secara signifikan dalam tugas penalaran yang kompleks.
-
chat
- Isi dialog dua arah dengan sistem ML, biasanya model bahasa besar. Interaksi sebelumnya dalam chat (apa yang Anda ketik dan bagaimana respons model bahasa besar) menjadi konteks untuk bagian chat berikutnya. Chatbot adalah aplikasi model bahasa besar.
-
titik pemeriksaan
- Data yang merekam status parameter model selama pelatihan atau setelah pelatihan selesai. Misalnya, selama pelatihan, Anda dapat: 1. Menghentikan pelatihan, mungkin secara sengaja atau mungkin sebagai akibat dari error tertentu. 2. Ambil checkpoint. 3. Kemudian, muat ulang titik pemeriksaan, mungkin di hardware yang berbeda. 4. Mulai ulang pelatihan. Dalam Gemini, titik pemeriksaan mengacu pada versi tertentu dari model Gemini yang dilatih pada set data tertentu.
-
model klasifikasi
- Model yang inferensinya adalah class. Misalnya, berikut adalah semua model klasifikasi: Model yang memprediksi bahasa kalimat input (Prancis? Spanyol? Italia?). Model yang memprediksi spesies pohon (Maple? Oak? Baobab?). Model yang memprediksi kelas positif atau negatif untuk kondisi medis tertentu.
-
metrik klasifikasi
- Metrik klasifikasi yang didukung di Vertex AI SDK untuk Python adalah matriks konfusi dan kurva ROC.
-
Cloud TPU
- Akselerator hardware khusus yang dirancang untuk mempercepat workload machine learning di Google Cloud.
-
pengelompokan
- Dalam konteks AI generatif, pengelompokan adalah teknik machine learning tanpa pengawasan yang digunakan untuk mengelompokkan titik data serupa berdasarkan karakteristiknya. Hal ini dicapai dengan menentukan ukuran (atau metrik) kesamaan untuk membandingkan titik data, dan mengelompokkan titik data dengan kesamaan tinggi ke dalam cluster yang sama. Dalam aplikasi AI generatif, hal ini mungkin melibatkan pengelompokan embedding (representasi numerik dari teks, gambar, atau data lainnya) untuk melakukan tugas seperti penelusuran, klasifikasi, atau deteksi penyimpangan. Misalnya, segmentasi pelanggan dapat dilakukan dengan mengelompokkan data pelanggan untuk mengidentifikasi grup dengan perilaku atau karakteristik yang serupa. Untuk mengetahui informasi selengkapnya, lihat Apa yang dimaksud dengan pengelompokan?.
-
image container
- Image container adalah paket yang menyertakan kode yang dapat dieksekusi komponen dan definisi lingkungan tempat kode dijalankan. Untuk mengetahui informasi selengkapnya, lihat Ringkasan pelatihan kustom.
-
konteks
- Konteks digunakan untuk mengelompokkan artefak dan eksekusi dalam satu kategori dengan jenis tertentu yang dapat dikueri. Konteks dapat digunakan untuk merepresentasikan kumpulan metadata. Contoh Konteks adalah operasi pipeline machine learning.
-
cache konteks
- Cache konteks di Vertex AI adalah sejumlah besar data yang dapat digunakan dalam beberapa permintaan ke model Gemini. Konten yang di-cache disimpan di region tempat permintaan untuk membuat cache dilakukan. Dapat berupa jenis MIME apa pun yang didukung oleh model multimodal Gemini, seperti teks, audio, atau video. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyimpanan ke dalam cache konteks.
-
jendela konteks
- Jumlah token yang dapat diproses model dalam perintah tertentu. Makin besar jendela konteks, makin banyak informasi yang dapat digunakan model untuk memberikan respons yang koheren dan konsisten terhadap perintah.
-
Kunci enkripsi yang dikelola pelanggan (CMEK)
- Kunci enkripsi yang dikelola pelanggan (CMEK) adalah integrasi yang memungkinkan pelanggan mengenkripsi data di layanan Google yang ada menggunakan kunci yang mereka kelola di Cloud KMS (juga dikenal sebagai Storky). Kunci dalam Cloud KMS adalah kunci enkripsi kunci yang melindungi data mereka. Untuk informasi selengkapnya, lihat Kunci enkripsi yang dikelola pelanggan (CMEK).
-
analisis data
- Memperoleh pemahaman data dengan mempertimbangkan sampel, pengukuran, dan visualisasi. Analisis data dapat sangat berguna saat pertama kali set data diterima, sebelum membuat model yang pertama. Analisis data juga penting dalam memahami masalah eksperimen dan proses debug dengan sistem.
-
augmentasi data
- Secara artifisial, meningkatkan rentang dan jumlah contoh pelatihan dengan mengubah contoh yang ada untuk membuat contoh tambahan. Misalnya, anggaplah gambar adalah salah satu fitur Anda, tetapi set data Anda tidak berisi contoh gambar yang memadai bagi model untuk mempelajari asosiasi yang berguna. Idealnya, tambahkan gambar berlabel yang memadai ke set data Anda agar model Anda dapat dilatih dengan benar. Jika tindakan tersebut tidak memungkinkan, pengayaan data dapat memutar, melebarkan, dan mencerminkan setiap gambar untuk memproduksi berbagai variasi dari gambar aslinya, yang mungkin menghasilkan data berlabel yang memadai agar dapat melakukan pelatihan yang sangat baik.
-
DataFrame
- Jenis data pandas yang populer untuk merepresentasikan set data dalam memori. DataFrame dapat dianalogikan dengan tabel atau spreadsheet. Setiap kolom DataFrame memiliki nama (header), dan setiap baris diidentifikasi oleh angka unik. Setiap kolom dalam DataFrame disusun seperti array 2D, kecuali setiap kolom dapat ditetapkan jenis datanya sendiri.
-
pengindeksan data
- Dalam konteks AI generatif, pengindeksan data adalah proses menyusun dan mengatur pusat informasi untuk mengoptimalkan penelusuran dan pengambilan. Hal ini melibatkan pembuatan indeks, yang sering disebut korpus, yang memungkinkan penelusuran data yang efisien. Proses ini terpisah dari pembuatan korpus, dan data yang diindeks dapat digunakan untuk memperkaya konteks model bahasa besar (LLM), mengurangi halusinasi, dan meningkatkan akurasi respons. Misalnya, dalam konteks situs, pengindeksan data dapat melibatkan penambahan metadata seperti datePublished dan dateModified untuk meningkatkan fungsi penelusuran. Ada berbagai metode untuk mengindeks data, termasuk menggunakan penelusuran vektor untuk penelusuran kesamaan dalam aplikasi seperti mengambil informasi yang relevan untuk LLM pada waktu kueri. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Mesin RAG .
-
penyerapan data
- Penyerapan data adalah proses mengekstrak data dari berbagai sumber dan mengintegrasikannya ke dalam satu lokasi pusat untuk diproses dan dianalisis lebih lanjut. Dalam konteks AI generatif, penyerapan data melibatkan ekstraksi informasi dari berbagai sumber data, seperti formulir klinis, catatan pasien, atau teks tidak terstruktur, untuk melatih dan menyesuaikan model AI generatif. Data yang di-ingest biasanya diproses dan ditransformasi untuk memastikan kualitas dan konsistensinya sebelum digunakan untuk melatih model AI generatif. Proses ini dapat melibatkan teknik pembersihan data, rekayasa fitur, dan augmentasi data untuk meningkatkan performa dan kemampuan generalisasi model. Untuk mengetahui informasi selengkapnya, lihat Menggunakan AI generatif untuk pengelolaan pemanfaatan.
-
paralelisme data
- Cara menskalakan pelatihan atau inferensi yang mereplikasi seluruh model ke beberapa perangkat, lalu meneruskan subset data input ke setiap perangkat. Paralelisme data dapat memungkinkan pelatihan dan inferensi pada ukuran batch yang sangat besar; namun, paralelisme data mengharuskan model cukup kecil agar dapat dimuat di semua perangkat. Paralelisme data biasanya mempercepat pelatihan dan inferensi.
-
dataset (set data)
- Set data secara luas didefinisikan sebagai kumpulan data terstruktur atau tidak terstruktur. Kumpulan data mentah, yang biasanya (tetapi tidak secara eksklusif) disusun dalam salah satu format berikut: spreadsheet, file dalam format CSV (nilai yang dipisahkan koma). Untuk informasi lebih lanjut, lihat Membuat set data.
-
transformasi data
- Dalam konteks Retrieval Augmented Generation (RAG), transformasi data mengacu pada konversi data ke dalam format yang sesuai untuk pengindeksan dan pemrosesan oleh LLM. Hal ini sering kali melibatkan pembagian data menjadi bagian-bagian yang lebih kecil agar mudah dikelola untuk penyematan dan pengindeksan. Transformasi lainnya dapat mencakup langkah-langkah pembersihan dan validasi untuk memastikan kualitas data. Untuk mengetahui informasi selengkapnya, lihat Ringkasan RAG Engine.
-
decoder
- Secara umum, sistem ML apa pun yang mengonversi dari representasi internal yang diproses dan padat ke representasi eksternal yang lebih mentah dan jarang. Decoder sering kali menjadi komponen dari model yang lebih besar, yang sering dipasangkan dengan encoder. Dalam tugas sequence-to-sequence, decoder dimulai dengan status internal yang dihasilkan oleh encoder untuk memprediksi urutan berikutnya.
-
deep neural network (DNN)
- Jaringan neural dengan beberapa lapisan tersembunyi, biasanya diprogram melalui teknik deep learning.
-
depth
- Jumlah berikut dalam jaringan neural: 1. jumlah lapisan tersembunyi 2. jumlah lapisan output, yang biasanya satu 3. jumlah lapisan penyematan. Misalnya, jaringan neural dengan lima lapisan tersembunyi dan satu lapisan keluaran memiliki kedalaman 6. Perhatikan bahwa lapisan input tidak memengaruhi kedalaman.
-
DevOps
- DevOps adalah serangkaian produk Google Cloud Platform, misalnya, Artifact Registry, Cloud Deploy.
-
penghentian awal
- Metode untuk regularisasi yang melibatkan penghentian pelatihan sebelum kerugian pelatihan selesai menurun. Dalam penghentian awal, Anda sengaja menghentikan pelatihan model saat kerugian pada set data validasi mulai meningkat; yaitu, saat performa generalisasi memburuk.
-
penyematan
- Representasi numerik kata atau bagian teks. Angka-angka ini menangkap makna semantik dan konteks teks. Kata atau teks yang serupa atau terkait cenderung memiliki embedding yang serupa, yang berarti posisinya lebih berdekatan dalam ruang vektor berdimensi tinggi.
-
ruang sematan (ruang laten)
- Dalam AI Generatif, ruang sematan mengacu pada representasi numerik dari teks, gambar, atau video yang menangkap hubungan antara input. Model machine learning, terutama model AI generatif, mahir dalam membuat penyematan ini dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat memanfaatkan embedding untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang khusus untuk konten.
-
vektor embedding
- Representasi vektor padat, sering kali berdimensi rendah, dari suatu item sehingga, jika dua item serupa secara semantik, embedding masing-masing item tersebut berdekatan satu sama lain di ruang vektor embedding.
-
encoder
- Secara umum, sistem ML apa pun yang mengonversi dari representasi mentah, jarang, atau eksternal menjadi representasi yang lebih diproses, lebih padat, atau lebih internal. Encoder sering kali menjadi komponen dari model yang lebih besar, yang sering dipasangkan dengan decoder. Beberapa transformer memasangkan encoder dengan decoder, meskipun transformer lainnya hanya menggunakan encoder atau hanya menggunakan decoder. Beberapa sistem menggunakan output encoder sebagai input ke jaringan klasifikasi atau regresi. Dalam tugas sequence-to-sequence, encoder mengambil urutan input dan menampilkan status internal (vektor). Kemudian, dekoder menggunakan status internal tersebut untuk memprediksi urutan berikutnya.
-
ensemble
- Kumpulan model yang dilatih secara independen yang inferensinya dirata-ratakan atau digabungkan. Dalam banyak kasus, ansambel menghasilkan inferensi yang lebih baik daripada model tunggal. Misalnya, hutan acak adalah ansambel yang dibangun dari beberapa pohon keputusan. Perhatikan bahwa tidak semua hutan keputusan adalah ansambel.
-
environment
- Dalam pembelajaran beruntun, dunia yang berisi agen dan memungkinkan agen mengamati status dunia tersebut. Misalnya, dunia yang direpresentasikan dapat berupa game seperti catur, atau dunia fisik seperti labirin. Saat agen menerapkan tindakan ke lingkungan, lingkungan akan bertransisi antar-status.
-
evaluasi (eval)
- Evaluasi, atau "evaluasi", adalah jenis eksperimen yang mengirimkan kueri yang dicatat atau sintetis melalui dua stack Penelusuran--stack eksperimental yang mencakup perubahan Anda dan stack dasar tanpa perubahan Anda. Evaluasi menghasilkan perbedaan dan metrik yang memungkinkan Anda mengevaluasi dampak, kualitas, dan efek lain dari perubahan Anda pada hasil penelusuran dan bagian lain dari pengalaman pengguna Google. Evaluasi digunakan selama penyesuaian, atau iterasi, pada perubahan Anda. Metode ini juga digunakan sebagai bagian dari peluncuran perubahan pada traffic pengguna aktif.
-
eksekusi
- Eksekusi adalah kumpulan data dari setiap langkah alur kerja machine learning, biasanya dianotasi dengan parameter runtime-nya. Contoh eksekusi meliputi penyerapan data, validasi data, pelatihan model, evaluasi model, dan deployment model.
-
Skor F1
- Skor F1 adalah metrik yang digunakan untuk mengevaluasi akurasi output model. Metrik ini sangat berguna untuk menilai performa model pada tugas yang memerlukan presisi dan perolehan, seperti ekstraksi informasi. Untuk model AI generatif, skor F1 dapat digunakan untuk membandingkan inferensi model dengan data kebenaran dasar untuk menentukan akurasi model. Namun, untuk tugas generatif seperti ringkasan dan pembuatan teks, metrik lain seperti skor Rough-L mungkin lebih sesuai.
-
fitur
- Dalam machine learning (ML), fitur adalah karakteristik atau atribut instance atau entity yang digunakan sebagai input untuk melatih model ML atau membuat inferensi.
-
ekstraksi fitur
- Dalam konteks AI generatif, ekstraksi fitur mengacu pada proses mengidentifikasi dan memilih fitur yang relevan dari data input untuk digunakan dalam pelatihan model. Fitur ini kemudian digunakan untuk membuat data baru yang menyerupai input asli. Misalnya, dalam pembuatan gambar, ekstraksi fitur dapat melibatkan identifikasi tepi, tekstur, dan warna. Dalam pemrosesan bahasa alami, hal ini dapat melibatkan ekstraksi kata kunci, frasa, dan struktur tata bahasa. Fitur yang diekstrak kemudian digunakan oleh model generatif untuk membuat konten baru.
-
penyajian fitur
- Penyajian fitur adalah proses mengekspor atau mengambil nilai fitur untuk pelatihan atau inferensi. Di Vertex AI, ada dua jenis penyajian fitur, yaitu layanan online dan offline. Penyajian online mengambil nilai fitur terbaru dari subset sumber data fitur untuk inferensi online. Penyajian offline atau penyaluran batch mengekspor data fitur dalam jumlah besar—termasuk data historis—untuk pemrosesan offline, seperti pelatihan model ML.
-
tampilan fitur
- Tampilan fitur adalah kumpulan logis fitur yang terwujud dari sumber data BigQuery ke instance penyimpanan online. Tampilan fitur menyimpan dan memperbarui data fitur pelanggan secara berkala, yang diperbarui secara berkala dari sumber BigQuery. Tampilan fitur berkaitan dengan penyimpanan data fitur baik secara langsung maupun melalui pengaitan ke resource registry fitur.
-
perintah few-shot (few-shot)
- Dalam AI generatif, "few-shot" mengacu pada jenis perintah yang menyertakan sejumlah kecil contoh untuk memandu respons model. Contoh ini membantu model memahami format output, frasa, cakupan, atau pola umum respons yang diinginkan. Prompt few-shot sering digunakan untuk mengatur output model bahasa, sehingga memastikan model menghasilkan respons yang akurat, berkualitas tinggi, dan konsisten dengan ekspektasi pengguna. Dengan memberikan beberapa contoh yang relevan kepada model, pengguna dapat memengaruhi perilaku model dan mendapatkan hasil yang lebih memuaskan. Untuk mengetahui informasi selengkapnya, lihat Menyertakan contoh sedikit tembakan.
-
model dasar (FM)
- Model yang dilatih dengan data luas sehingga dapat diadaptasi (misalnya, disesuaikan) untuk berbagai tugas downstream.
-
Operasi Model Dasar (FMOPs)
- FMOps memperluas kemampuan MLOps dan berfokus pada produksi FM yang efisien yang telah dilatih (dilatih dari awal) atau disesuaikan (di-fine-tune).
-
Gemini
- Gemini adalah serangkaian model multimodal berbasis urutan besar Google. Artinya, model ini dapat menerima input dan menghasilkan output dalam lebih dari satu media sekaligus, termasuk teks, audio, dan media visual. Alat ini dirancang untuk berintegrasi dengan agen yang mampu melakukan berbagai tugas. Untuk mengetahui informasi selengkapnya, lihat Model Google.
-
generalization
- Kemampuan model untuk membuat inferensi yang benar pada data baru yang sebelumnya tidak terlihat. Model yang dapat melakukan generalisasi adalah kebalikan dari model yang mengalami overfitting.
-
generasi
- Dalam konteks AI generatif, "generasi" mengacu pada proses pembuatan data atau konten baru dari data atau informasi yang ada. Model AI generatif dilatih menggunakan set data besar dan dapat mempelajari pola dan hubungan dalam data. Kemudian, model dapat menggunakan pengetahuan ini untuk menghasilkan konten baru dan unik yang mirip dengan data pelatihan, tetapi bukan replika persis. Untuk mengetahui informasi selengkapnya, lihat Kapan harus menggunakan AI generatif atau AI tradisional.
-
model generatif
- Jenis model machine learning yang dapat membuat output baru berdasarkan data pelatihannya. Secara sederhana, model ini menghasilkan data baru yang terlihat seperti sekumpulan kategori tertentu yang digunakan untuk melatihnya. Biasanya terkait dengan model bahasa besar, tetapi jenis model lain juga dapat bersifat generatif.
-
Sistem Modem Tersemat Google (GEMS)
- GEMS adalah framework software tersemat yang menargetkan modem, dan serangkaian alur kerja pengembangan serta infrastruktur yang menyertainya. Visi utama GEMS adalah menyediakan kode sistem modem berkualitas tinggi dengan kemampuan penggunaan ulang yang tinggi di banyak perangkat Google yang berisi modem. Untuk mencapai visi yang luas ini, GEMS menyediakan lingkungan yang komprehensif bagi developer, yang terdiri dari elemen penyusun utama yang digambarkan di bawah.
-
gradien
- Vektor turunan parsial yang terkait dengan semua variabel independen. Dalam machine learning, gradien adalah vektor turunan parsial dari fungsi model. Gradien mengarah ke arah pendakian paling curam.
-
grafik
- Dalam konteks AI generatif, grafik mengacu pada representasi informasi terstruktur yang mengatur dan menghubungkan data sebagai jaringan node dan tepi. Grafik ini sering digunakan untuk merepresentasikan pengetahuan dan hubungan antar-entitas, sehingga sangat berguna untuk sistem AI generatif yang memerlukan pemahaman mendalam tentang konteks dan hubungan dalam data. Sistem GenAI yang memanfaatkan grafik pengetahuan dapat menggunakannya untuk meningkatkan performa model pengambilan. Dengan menyertakan grafik pengetahuan ke dalam sistem, AI generatif dapat mengakses data yang kaya konteks dan menjelajahi grafik untuk mengambil subgrafik yang relevan berdasarkan kueri pengguna. Dengan begitu, sistem dapat memberikan respons yang lebih akurat dan informatif dengan membuat konten yang relevan secara kontekstual.
-
kebenaran dasar (GT)
- Kebenaran nyata adalah istilah yang digunakan di berbagai bidang untuk merujuk pada kebenaran mutlak dari beberapa masalah keputusan atau pengukuran, dibandingkan dengan perkiraan beberapa sistem. Dalam machine learning, istilah "kebenaran dasar" mengacu pada set pelatihan untuk teknik supervised learning.
-
halusinasi
- Halusinasi dalam AI generatif adalah respons percaya diri dari AI yang tidak dapat didasarkan pada data pelatihannya. Mungkin tidak sesuai fakta. Dalam konteks pembuatan teks, hal ini adalah kepalsuan acak yang terdengar masuk akal dalam konten teks yang dihasilkan.
-
heuristik
- Solusi sederhana dan cepat diterapkan untuk suatu masalah. Misalnya, "Dengan heuristik, kami mencapai akurasi 86%. Saat kami beralih ke jaringan neural dalam, akurasi meningkat hingga 98%".
-
lapisan tersembunyi
- Lapisan dalam jaringan neural antara lapisan input (fitur) dan lapisan output (inferensi). Setiap lapisan tersembunyi terdiri dari satu atau beberapa neuron. Jaringan neural dalam berisi lebih dari satu lapisan tersembunyi.
-
histogram
- Tampilan grafis variasi dalam satu set data menggunakan batang. Histogram memvisualisasikan pola yang sulit dideteksi dalam tabel angka sederhana.
-
hyperparameter
- Hyperparameter mengacu pada variabel yang mengatur proses pelatihan model machine learning. Variabel ini dapat mencakup kecepatan pembelajaran, nilai momentum dalam pengoptimal, dan jumlah unit dalam lapisan tersembunyi terakhir dari model. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
penyesuaian hyperparameter
- Penyesuaian hyperparameter di Vertex AI melibatkan menjalankan beberapa uji coba aplikasi pelatihan dengan nilai yang berbeda untuk hyperparameter yang dipilih, yang ditetapkan dalam batas yang ditentukan. Tujuannya adalah mengoptimalkan setelan hyperparameter untuk memaksimalkan akurasi prediktif model. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
Izin Identity and Access Management (IAM)
- Izin Identity and Access Management (IAM) adalah kemampuan terperinci tertentu yang menentukan siapa yang dapat melakukan tindakan apa pada resource Google Cloud tertentu. Peran ditetapkan ke kepala sekolah (seperti pengguna, grup, atau akun layanan) melalui peran, sehingga memungkinkan kontrol yang tepat atas akses ke layanan dan data dalam project atau organisasi Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Kontrol akses dengan IAM.
-
Imagen
- Imagen adalah layanan AI generatif text-to-image yang tersedia melalui platform Vertex AI. Dengan API ini, pengguna dapat membuat gambar baru, mengedit gambar, menyempurnakan model gaya atau subjek, memberi teks pada gambar, atau mendapatkan jawaban atas pertanyaan tentang konten gambar. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Imagen di Vertex AI.
-
pengenalan gambar
- Pengenalan gambar adalah proses mengklasifikasikan objek, pola, atau konsep dalam suatu gambar. Fitur ini juga dikenal sebagai klasifikasi gambar. Pengenalan gambar adalah subbidang machine learning dan computer vision.
-
indeks
- Sekumpulan vektor yang di-deploy bersama untuk penelusuran kemiripan. Vektor dapat ditambahkan ke indeks atau dihapus dari indeks. Kueri penelusuran kemiripan dikeluarkan pada indeks tertentu dan akan menelusuri vektor dalam indeks tersebut.
-
inferensi
- Dalam konteks platform Vertex AI, inferensi mengacu pada proses menjalankan titik data melalui model machine learning untuk menghitung output, seperti satu skor numerik. Proses ini juga dikenal sebagai "mengoperasikan model machine learning" atau "memasukkan model machine learning ke dalam produksi". Inferensi adalah langkah penting dalam alur kerja machine learning, karena memungkinkan model digunakan untuk membuat inferensi pada data baru. Di Vertex AI, inferensi dapat dilakukan dengan berbagai cara, termasuk inferensi batch dan inferensi online. Inferensi batch melibatkan menjalankan sekelompok permintaan inferensi dan menghasilkan hasilnya dalam satu file, sedangkan inferensi online memungkinkan inferensi real-time pada setiap titik data.
-
penelusuran informasi (IR)
- Pengambilan informasi (IR) adalah komponen utama Vertex AI Search. Proses ini adalah proses menemukan dan mengambil informasi yang relevan dari kumpulan data yang besar. Dalam konteks Vertex AI, IR digunakan untuk mengambil dokumen dari korpus berdasarkan kueri pengguna. Vertex AI menawarkan serangkaian API untuk membantu Anda membangun aplikasi Retrieval Augmented Generation (RAG) sendiri atau membangun mesin Penelusuran Anda sendiri. Untuk mengetahui informasi selengkapnya, lihat Menggunakan Vertex AI Search sebagai backend pengambilan menggunakan RAG Engine.
-
Infrastructure as Code (IaC)
- Infrastructure as Code. Pendekatan untuk mengelola infrastruktur IT di mana tim dapat mengelola dan menyediakan layanan melalui kode. Dengan IaC, file konfigurasi yang berisi spesifikasi infrastruktur dibuat, sehingga mempermudah pembuatan dan pengeditan infrastruktur dalam skala besar.
-
learning rate (ukuran langkah)
- Kecepatan pembelajaran adalah hyperparameter yang digunakan untuk menyesuaikan proses pengoptimalan model machine learning. Menentukan ukuran langkah saat model memperbarui bobotnya selama pelatihan. Kecepatan pemelajaran yang lebih tinggi dapat menyebabkan konvergensi yang lebih cepat, tetapi dapat mengakibatkan ketidakstabilan atau overfitting. Sebaliknya, kecepatan pembelajaran yang lebih rendah dapat menyebabkan konvergensi yang lebih lambat, tetapi dapat membantu mencegah overfitting, tanpa sumber. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
kerugian (biaya)
- Selama pelatihan model supervised, ukuran seberapa jauh inferensi model dari labelnya. Fungsi kerugian menghitung kerugian.
-
set data terkelola
- Objek set data yang dibuat dan dihosting oleh Vertex AI.
-
model
- Semua model yang telah dilatih maupun tidak. Secara umum, konstruksi matematika apa pun yang memproses data input dan menampilkan output. Dengan kata lain, model adalah kumpulan parameter dan struktur yang diperlukan agar sistem dapat membuat inferensi.
-
distilasi model (distilasi pengetahuan, model guru-murid)
- Distilasi model adalah teknik yang memungkinkan model siswa yang lebih kecil belajar dari model pengajar yang lebih besar. Model siswa dilatih untuk meniru output model pengajar, dan kemudian dapat digunakan untuk menghasilkan data baru atau membuat inferensi. Distilasi model sering digunakan untuk membuat model besar lebih efisien atau membuatnya lebih mudah diakses oleh perangkat dengan resource terbatas. Teknik ini juga dapat digunakan untuk meningkatkan generalisasi model dengan mengurangi overfitting.
-
Pemantauan Model
- Vertex AI Model Monitoring adalah layanan yang terus-menerus mengevaluasi performa model yang di-deploy dengan mendeteksi kecondongan dan penyimpangan fitur dalam permintaan prediksi, sehingga membantu mempertahankan kualitas model dari waktu ke waktu. Untuk mengetahui informasi selengkapnya, lihat Pengantar Pemantauan Model Vertex AI.
-
nama resource model
- Nama resource untuk
model
adalah sebagai berikut:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Anda dapat menemukan ID model di konsol Cloud pada halaman Model Registry.
- Nama resource untuk
-
Network File System (NFS)
- Sistem klien/server yang memungkinkan pengguna mengakses file di seluruh jaringan dan memperlakukannya seolah-olah berada di direktori file lokal. Untuk mengetahui informasi selengkapnya, lihat Memasang berbagi secara NFS untuk pelatihan kustom.
-
enkode one-hot
- One-hot encoding merepresentasikan setiap kategori sebagai vektor N elemen (dengan N adalah jumlah kategori) dengan tepat satu elemen yang memiliki nilai 1,0 dan semua elemen yang tersisa memiliki nilai 0,0. Untuk mengetahui informasi selengkapnya, lihat One-hot encoding.
-
perintah one-shot
- Perintah yang berisi satu contoh yang menunjukkan cara model bahasa besar harus merespons. Untuk mengetahui informasi selengkapnya, lihat prompt sekali jalan.
-
parameter
- Parameter adalah nilai input dengan kunci yang mengonfigurasi operasi, mengatur perilaku operasi, dan memengaruhi hasil operasi. Contohnya termasuk kecepatan pembelajaran, tingkat putus sekolah, dan jumlah langkah pelatihan.
-
kebingungan
- Perplexity adalah metrik yang digunakan untuk mengevaluasi performa model bahasa. Metrik ini mengukur kemungkinan model menghasilkan urutan teks tertentu berdasarkan distribusi teks yang digunakan untuk melatihnya. Perplexity adalah metrik yang umum digunakan untuk mengevaluasi model bahasa dan sering digunakan untuk membandingkan performa berbagai model atau untuk melacak progres model selama pelatihan.
-
pipeline
- Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Pipelines.
-
tugas pipeline
- Tugas pipeline atau operasi pipeline sesuai dengan resource PipelineJob di Vertex AI API. Ini adalah instance eksekusi definisi pipeline ML Anda, yang ditentukan sebagai sekumpulan tugas ML yang saling terhubung berdasarkan dependensi input-output.
-
operasi pipeline
- Satu atau beberapa PipelineJob Vertex dapat dikaitkan dengan eksperimen, dengan setiap PipelineJob direpresentasikan sebagai satu operasi. Dalam konteks ini, parameter operasi disimpulkan oleh parameter PipelineJob. Metrik disimpulkan dari artefak system.Metric yang dihasilkan oleh PipelineJob. Artefak proses disimpulkan dari artefak yang dihasilkan oleh PipelineJob tersebut.
-
akses layanan pribadi
- Akses layanan pribadi adalah koneksi pribadi antara jaringan Virtual Private Cloud (VPC) Anda dan jaringan yang dimiliki oleh Google atau penyedia layanan pihak ketiga. Dengan demikian, instance mesin virtual (VM) di jaringan VPC Anda dapat berkomunikasi dengan layanan ini menggunakan alamat IP internal, sehingga tidak terekspos ke internet publik. Untuk mengetahui informasi selengkapnya, lihat Akses layanan pribadi.
-
perintah
- Perintah adalah permintaan bahasa alami yang dikirimkan ke model bahasa untuk menerima respons balik. Perintah dapat berisi pertanyaan, petunjuk, informasi kontekstual, contoh sedikit tembakan, dan input parsial agar model dapat diselesaikan atau dilanjutkan. Setelah menerima perintah, bergantung pada jenis model yang digunakan, model dapat menghasilkan teks, penyematan, kode, gambar, video, musik, dan lainnya. Untuk mengetahui informasi selengkapnya, lihat Ringkasan strategi perintah.
-
rekayasa perintah (desain perintah)
- Rekayasa perintah dalam AI generatif adalah proses pembuatan perintah yang efektif untuk mendapatkan output yang diinginkan dari model bahasa besar (LLM). Proses ini bersifat iteratif dan didorong oleh pengujian yang berfokus pada penyempurnaan input untuk mencapai hasil tertentu. Hal ini melibatkan pertimbangan konten dan struktur perintah untuk memastikan respons yang akurat dan berkualitas tinggi. Rekayasa perintah yang efektif sangat penting untuk tugas yang kompleks, meskipun tugas yang lebih sederhana mungkin tidak memerlukannya. Tujuannya adalah membuat prototipe aplikasi berbasis LLM dengan cepat. Untuk mengetahui informasi selengkapnya, lihat Pengantar rekayasa perintah.
-
penyesuaian perintah
- Penyesuaian prompt adalah metode penyesuaian yang efisien parameter dan digunakan untuk meningkatkan performa model AI generatif pada tugas tertentu. Hal ini melibatkan pembelajaran "awalan" yang ditambahkan ke perintah sebenarnya, terkadang di setiap lapisan. Pendekatan ini dianggap lebih murah dan lebih cepat daripada metode penyesuaian lainnya, dan sering kali memberikan hasil yang baik. Penyesuaian prompt sangat efektif jika Anda memiliki tugas tertentu dan ingin model melakukannya dengan cara tertentu. Metode ini juga terkadang disebut sebagai pembelajaran prompt atau penyesuaian (fine-tuning) yang efisien parameter. Untuk mengetahui informasi selengkapnya, lihat Pengantar rekayasa perintah.
-
Throughput yang Disediakan (PT)
- Throughput yang Disediakan (PT) adalah layanan premium untuk model AI generatif Vertex AI yang menawarkan pengalaman terjamin melalui jaminan kapasitas dan harga yang dapat diprediksi. Tidak seperti opsi bayar sesuai penggunaan (on-demand), PT memungkinkan pelanggan membeli kuota khusus, sehingga permintaan mereka tidak bersaing dengan permintaan orang lain untuk kapasitas model. PT adalah langganan bulanan atau mingguan dengan biaya tetap yang mencadangkan throughput untuk model dan lokasi tertentu. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Throughput yang Disediakan.
-
kuantisasi
- Kuantisasi adalah teknik pengoptimalan model yang digunakan untuk mengurangi presisi angka yang digunakan untuk merepresentasikan parameter model. Hal ini dapat menghasilkan model yang lebih kecil, konsumsi daya yang lebih rendah, dan latensi inferensi yang lebih rendah.
-
Random Forest
- Random Forest adalah algoritma machine learning yang digunakan untuk klasifikasi dan regresi. Model ini bukan model AI generatif secara langsung, tetapi merupakan komponen yang dapat digunakan dalam sistem AI generatif yang lebih besar. Hutan acak terdiri dari beberapa pohon keputusan, dan inferensinya adalah gabungan dari inferensi dari setiap pohon. Misalnya, dalam tugas klasifikasi, setiap pohon "memilih" kelas, dan inferensi akhir adalah kelas dengan suara terbanyak. Untuk mengetahui informasi selengkapnya, lihat Decision forest.
-
Cluster Ray di Vertex AI
- Cluster Ray di Vertex AI adalah cluster node komputasi terkelola yang dapat digunakan untuk menjalankan aplikasi machine learning (ML) dan Python terdistribusi. Ray menyediakan infrastruktur untuk melakukan komputasi terdistribusi dan pemrosesan paralel untuk alur kerja ML Anda. Cluster Ray dibangun ke dalam Vertex AI untuk memastikan ketersediaan kapasitas untuk workload ML penting atau selama musim puncak. Tidak seperti tugas kustom, yang mengharuskan layanan pelatihan untuk merilis resource setelah tugas selesai, cluster Ray akan tetap tersedia hingga dihapus. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Ray di Vertex AI.
-
Ray on Vertex AI (RoV)
- Ray on Vertex AI dirancang agar Anda dapat menggunakan kode Ray open source yang sama untuk menulis program dan mengembangkan aplikasi di Vertex AI dengan sedikit perubahan. Untuk mengetahui informasi selengkapnya, lihat Ringkasan Ray di Vertex AI.
-
Ray on Vertex AI SDK for Python
- Ray on Vertex AI SDK untuk Python adalah versi Vertex AI SDK untuk Python yang menyertakan fungsi Ray Client, konektor Ray BigQuery, pengelolaan cluster Ray di Vertex AI, dan inferensi di Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI SDK untuk Python.
-
perolehan
- Persentase tetangga terdekat sebenarnya yang ditampilkan oleh indeks. Misalnya, jika kueri tetangga terdekat untuk 20 tetangga terdekat menampilkan 19 tetangga terdekat “kebenaran nyata”, perolehannya adalah 19/20x100 = 95%.
-
sistem rekomendasi
- Sistem rekomendasi adalah sistem berbasis machine learning yang membantu pengguna menemukan konten menarik dalam korpus besar. Model ini menghasilkan subset kandidat yang lebih kecil dari korpus yang berpotensi besar, memberi skor dan peringkat kandidat, serta memberi peringkat ulang peringkat akhir untuk mempertimbangkan batasan tambahan. Untuk mengetahui informasi selengkapnya, lihat Ringkasan sistem rekomendasi.
-
regularisasi
- Regularisasi adalah teknik yang digunakan untuk mencegah overfitting dalam model machine learning. Overfitting terjadi saat model mempelajari data pelatihan terlalu baik, sehingga menghasilkan performa yang buruk pada data yang belum pernah dilihat. Salah satu jenis regularisasi khusus yang disebutkan adalah penghentian awal, yaitu pelatihan dihentikan sebelum kerugian pada set data validasi mulai meningkat, yang menunjukkan penurunan performa generalisasi. Untuk mengetahui informasi selengkapnya, lihat Overfitting: Regularisasi L2.
-
akun layanan
- Akun layanan adalah akun Google Cloud khusus yang digunakan oleh aplikasi atau virtual machine untuk melakukan panggilan API yang diotorisasi ke layanan Google Cloud. Tidak seperti akun pengguna, akun layanan tidak terikat dengan manusia, tetapi bertindak sebagai identitas untuk kode Anda, sehingga memungkinkan akses yang aman dan terprogram ke resource tanpa memerlukan kredensial manusia. Untuk mengetahui informasi selengkapnya, lihat Ringkasan akun layanan.
-
agen layanan
- Agen layanan merujuk ke akun layanan yang dikelola Google. Fitur ini digunakan saat layanan memerlukan akses ke resource yang dibuat oleh layanan lain. Misalnya, saat layanan Dataflow atau Dataproc perlu membuat instance selama runtime atau saat Cloud Function ingin menggunakan Key Management Service (KMS) untuk melindungi Cloud Function. Agen layanan dibuat secara otomatis oleh Google Cloud saat layanan memerlukannya. Akun ini biasanya digunakan untuk mengelola akses ke resource dan melakukan berbagai tugas atas nama layanan. Untuk mengetahui informasi selengkapnya, lihat Agen layanan.
-
metrik ringkasan
- Metrik ringkasan adalah satu nilai untuk setiap kunci metrik dalam suatu operasi eksperimen. Misalnya, akurasi pengujian eksperimen adalah akurasi yang dihitung terhadap set data pengujian di akhir pelatihan yang dapat dicatat sebagai metrik ringkasan nilai tunggal.
-
TensorBoard
- TensorBoard adalah rangkaian aplikasi web untuk memvisualisasikan dan memahami operasi dan model TensorFlow. Untuk mengetahui informasi selengkapnya, lihat TensorBoard.
-
instance TensorBoard
- Instance TensorBoard adalah resource regional yang menyimpan Eksperimen Vertex AI TensorBoard yang terkait dengan Project. Anda dapat membuat beberapa instance TensorBoard dalam suatu project jika, misalnya, Anda menginginkan beberapa instance dengan CMEK yang aktif. Hal ini sama dengan resource TensorBoard pada API.
-
Nama resource TensorBoard
- Nama Resource TensorBoard digunakan untuk mengidentifikasi instance Vertex AI TensorBoard sepenuhnya. Formatnya adalah sebagai berikut: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
selisih waktu
- Selisih waktu bersifat relatif terhadap awal video.
-
metrik deret waktu
- Metrik deret waktu adalah nilai metrik longitudinal dengan setiap nilai mewakili langkah dalam bagian rutinitas pelatihan dari suatu operasi. Metrik deret waktu disimpan di Vertex AI TensorBoard. Eksperimen Vertex AI menyimpan referensi ke resource Vertex TensorBoard.
-
token
- Token dalam model bahasa adalah unit atomik yang digunakan model untuk melatih dan membuat inferensi, yaitu kata, morfem, dan karakter. Di domain di luar model bahasa, token dapat merepresentasikan jenis unit atomik lainnya. Misalnya, dalam visi komputer, token dapat berupa subset gambar. Untuk mengetahui informasi selengkapnya, lihat Mencantumkan dan menghitung token.
-
trajektori
- "Trajektori" mengacu pada urutan langkah atau tindakan yang dilakukan oleh agen atau model. Metrik ini sering digunakan dalam evaluasi model generatif, yang menilai kemampuan model untuk menghasilkan teks, kode, atau konten lainnya. Ada beberapa jenis metrik lintasan yang dapat digunakan untuk mengevaluasi model generatif, termasuk pencocokan persis lintasan, pencocokan lintasan berurutan, pencocokan lintasan urutan apa pun, dan presisi lintasan. Metrik ini mengukur kesamaan antara output model dan sekumpulan output referensi buatan manusia.
-
Transformer
- "Transformer" adalah arsitektur jaringan neural yang mendasari sebagian besar model generatif canggih. Model ini digunakan dalam berbagai aplikasi model bahasa, termasuk terjemahan. Transformer terdiri dari encoder dan decoder; encoder mengonversi teks input menjadi representasi perantara, dan decoder mengonversinya menjadi output yang berguna. Model ini menggunakan mekanisme self-attention untuk mengumpulkan konteks dari kata-kata di sekitar kata yang sedang diproses. Meskipun melatih Transformer memerlukan resource yang signifikan, menyesuaikan Transformer terlatih untuk aplikasi tertentu lebih efisien.
-
Transformer Reinforcement Learning
- Transformer Reinforcement Learning (TRL) mengacu pada penerapan teknik reinforcement learning (RL) untuk melatih model berbasis transformer untuk tugas generatif. Pendekatan ini mengatasi batasan model generatif tradisional, yang sering kali dilatih pada inferensi token berikutnya tanpa pengoptimalan eksplisit untuk kualitas yang diinginkan seperti koherensi, keamanan, dan kesensitifan. TRL mengoptimalkan model bahasa secara langsung pada tujuan yang kompleks menggunakan RL, yang sering kali menggabungkan masukan manusia (RLHF) untuk memandu proses pembelajaran. Contohnya mencakup model peningkatan kualitas untuk menghasilkan konten yang tidak terlalu berbahaya menggunakan model reward dan menggunakan TRL untuk meningkatkan kualitas Gemma, model generatif. Untuk mengetahui informasi selengkapnya, lihat DLC Hugging Face: Penyesuaian Gemma dengan Transformer Reinforcement Learning (TRL) di Vertex AI.
-
positif benar
- "Positif benar" mengacu pada inferensi saat model mengidentifikasi kelas positif dengan benar. Misalnya, jika model dilatih untuk mengidentifikasi pelanggan yang akan membeli jaket, positif benar adalah memprediksi dengan benar bahwa pelanggan akan melakukan pembelian tersebut.
-
validasi
- Validasi memeriksa kualitas inferensi model terhadap set validasi. Hal ini melibatkan penentuan metrik untuk mengukur kualitas, kecepatan, kepatuhan terhadap petunjuk, dan keamanan konten yang dihasilkan. Validasi sering kali menggunakan data berlabel (perintah input dan output yang diharapkan) untuk membandingkan inferensi model dengan kebenaran nyata. Metrik seperti skor F1 (untuk klasifikasi) dan skor ROUGE-L (untuk ringkasan) dapat digunakan. Proses ini juga mencakup pengujian kasus ekstrem dan skenario yang tidak biasa untuk memastikan ketahanan. Untuk model yang di-deploy, pemantauan berkelanjutan dan pengambilan titik data umum serta kasus ekstrem membantu meningkatkan upaya validasi di masa mendatang.
-
vektor
- Vektor mengacu pada representasi numerik dari teks, gambar, atau video yang menangkap hubungan antar-input. Model machine learning cocok untuk membuat penyematan dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat menggunakan penyematan untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang khusus untuk konten. Untuk mengetahui informasi selengkapnya, lihat Ringkasan API Embeddings.
-
Eksperimen Vertex AI
- Vertex AI Experiments memungkinkan pengguna melacak hal berikut: 1. Langkah-langkah operasi eksperimen (misalnya, pra-pemrosesan dan pelatihan). 2. Input (misalnya, algoritma, parameter, dan set data). 3. Output dari langkah-langkah tersebut (misalnya, model, checkpoint, dan metrik).
-
Vertex AI Model Registry
- Vertex AI Model Registry adalah repositori pusat tempat Anda dapat mengelola siklus proses model ML. Dari Vertex AI Model Registry, Anda mendapatkan ringkasan model sehingga dapat mengatur, melacak, dan melatih versi baru dengan lebih baik. Jika memiliki versi model yang ingin di-deploy, Anda dapat menetapkannya ke endpoint langsung dari registry, atau dengan menggunakan alias, Anda dapat men-deploy model ke endpoint. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Model Registry.
-
segmen video
- Segmen video diidentifikasi dengan selisih waktu awal dan akhir video.
-
virtual private cloud (VPC)
- Virtual private cloud adalah kumpulan resource komputasi bersama yang dapat dikonfigurasi dan sesuai permintaan, yang dialokasikan di lingkungan cloud publik serta menyediakan tingkat isolasi antara organisasi yang berbeda menggunakan resource tersebut.
-
embedding kata
- Embedding kata adalah cara untuk merepresentasikan kata sebagai vektor padat dari nilai floating point. Hal ini memungkinkan kata-kata serupa memiliki encoding yang serupa. Penyematan kata sering digunakan dalam AI generatif untuk merekam hubungan antar-kata dan menghasilkan teks atau kode baru, tanpa sumber. Dalam AI generatif, penyematan kata dapat digunakan untuk melatih model yang dapat menghasilkan teks atau kode baru. Dengan memahami hubungan antar-kata, model AI generatif dapat membuat konten baru yang koheren dan relevan.
-
perintah zero-shot (perintah langsung)
- Dalam AI generatif, perintah zero-shot adalah perintah yang memungkinkan model bahasa besar (LLM) menjalankan tugas tanpa pelatihan atau contoh tambahan. Hal ini berbeda dengan metode seperti few-shot prompting, yang memberikan contoh input dan output kepada model. Perintah zero-shot hanya mengandalkan pengetahuan yang sudah ada sebelumnya pada model untuk menghasilkan respons. Untuk mengetahui informasi selengkapnya, lihat prompt zero-shot.