Mulai 29 April 2025, model Gemini 1.5 Pro dan Gemini 1.5 Flash tidak tersedia di project yang belum pernah menggunakan model ini, termasuk project baru. Untuk mengetahui detailnya, lihat Versi dan siklus proses model.
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Setelah dokumen diserap, Vertex AI RAG Engine menjalankan serangkaian transformasi untuk
menyiapkan data untuk pengindeksan. Anda dapat mengontrol kasus penggunaan menggunakan
parameter berikut:
Parameter
Deskripsi
chunk_size
Saat dokumen dimasukkan ke dalam indeks, dokumen tersebut akan dibagi menjadi beberapa bagian. Parameter chunk_size (dalam token) menentukan ukuran potongan. Ukuran potongan default adalah 1.024 token.
chunk_overlap
Secara default, dokumen dibagi menjadi beberapa bagian dengan jumlah tumpang-tindih tertentu untuk meningkatkan relevansi dan kualitas pengambilan. Tumpang-tindih potongan default adalah 256 token.
Ukuran potongan yang lebih kecil berarti embedding lebih presisi. Ukuran potongan yang lebih besar berarti sematan mungkin lebih umum, tetapi mungkin melewatkan detail tertentu.
Misalnya, jika Anda mengonversi 1.000 kata menjadi array sematan yang dimaksudkan untuk 200 kata, Anda mungkin akan kehilangan detail. Kapasitas embedding ditetapkan untuk setiap
potongan. Sebagian besar teks mungkin tidak sesuai dengan model jendela kecil.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-25 UTC."],[],[],null,["# Fine-tune RAG transformations\n\n| The [VPC-SC security controls](/vertex-ai/generative-ai/docs/security-controls) and\n| CMEK are supported by Vertex AI RAG Engine. Data residency and AXT security controls aren't\n| supported.\n\nAfter a document is ingested, Vertex AI RAG Engine runs a set of transformations to\nprepare the data for indexing. You can control your use cases using the\nfollowing parameters:\n\nA smaller chunk size means the embeddings are more precise. A larger chunk size\nmeans that the embeddings might be more general but might miss specific details.\n\nFor example, if you convert 1,000 words into an embedding array that was meant\nfor 200 words, you might lose details. The embedding capacity is fixed for each\nchunk. A large chunk of text may not fit into a small-window model.\n\nWhat's next\n-----------\n\n- Use [Document AI layout parser with Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/layout-parser-integration)."]]