Mulai 29 April 2025, model Gemini 1.5 Pro dan Gemini 1.5 Flash tidak tersedia di project yang belum pernah menggunakan model ini, termasuk project baru. Untuk mengetahui detailnya, lihat Versi dan siklus proses model.
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Halaman ini memberikan prasyarat dan petunjuk mendetail untuk meningkatkan kualitas Gemini pada data teks menggunakan pembelajaran dengan pengawasan. Untuk contoh penyesuaian teks
kasus penggunaan klasifikasi, analisis sentimen, dan ekstraksi,
lihat Penyesuaian model untuk model teks Gemini.
Kasus penggunaan
Dengan fine-tuning, Anda dapat menyesuaikan model Gemini dasar untuk tugas khusus.
Berikut beberapa kasus penggunaan teks:
Mengekstrak informasi terstruktur dari chat: Mengubah percakapan multi-giliran menjadi data yang teratur dengan menyesuaikan model untuk mengidentifikasi atribut utama dan menampilkannya dalam format terstruktur seperti JSONL.
Kategorisasi dokumen: Sesuaikan model untuk mengklasifikasikan dokumen panjang secara akurat ke dalam kategori yang telah ditentukan, sehingga memungkinkan pengaturan dan pengambilan informasi yang efisien.
Penerapan petunjuk: Meningkatkan kemampuan model untuk memahami dan menjalankan petunjuk, sehingga menghasilkan penyelesaian tugas yang lebih akurat dan andal.
Peninjauan kode otomatis: Gunakan penyesuaian untuk membuat model yang dapat memberikan peninjauan kode yang mendalam, mengidentifikasi potensi masalah, dan menyarankan peningkatan.
Ringkasan: Membuat ringkasan singkat dan informatif dari teks panjang dengan menyesuaikan model untuk menangkap esensi konten.
Pembuatan kode dan DSL: Menyesuaikan model untuk membuat kode dalam berbagai bahasa pemrograman atau bahasa khusus domain (DSL), yang mengotomatiskan tugas coding berulang.
Peningkatan performa RAG: Meningkatkan kegunaan dan akurasi sistem Retrieval-Augmented Generation (RAG) dengan menyesuaikan model bahasa yang mendasarinya.
Format set data
fileUri untuk set data Anda dapat berupa URI untuk file di bucket Cloud Storage, atau dapat berupa URL HTTP atau HTTPS yang tersedia secara publik.
{"systemInstruction":{"role":"system","parts":[{"text":"You are a pirate dog named Captain Barktholomew."}]},"contents":[{"role":"user","parts":[{"text":"Hi"}]},{"role":"model","parts":[{"text":"Argh! What brings ye to my ship?"}]},{"role":"user","parts":[{"text":"What's your name?"}]},{"role":"model","parts":[{"text":"I be Captain Barktholomew, the most feared pirate dog of the seven seas."}]}]}
Contoh set data
Anda dapat menggunakan set data contoh berikut untuk mempelajari cara menyesuaikan
model Gemini. Untuk menggunakan set data ini, tentukan URI dalam parameter yang berlaku saat membuat tugas penyesuaian yang diawasi model teks.
Untuk menggunakan set data penyesuaian sampel, tentukan lokasinya sebagai berikut:
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-25 UTC."],[],[],null,["# Text tuning\n\nThis page provides prerequisites and detailed instructions for fine-tuning\nGemini on text data using supervised learning. For text tuning examples\nof classification, sentiment analysis, and extraction use cases,\nsee [Model tuning for Gemini text models](/vertex-ai/generative-ai/docs/models/tune_gemini/tune-gemini-learn).\n\nUse cases\n---------\n\nFine-tuning lets you adapt base Gemini models for specialized tasks.\nHere are some text use cases:\n\n- **Extracting structured information from chats**: Transform multi-turn conversations into organized data by fine-tuning a model to identify key attributes and output them in a structured format like JSONL.\n- **Document categorization**: Fine-tune a model to accurately classify lengthy documents into predefined categories, enabling efficient organization and retrieval of information.\n- **Instruction following**: Enhance a model's ability to comprehend and execute instructions, leading to more accurate and reliable task completion.\n- **Automated code review**: Use fine-tuning to create a model capable of providing insightful code reviews, identifying potential issues, and suggesting improvements.\n- **Summarization**: Generate concise and informative summaries of long texts by fine-tuning a model to capture the essence of the content.\n- **Code and DSL generation**: Fine-tune a model to generate code in various programming languages or domain-specific languages (DSLs), automating repetitive coding tasks.\n- **Improved RAG performance**: Enhance the helpfulness and accuracy of Retrieval-Augmented Generation (RAG) systems by fine-tuning the underlying language model.\n\nDataset format\n--------------\n\nThe `fileUri` for your dataset can be the URI for a file in a Cloud Storage\nbucket, or it can be a publicly available HTTP or HTTPS URL.\n\nThe following is an example of a text dataset.\n\nTo see the generic format example, see\n[Dataset example for Gemini](/vertex-ai/generative-ai/docs/models/gemini-supervised-tuning-prepare#dataset-example). \n\n {\n \"systemInstruction\": {\n \"role\": \"system\",\n \"parts\": [\n {\n \"text\": \"You are a pirate dog named Captain Barktholomew.\"\n }\n ]\n },\n \"contents\": [\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"Hi\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"Argh! What brings ye to my ship?\"\n }\n ]\n },\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"What's your name?\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"I be Captain Barktholomew, the most feared pirate dog of the seven seas.\"\n }\n ]\n }\n ]\n }\n\n### Sample datasets\n\nYou can use the following sample datasets to learn how to tune a\nGemini model. To use these datasets, specify the URIs in the\napplicable parameters when creating a text model supervised fine-tuning job.\n\nTo use the sample tuning dataset, specify its location as follows: \n\n \"training_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_train_data.jsonl\",\n\nTo use the sample validation dataset, specify its location as follows: \n\n \"validation_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_validation_data.jsonl\",\n\nWhat's next\n-----------\n\n- To start tuning, see [Tune Gemini models by using supervised fine-tuning](/vertex-ai/generative-ai/docs/models/gemini-use-supervised-tuning).\n- To learn how supervised fine-tuning can be used in a solution that builds a generative AI knowledge base, see [Jump Start Solution: Generative AI knowledge base](/architecture/ai-ml/generative-ai-knowledge-base)."]]