Panduan ini menunjukkan cara menyesuaikan model Gemini menggunakan fine-tuning yang diawasi. Halaman ini membahas beberapa topik berikut: Diagram berikut merangkum alur kerja keseluruhan: Sebelum dapat menyesuaikan model, Anda harus menyiapkan set data penyesuaian terawasi. Untuk mengetahui petunjuknya, lihat dokumentasi untuk modalitas data Anda: Model Gemini berikut mendukung penyesuaian yang diawasi: Anda dapat membuat tugas penyesuaian terawasi menggunakan Google Cloud konsol, Google Gen AI SDK, Vertex AI SDK untuk Python, REST API, atau Colab Enterprise. Tabel berikut membantu Anda memutuskan opsi mana yang terbaik untuk kasus penggunaan Anda. Untuk menyesuaikan model teks menggunakan konsol Google Cloud , lakukan hal berikut: Di bagian Vertex AI pada konsol Google Cloud , buka halaman Vertex AI Studio. Klik Create tuned model. Di bagian Detail model, konfigurasi berikut: Di bagian Setelan penyesuaian, konfigurasikan hal berikut: Opsional: Untuk menonaktifkan titik pemeriksaan perantara dan hanya menggunakan titik pemeriksaan terbaru, pilih tombol Ekspor hanya titik pemeriksaan terakhir. Klik Lanjutkan. Halaman Tuning dataset akan terbuka. Pilih set data penyesuaian Anda: Opsional: Untuk mendapatkan metrik validasi selama pelatihan, pilih tombol Aktifkan validasi model. Klik Mulai Penyesuaian. Model baru Anda akan muncul di bagian Model yang di-tune Gemini Pro di halaman Tune dan Distilasi. Setelah tugas penyesuaian selesai, Status akan menjadi Berhasil. Untuk membuat tugas penyesuaian model, kirim permintaan POST menggunakan metode
Sebelum menggunakan salah satu data permintaan,
lakukan penggantian berikut:
Metode HTTP dan URL:
Isi JSON permintaan:
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
Simpan isi permintaan dalam file bernama
Simpan isi permintaan dalam file bernama Anda akan melihat respons JSON yang mirip seperti berikut:
Anda dapat membuat tugas penyesuaian model di Vertex AI menggunakan
panel samping di Colab Enterprise. Panel samping
menambahkan cuplikan kode yang relevan ke notebook Anda. Kemudian, Anda dapat mengubah cuplikan kode dan menjalankannya untuk membuat tugas penyesuaian. Untuk mempelajari lebih lanjut cara menggunakan panel samping dengan tugas penyesuaian Vertex AI, lihat Berinteraksi dengan Vertex AI untuk menyesuaikan model.
Di konsol Google Cloud , buka
halaman Notebook saya Colab Enterprise.
Di menu Region, pilih region yang berisi notebook Anda. Klik notebook yang ingin Anda buka. Jika Anda belum membuat notebook, buat notebook terlebih dahulu.
Di sebelah kanan notebook Anda, di panel samping, klik tombol
Panel samping akan meluaskan tab Penyesuaian. Klik tombol Tune a Gemini model.
Colab Enterprise menambahkan sel kode ke notebook Anda untuk
menyesuaikan model Gemini.
Di notebook, temukan sel kode yang menyimpan nilai parameter.
Anda akan menggunakan parameter ini untuk berinteraksi dengan Vertex AI.
Perbarui nilai untuk parameter berikut: Di sel kode berikutnya, perbarui parameter penyesuaian model: Jalankan sel kode yang ditambahkan panel samping ke notebook Anda.
Setelah sel kode terakhir berjalan, klik tombol
Panel samping menampilkan informasi tentang tugas penyesuaian model Anda.
Setelah tugas penyesuaian selesai, Anda dapat langsung membuka halaman tempat Anda dapat menguji model dari tab Detail penyesuaian.
Klik Uji.
Konsol Google Cloud akan membuka halaman
Text chat Vertex AI, tempat Anda dapat menguji model.
Untuk tugas penyesuaian pertama, gunakan hyperparameter default. Nilai ini ditetapkan ke nilai yang direkomendasikan berdasarkan hasil tolok ukur. Untuk mengetahui diskusi tentang praktik terbaik untuk penyesuaian terawasi, lihat postingan blog Supervised Fine Tuning for Gemini: A best practices guide. Anda dapat melihat daftar tugas penyesuaian, mendapatkan detail tugas tertentu, atau membatalkan tugas yang sedang berjalan. Untuk melihat daftar tugas penyesuaian dalam project Anda, gunakan Google Cloud konsol, Google Gen AI SDK, Vertex AI SDK untuk Python, atau kirim permintaan GET menggunakan metode Untuk melihat tugas penyesuaian di konsol Google Cloud , buka halaman Vertex AI Studio. Tugas penyesuaian Gemini Anda tercantum dalam tabel Gemini Pro tuned models. Untuk melihat daftar tugas penyesuaian model, kirim permintaan GET menggunakan metode
Sebelum menggunakan salah satu data permintaan,
lakukan penggantian berikut:
Metode HTTP dan URL:
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
Jalankan perintah berikut:
Jalankan perintah berikut:
Anda akan menerima respons JSON yang mirip dengan berikut ini. Untuk mendapatkan detail tugas penyesuaian tertentu, gunakan Google Cloud konsol, Google Gen AI SDK, Vertex AI SDK untuk Python, atau kirim permintaan GET menggunakan metode Untuk melihat detail model yang disesuaikan di konsol Google Cloud , buka halaman Vertex AI Studio. Di tabel Gemini Pro tuned models, temukan model Anda, lalu klik Details. Halaman detail model akan terbuka. Untuk mendapatkan detail tugas penyesuaian model, kirim permintaan GET menggunakan metode
Sebelum menggunakan salah satu data permintaan,
lakukan penggantian berikut:
Metode HTTP dan URL:
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
Jalankan perintah berikut:
Jalankan perintah berikut:
Anda akan menerima respons JSON yang mirip dengan berikut ini. Untuk membatalkan tugas penyesuaian yang sedang berjalan, gunakan Google Cloud konsol, Vertex AI SDK untuk Python, atau kirim permintaan POST menggunakan metode Untuk membatalkan tugas penyesuaian di konsol Google Cloud , buka halaman Vertex AI Studio. Di tabel Gemini Pro tuned models, klik Klik Cancel. Untuk membatalkan tugas penyesuaian model, kirim permintaan POST menggunakan metode
Sebelum menggunakan salah satu data permintaan,
lakukan penggantian berikut:
Metode HTTP dan URL:
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
Jalankan perintah berikut:
Jalankan perintah berikut:
Anda akan menerima respons JSON yang mirip dengan berikut ini. Setelah model disesuaikan, Anda dapat berinteraksi dengan endpointnya dengan cara yang sama seperti model dasar Gemini. Anda dapat menggunakan Vertex AI SDK untuk Python, Google Gen AI SDK, atau mengirim permintaan POST menggunakan metode Untuk model yang mendukung penalaran, seperti Gemini 2.5 Flash, tetapkan anggaran pemikiran ke 0 untuk tugas yang disesuaikan guna mengoptimalkan performa dan biaya. Selama fine-tuning yang diawasi, model belajar meniru kebenaran dasar dalam set data penyesuaian dan menghilangkan proses berpikir. Oleh karena itu, model yang di-tune dapat menangani tugas secara efektif tanpa anggaran penalaran. Contoh berikut menunjukkan cara memberikan perintah pada model yang telah disesuaikan dengan pertanyaan "Mengapa langit berwarna biru?". Untuk menguji model yang disesuaikan di konsol Google Cloud , buka halaman Vertex AI Studio. Di tabel Gemini Pro tuned models, temukan model Anda, lalu klik Test. Halaman baru akan terbuka tempat Anda dapat membuat percakapan dengan model yang telah disesuaikan. Untuk menguji model yang disesuaikan dengan perintah, kirim permintaan POST dan tentukan
Sebelum menggunakan salah satu data permintaan,
lakukan penggantian berikut:
Jika model menampilkan respons yang terlalu umum, terlalu pendek, atau model memberikan respons
pengganti, coba tingkatkan suhunya. Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak
yang lebih banyak. Untuk setiap langkah pemilihan token, token top-K dengan probabilitas
tertinggi akan diambil sampelnya. Kemudian token akan difilter lebih lanjut berdasarkan top-P dengan
token akhir yang dipilih menggunakan pengambilan sampel suhu. Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak
yang lebih banyak. Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk potensi respons yang lebih panjang.
Metode HTTP dan URL:
Isi JSON permintaan:
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
Simpan isi permintaan dalam file bernama
Simpan isi permintaan dalam file bernama Anda akan melihat respons JSON yang mirip seperti berikut: Untuk menghapus model yang di-tuning: Panggil metode
Sebelum menggunakan salah satu data permintaan,
lakukan penggantian berikut:
Metode HTTP dan URL:
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
Jalankan perintah berikut:
Jalankan perintah berikut:
Anda akan menerima kode status yang menandakan proses berhasil (2xx), dan sebuah respons kosong. Anda dapat mengonfigurasi tugas penyesuaian model untuk mengumpulkan dan melaporkan metrik penyesuaian dan evaluasi, yang kemudian dapat divisualisasikan di Vertex AI Studio. Untuk melihat metrik model yang disesuaikan: Di bagian Vertex AI pada konsol Google Cloud , buka halaman Vertex AI Studio. Di tabel Tune and Distill, klik nama model yang di-tune yang ingin Anda lihat. Metrik muncul di tab Monitor. Visualisasi tersedia setelah tugas penyesuaian dimulai dan diperbarui secara real time. Tugas penyesuaian model secara otomatis mengumpulkan metrik penyesuaian berikut untuk Jika Anda memberikan set data validasi saat membuat tugas penyesuaian, metrik validasi berikut akan dikumpulkan untuk
Sebelum memulai
Model yang didukung
Membuat tugas penyesuaian
Metode
Deskripsi
Kasus Penggunaan
Google Cloud console
Antarmuka pengguna grafis untuk membuat dan mengelola tugas penyesuaian.
Paling cocok untuk memulai, eksplorasi visual, atau tugas penyesuaian satu kali tanpa menulis kode.
Google Gen AI SDK
SDK Python tingkat tinggi yang berfokus secara khusus pada alur kerja AI generatif.
Ideal untuk developer Python yang menginginkan antarmuka yang disederhanakan dan berfokus pada AI generatif.
Vertex AI SDK untuk Python
SDK Python komprehensif untuk semua layanan Vertex AI.
Direkomendasikan untuk mengintegrasikan penyesuaian model ke dalam pipeline MLOps yang lebih besar dan skrip otomatisasi.
REST API
Antarmuka independen bahasa untuk membuat permintaan HTTP langsung ke Vertex AI API.
Gunakan untuk integrasi kustom, lingkungan non-Python, atau saat Anda memerlukan kontrol terperinci atas permintaan.
Colab Enterprise
Lingkungan notebook interaktif dengan panel samping yang menghasilkan cuplikan kode untuk penyesuaian.
Sangat baik untuk eksperimen, pengembangan iteratif, dan mendokumentasikan proses penyesuaian Anda dalam notebook.
Konsol
gemini-2.5-flash
.
Google Gen AI SDK
Vertex AI SDK untuk Python
REST
tuningJobs.create
. Beberapa parameter tidak didukung oleh semua model. Sertakan hanya parameter yang berlaku untuk model yang sedang disesuaikan.
true
untuk hanya menggunakan checkpoint terbaru.projects/my-project/locations/my-region/keyRings/my-kr/cryptoKeys/my-key
. Kunci harus berada di region yang sama dengan tempat resource komputasi dibuat. Untuk informasi selengkapnya, lihat Kunci enkripsi yang dikelola pelanggan (CMEK).roles/aiplatform.tuningServiceAgent
ke akun layanan tersebut. Berikan juga peran Tuning Service Agent roles/iam.serviceAccountTokenCreator
ke Akun Layanan yang dikelola pelanggan.POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
{
"baseModel": "BASE_MODEL",
"supervisedTuningSpec" : {
"trainingDatasetUri": "TRAINING_DATASET_URI",
"validationDatasetUri": "VALIDATION_DATASET_URI",
"hyperParameters": {
"epochCount": "EPOCH_COUNT",
"adapterSize": "ADAPTER_SIZE",
"learningRateMultiplier": "LEARNING_RATE_MULTIPLIER"
},
"export_last_checkpoint_only": EXPORT_LAST_CHECKPOINT_ONLY,
},
"tunedModelDisplayName": "TUNED_MODEL_DISPLAYNAME",
"encryptionSpec": {
"kmsKeyName": "KMS_KEY_NAME"
},
"serviceAccount": "SERVICE_ACCOUNT"
}
curl
request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"PowerShell
request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand ContentContoh perintah curl
PROJECT_ID=myproject
LOCATION=global
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
"https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/tuningJobs" \
-d \
$'{
"baseModel": "gemini-2.5-flash",
"supervisedTuningSpec" : {
"training_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_train_data.jsonl",
"validation_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_validation_data.jsonl"
},
"tunedModelDisplayName": "tuned_gemini"
}'
Colab Enterprise
PROJECT_ID
: ID project tempat
notebook Anda berada.
REGION
: Region tempat notebook Anda berada.
TUNED_MODEL_DISPLAY_NAME
: Nama model yang disesuaikan.
source_model
: Model Gemini yang
ingin Anda gunakan, misalnya, gemini-2.0-flash-001
.
train_dataset
: URL set data pelatihan Anda.
validation_dataset
: URL set data validasi Anda.
Menyesuaikan hyperparameter
Melihat dan mengelola tugas penyesuaian
Melihat daftar tugas penyesuaian
tuningJobs
. Konsol
Google Gen AI SDK
Vertex AI SDK untuk Python
REST
tuningJobs.list
.
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
curl
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand ContentMendapatkan detail tugas penyesuaian
tuningJobs
. Konsol
Google Gen AI SDK
Vertex AI SDK untuk Python
REST
tuningJobs.get
dan tentukan TuningJob_ID
.
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID
curl
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID" | Select-Object -Expand ContentMembatalkan tugas penyesuaian
tuningJobs
. Konsol
Vertex AI SDK untuk Python
REST
tuningJobs.cancel
dan tentukan TuningJob_ID
.
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel
curl
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d "" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel" | Select-Object -Expand ContentMengevaluasi model yang di-tuning
generateContent
. Konsol
Google Gen AI SDK
Vertex AI SDK untuk Python
from vertexai.generative_models import GenerativeModel
sft_tuning_job = sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>")
tuned_model = GenerativeModel(sft_tuning_job.tuned_model_endpoint_name)
print(tuned_model.generate_content(content))
REST
TUNED_ENDPOINT_ID
.
topP
dan topK
diterapkan. Suhu mengontrol tingkat keacakan dalam pemilihan token.
Suhu yang lebih rendah cocok untuk perintah yang memerlukan respons yang kurang terbuka atau kreatif, sedangkan
suhu yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif. Suhu 0
berarti token probabilitas tertinggi selalu dipilih. Dalam hal ini, respons untuk permintaan
tertentu sebagian besar deterministik, tetapi sedikit variasi masih dapat dilakukan.
0.5
, model akan memilih A atau B sebagai token berikutnya dengan menggunakan suhu dan mengecualikan C sebagai kandidat.
1
berarti token yang dipilih berikutnya adalah yang paling mungkin di antara semua token dalam kosakata model (juga disebut decoding greedy), sedangkan nilai top-K dari 3
berarti token berikutnya dipilih di antara tiga token yang paling mungkin menggunakan suhu.
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent
{
"contents": [
{
"role": "USER",
"parts": {
"text" : "Why is sky blue?"
}
}
],
"generation_config": {
"temperature":TEMPERATURE,
"topP": TOP_P,
"topK": TOP_K,
"maxOutputTokens": MAX_OUTPUT_TOKENS
}
}
curl
request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent"PowerShell
request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent" | Select-Object -Expand ContentMenghapus model yang disesuaikan
Vertex AI SDK untuk Python
from google.cloud import aiplatform
aiplatform.init(project=PROJECT_ID, location=LOCATION)
# To find out which models are available in Model Registry
models = aiplatform.Model.list()
model = aiplatform.Model(MODEL_ID)
model.delete()
REST
models.delete
.
DELETE https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID
curl
curl -X DELETE \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method DELETE `
-Headers $headers `
-Uri "https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID" | Select-Object -Expand ContentMetrik penyesuaian dan validasi
Metrik penyesuaian model
Gemini 2.0 Flash
:
/train_total_loss
: Kerugian untuk set data penyesuaian pada langkah pelatihan./train_fraction_of_correct_next_step_preds
: Akurasi token pada langkah pelatihan. Satu prediksi terdiri dari serangkaian token. Metrik ini mengukur akurasi token yang diprediksi jika dibandingkan dengan kebenaran dasar dalam set data penyesuaian./train_num_predictions
: Jumlah token yang diprediksi pada langkah pelatihan.Metrik validasi model
Gemini 2.0 Flash
. Jika Anda tidak menentukan set data validasi, hanya metrik penyesuaian yang tersedia.
/eval_total_loss
: Kerugian untuk set data validasi pada langkah validasi./eval_fraction_of_correct_next_step_preds
: Akurasi token pada langkah validasi. Satu prediksi terdiri dari serangkaian token. Metrik ini mengukur akurasi token yang diprediksi jika dibandingkan dengan kebenaran dasar dalam set data validasi./eval_num_predictions
: Jumlah token yang diprediksi pada langkah validasi.Langkah berikutnya
Menyesuaikan model Gemini menggunakan fine tuning yang diawasi
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-08-19 UTC.