Gemma adalah sekumpulan model terbuka kecerdasan buatan (AI) generatif yang ringan. Model Gemma tersedia untuk dijalankan di aplikasi dan di hardware, perangkat seluler, atau layanan yang dihosting. Anda juga dapat menyesuaikan model ini menggunakan teknik penyesuaian sehingga model tersebut dapat melakukan tugas yang penting bagi Anda dan pengguna Anda dengan lebih baik. Model Gemma didasarkan pada model Gemini dan ditujukan bagi komunitas pengembangan AI untuk diperluas dan dikembangkan lebih lanjut.
Penyesuaian dapat membantu meningkatkan performa model dalam tugas tertentu. Karena model dalam keluarga model Gemma memiliki bobot terbuka, Anda dapat menyesuaikan model tersebut menggunakan framework AI pilihan Anda dan Vertex AI SDK. Anda dapat membuka contoh notebook untuk menyetel model Gemma menggunakan link yang tersedia di kartu model Gemma di Model Garden.
Model Gemma berikut tersedia untuk digunakan dengan Vertex AI. Untuk mempelajari lebih lanjut dan menguji model Gemma, lihat kartu modelnya di Model Garden.
Nama model | Use cases | Kartu model Model Garden |
---|---|---|
Gemma 3n | Mampu menerima input multimodal, menangani input teks, gambar, video, dan audio, serta menghasilkan output teks. | Buka kartu model Gemma 3n |
Gemma 3 | Paling cocok untuk tugas pembuatan teks dan pemahaman gambar, termasuk penjawaban pertanyaan, ringkasan, dan penalaran. | Buka kartu model Gemma 3 |
Gemma 2 | Terbaik untuk pembuatan, peringkasan, dan ekstraksi teks. | Buka kartu model Gemma 2 |
Gemma | Terbaik untuk pembuatan, peringkasan, dan ekstraksi teks. | Buka kartu model Gemma |
CodeGemma | Terbaik untuk pembuatan dan penyelesaian kode. | Buka kartu model CodeGemma |
PaliGemma 2 | Terbaik untuk tugas pemberian teks gambar dan tugas menjawab pertanyaan visual. | Buka kartu model PaliGemma 2 |
PaliGemma | Terbaik untuk tugas pemberian teks gambar dan tugas menjawab pertanyaan visual. | Buka kartu model PaliGemma |
ShieldGemma 2 | Memeriksa keamanan gambar sintetis dan alami untuk membantu Anda membuat set data dan model yang andal. | Buka kartu model ShieldGemma 2 |
TxGemma | Paling cocok untuk tugas prediksi terapeutik, termasuk klasifikasi, regresi, atau pembuatan, dan tugas penalaran. | Buka kartu model TxGemma |
MedGemma | Varian Gemma 3 yang dilatih untuk performa pada pemahaman teks dan gambar medis. | Buka kartu model MedGemma |
MedSigLIP | Varian SigLIP yang dilatih untuk mengenkode gambar dan teks medis ke dalam ruang penyematan umum. | Buka kartu model MedSigLIP |
T5Gemma | Cocok untuk berbagai tugas generatif, termasuk question answering, ringkasan, dan penalaran. | Buka kartu model T5Gemma |
Berikut beberapa opsi tempat Anda dapat menggunakan Gemma:
Menggunakan Gemma dengan Vertex AI
Vertex AI menawarkan platform terkelola untuk membangun dan menskalakan project machine learning dengan cepat tanpa memerlukan keahlian MLOps internal. Anda dapat menggunakan Vertex AI sebagai aplikasi hilir yang menayangkan model Gemma. Misalnya, Anda dapat mengonversi bobot dari penerapan Gemma di Keras. Selanjutnya, Anda dapat menggunakan Vertex AI untuk menayangkan versi Gemma tersebut guna mendapatkan prediksi. Sebaiknya gunakan Vertex AI jika Anda menginginkan kemampuan MLOps end-to-end, fitur ML bernilai tambah, dan pengalaman serverless untuk pengembangan yang lancar.
Untuk mulai menggunakan Gemma, lihat notebook berikut:
Menyesuaikan Gemma 3 menggunakan PEFT, lalu men-deploy ke Vertex AI dari Vertex
Menyesuaikan Gemma 2 menggunakan PEFT, lalu men-deploy ke Vertex AI dari Vertex
Menyesuaikan Gemma menggunakan PEFT, lalu men-deploy ke Vertex AI dari Vertex
Menyesuaikan Gemma menggunakan PEFT, lalu men-deploy ke Vertex AI dari Hugging Face
Menyesuaikan Gemma menggunakan KerasNLP, lalu men-deploy ke Vertex AI
Menyesuaikan Gemma dengan Ray on Vertex AI, lalu men-deploy ke Vertex AI
Menjalankan inferensi lokal dengan ShieldGemma 2 menggunakan transformer Hugging Face
Menjalankan inferensi lokal dengan T5Gemma menggunakan transformer Hugging Face
Menggunakan Gemma di produk Google Cloud lainnya
Anda dapat menggunakan Gemma dengan produk Google Cloud lain, seperti Google Kubernetes Engine dan Dataflow.
Menggunakan Gemma dengan GKE
Google Kubernetes Engine (GKE) adalah Google Cloud solusi untuk Kubernetes terkelola yang memberikan skalabilitas, keamanan, ketahanan, dan efektivitas biaya. Kami merekomendasikan opsi ini jika Anda telah berinvestasi di Kubernetes, organisasi Anda memiliki keahlian MLOps internal, atau jika Anda memerlukan kontrol terperinci atas workload AI/ML yang kompleks dengan persyaratan keamanan, pipeline data, dan pengelolaan resource yang unik. Untuk mempelajari lebih lanjut, lihat tutorial berikut dalam dokumentasi GKE:
- Menyajikan Gemma dengan vLLM
- Menyajikan Gemma dengan TGI
- Menyajikan Gemma dengan Triton dan TensorRT-LLM
- Menyajikan Gemma dengan JetStream
Menggunakan Gemma dengan Dataflow
Anda dapat menggunakan model Gemma dengan Dataflow untuk analisis sentimen. Gunakan Dataflow untuk menjalankan pipeline inferensi yang menggunakan model Gemma. Untuk mempelajari lebih lanjut, lihat Menjalankan pipeline inferensi dengan model terbuka Gemma.
Menggunakan Gemma dengan Colab
Anda dapat menggunakan Gemma dengan Colaboratory untuk membuat solusi Gemma Anda. Di Colab, Anda dapat menggunakan Gemma dengan opsi framework seperti PyTorch dan JAX. Untuk mempelajari lebih lanjut, lihat:
- Mulai menggunakan Gemma dengan Keras.
- Mulai menggunakan Gemma dengan PyTorch.
- Penyesuaian dasar dengan Gemma menggunakan Keras.
- Penyesuaian terdistribusi dengan Gemma menggunakan Keras.
Ukuran dan kemampuan model Gemma
Model Gemma tersedia dalam beberapa ukuran sehingga Anda dapat membangun solusi AI generatif berdasarkan resource komputasi yang tersedia, kemampuan yang Anda butuhkan, dan tempat Anda ingin menjalankannya. Setiap model tersedia dalam versi yang di-tuning dan yang tidak di-tuning:
Terlatih Awal - Versi model ini tidak dilatih untuk tugas atau petunjuk tertentu di luar set data pelatihan inti Gemma. Sebaiknya Anda tidak menggunakan model ini tanpa melakukan penyesuaian.
Disetel untuk mengikuti perintah (Instruction-tuned) - Versi model ini dilatih dengan interaksi bahasa manusia sehingga dapat berpartisipasi dalam percakapan, mirip dengan bot chat dasar.
Campuran yang disesuaikan - Versi model ini disesuaikan pada campuran set data akademis dan menerima perintah bahasa alami.
Ukuran parameter yang lebih kecil berarti persyaratan resource yang lebih rendah dan fleksibilitas deployment yang lebih besar.
Nama model | Ukuran parameter | Input | Output | Versi yang di-tune | Platform yang dituju |
---|---|---|---|---|---|
Gemma 3n | |||||
Gemma 3n E4B | 4 miliar parameter efektif | Teks, gambar, dan audio | Teks |
|
Perangkat seluler dan laptop |
Gemma 3n E2B | 2 miliar parameter efektif | Teks, gambar, dan audio | Teks |
|
Perangkat seluler dan laptop |
Gemma 3 | |||||
Gemma 27B | 27 miliar | Teks dan gambar | Teks |
|
Server atau cluster server besar |
Gemma 12B | 12 miliar | Teks dan gambar | Teks |
|
Komputer desktop dan server kelas atas |
Gemma 4B | 4 miliar | Teks dan gambar | Teks |
|
Komputer desktop dan server kecil |
Gemma 1B | 1 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
Gemma 2 | |||||
Gemma 27B | 27 miliar | Teks | Teks |
|
Server atau cluster server besar |
Gemma 9B | 9 miliar | Teks | Teks |
|
Komputer desktop dan server kelas atas |
Gemma 2B | 2 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
Gemma | |||||
Gemma 7B | 7 miliar | Teks | Teks |
|
Komputer desktop dan server kecil |
Gemma 2B | 2,2 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
CodeGemma | |||||
CodeGemma 7B | 7 miliar | Teks | Teks |
|
Komputer desktop dan server kecil |
CodeGemma 2B | 2 miliar | Teks | Teks |
|
Komputer desktop dan server kecil |
PaliGemma 2 | |||||
PaliGemma 28B | 28 miliar | Teks dan gambar | Teks |
|
Server atau cluster server besar |
PaliGemma 10B | 10 miliar | Teks dan gambar | Teks |
|
Komputer desktop dan server kelas atas |
PaliGemma 3B | 3 miliar | Teks dan gambar | Teks |
|
Komputer desktop dan server kecil |
PaliGemma | |||||
PaliGemma 3B | 3 miliar | Teks dan gambar | Teks |
|
Komputer desktop dan server kecil |
ShieldGemma 2 | |||||
ShieldGemma 2 | 4 miliar | Teks dan gambar | Teks |
|
Komputer desktop dan server kecil |
TxGemma | |||||
TxGemma 27B | 27 miliar | Teks | Teks |
|
Server atau cluster server besar |
TxGemma 9B | 9 miliar | Teks | Teks |
|
Komputer desktop dan server kelas atas |
TxGemma 2B | 2 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
MedGemma | |||||
MedGemma 27B | 27 miliar | Teks dan gambar | Teks |
|
Server atau cluster server besar |
MedGemma 4B | 4 miliar | Teks dan gambar | Teks |
|
Komputer desktop dan server kecil |
MedSigLIP | |||||
MedSigLIP | 800 juta | Teks dan gambar | Embedding |
|
Perangkat seluler dan laptop |
T5Gemma | |||||
T5Gemma 9B-9B | 18 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
T5Gemma 9B-2B | 11 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
T5Gemma 2B-2B | 4 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
T5Gemma XL-XL | 4 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
T5Gemma M-L | 2 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
T5Gemma L-L | 1 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
T5Gemma B-B | 0,6 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
T5Gemma S-S | 0,3 miliar | Teks | Teks |
|
Perangkat seluler dan laptop |
Gemma telah diuji menggunakan hardware TPU v5e buatan khusus Google dan hardware GPU L4(G2 Standard), A100(A2 Standard), H100(A3 High) NVIDIA.
Langkah berikutnya
- Lihat dokumentasi Gemma.