Teknologi AI generatif

Dokumentasi dan referensi untuk siklus proses lengkap dalam membangun aplikasi AI generatif dengan alat dan produk Google Cloud .

  • Mendapatkan akses ke Gemini 2.0 Flash Thinking
  • Penggunaan bulanan gratis untuk produk populer, termasuk AI API dan BigQuery
  • Tidak ada biaya otomatis, tanpa komitmen

Terus jelajahi dengan lebih dari 20 produk yang selalu gratis

Akses 20+ produk gratis untuk kasus penggunaan umum, termasuk API AI, VM, data warehouse, dan lainnya.

Mempelajari cara membangun aplikasi AI generatif

AI Generatif di Vertex AI

Akses model AI generatif besar dari Google sehingga Anda dapat menguji, menyesuaikan, dan men-deploy-nya untuk digunakan dalam aplikasi yang didukung AI.

Panduan Memulai Gemini

Lihat cara mengirim permintaan ke Gemini API melalui platform AI-ML Google Cloud, Vertex AI.

Orkestrasi AI/ML di GKE

Manfaatkan kecanggihan GKE sebagai platform AI/ML yang dapat disesuaikan dengan fitur penayangan dan pelatihan berperforma tinggi yang hemat biaya dengan opsi infrastruktur yang fleksibel dan skala yang terdepan di industri.

Kapan harus menggunakan AI generatif

Identifikasi apakah AI generatif, AI tradisional, atau kombinasi keduanya mungkin sesuai dengan kasus penggunaan bisnis Anda.

Mengembangkan aplikasi AI generatif

Pelajari cara mengatasi tantangan di setiap tahap pengembangan aplikasi AI generatif.

Contoh kode dan aplikasi contoh

Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.

Glosarium AI generatif

Pelajari istilah tertentu yang terkait dengan AI generatif.

Alat AI generatif

Daftar alat AI generatif termasuk Vertex AI Studio, Colab Enterprise/Notebooks, dan Workbench yang tercantum di bagian Konsol Cloud, serta SDK/API yang tercantum sebagai item terpisah.

Alur pengembangan AI generatif

Diagram alur pengembangan AI generatif dengan enam tahap: pemilihan model (termasuk Model Garden), rekayasa perintah (termasuk galeri perintah, Vertex AI Studio, bandingkan perintah, dan optimalkan perintah), penyesuaian (termasuk pelatihan dan penyesuaian), pengoptimalan (termasuk distilasi), deployment (termasuk Model Registry, prediksi online, dan prediksi batch), serta pemantauan. Tahap pemilihan model, pembuatan perintah, penyesuaian, dan pengoptimalan adalah bagian dari sub-siklus berulang yang diberi label Evaluasi.

Eksplorasi dan hosting model

Google Cloud menyediakan serangkaian model dasar canggih melalui Vertex AI, termasuk Gemini. Anda juga dapat men-deploy model pihak ketiga ke Vertex AI Model Garden atau menghosting sendiri di GKE atau Compute Engine.

Model Google di Vertex AI (Gemini, Imagen)

Temukan, uji, sesuaikan, dan deploy model serta aset Google dari library model ML.

Model lain di Vertex AI Model Garden

Temukan, uji, sesuaikan, dan deploy model serta aset OSS tertentu dari library model ML.

Model pembuatan teks melalui HuggingFace

Pelajari cara men-deploy model pembuatan teks HuggingFace ke Vertex AI atau Google Kubernetes Engine (GKE).

GPU di Compute Engine

Pasang GPU ke instance VM untuk mempercepat workload AI generatif di Compute Engine.

Desain dan rekayasa perintah

Desain perintah adalah proses penulisan pasangan perintah dan respons untuk memberikan konteks dan petunjuk tambahan kepada model bahasa. Setelah membuat perintah, Anda memasoknya ke model sebagai set data perintah untuk pra-pelatihan. Saat menayangkan prediksi, model akan merespons dengan menyertakan petunjuk Anda.

Vertex AI Studio

Desain, uji, dan sesuaikan perintah yang dikirim ke model bahasa besar (LLM) Gemini dan PaLM 2 Google.

Ringkasan Strategi Penulisan Prompt

Pelajari alur kerja rekayasa prompt dan strategi umum yang dapat Anda gunakan untuk memengaruhi respons model.
Lihat contoh perintah dan respons untuk kasus penggunaan tertentu.

Perujukan (Grounding) dan RAG

Perujukan menghubungkan model AI ke sumber data untuk meningkatkan akurasi respons dan mengurangi halusinasi. RAG, teknik perujukan umum, menelusuri informasi yang relevan dan menambahkannya ke perintah model, sehingga memastikan output didasarkan pada fakta dan informasi terbaru.

Grounding Vertex AI

Anda dapat men-grounding model Vertex AI dengan Google Penelusuran atau dengan data Anda sendiri yang disimpan di Vertex AI Search.
Gunakan Grounding dengan Google Penelusuran untuk menghubungkan model dengan pengetahuan terbaru yang tersedia di internet.

Embedding vektor di AlloyDB

Gunakan AlloyDB untuk membuat dan menyimpan embedding vektor, lalu mengindeks dan mengkueri embedding menggunakan ekstensi pgvector.

Cloud SQL dan pgvector

Simpan embedding vektor di Postgres SQL, lalu indeks dan kueri embedding menggunakan ekstensi pgvector.

Mengintegrasikan data BigQuery ke dalam aplikasi LangChain Anda

Gunakan LangChain untuk mengekstrak data dari BigQuery serta memperkaya dan mendasari respons model Anda.

Embedding vektor di Firestore

Buat embedding vektor dari data Firestore Anda, lalu buat indeks dan kueri embedding.

Embedding vektor di Memorystore (Redis)

Gunakan LangChain untuk mengekstrak data dari Memorystore serta memperkaya dan merujuk respons model Anda.

Agen dan pemanggilan fungsi

Agen memudahkan Anda mendesain dan mengintegrasikan antarmuka pengguna percakapan ke dalam aplikasi seluler, sementara panggilan fungsi memperluas kemampuan model.

Aplikasi AI

Manfaatkan model dasar, keahlian penelusuran, dan teknologi AI percakapan Google untuk aplikasi AI generatif tingkat perusahaan.

Panggilan fungsi Vertex AI

Tambahkan panggilan fungsi ke model Anda untuk mengaktifkan tindakan seperti membuat reservasi berdasarkan informasi kalender yang diekstrak.

Penyesuaian dan pelatihan model

Tugas khusus, seperti melatih model bahasa dengan terminologi tertentu, mungkin memerlukan lebih banyak pelatihan daripada yang dapat Anda lakukan hanya dengan desain atau perujukan perintah. Dalam skenario tersebut, Anda dapat menggunakan penyesuaian model untuk meningkatkan performa, atau melatih model Anda sendiri.

Mengevaluasi model di Vertex AI

Mengevaluasi performa model dasar dan model AI generatif yang telah disesuaikan di Vertex AI.

Menyesuaikan model Vertex AI

Model dasar serbaguna dapat memperoleh manfaat dari penyesuaian untuk meningkatkan performanya pada tugas tertentu.

Cloud TPU

TPU adalah ASIC yang dikembangkan khusus dari Google dan digunakan untuk mempercepat workload machine learning, seperti melatih LLM.

Mulai membuat aplikasi

LangChain adalah framework open source untuk aplikasi AI generatif yang memungkinkan Anda membangun konteks ke dalam perintah, dan mengambil tindakan berdasarkan respons model.
Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.