Halaman ini menjelaskan cara melakukan penyerapan data menggunakan sumber data yang didukung, seperti Cloud Storage, Google Drive, Slack, Jira, atau SharePoint, dan cara menggunakan data tersebut dengan Vertex AI RAG Engine. Import RagFiles API menyediakan konektor data ke sumber data ini.
Sumber data yang didukung untuk RAG
Sumber data berikut didukung:
- Mengupload file lokal: Upload satu file menggunakan
upload_file
(maksimal 25 MB), yang merupakan panggilan sinkron. - Cloud Storage: Mengimpor file dari Cloud Storage.
Google Drive: Mengimpor direktori dari Google Drive.
Akun layanan harus diberi izin yang benar untuk mengimpor file. Jika tidak, tidak ada file yang diimpor dan pesan error tidak akan ditampilkan. Untuk mengetahui informasi selengkapnya tentang batas ukuran file, lihat Jenis dokumen yang didukung.
Untuk mengautentikasi dan memberikan izin, lakukan hal berikut:
- Buka halaman IAM project Google Cloud Anda.
- Pilih Sertakan pemberian peran yang disediakan Google.
- Telusuri akun layanan Vertex AI RAG Data Service Agent.
- Klik Bagikan di folder Drive, lalu bagikan ke akun layanan.
- Berikan izin
Viewer
ke akun layanan di folder atau file Google Drive Anda. ID resource Google Drive dapat ditemukan di URL web.
Slack: Mengimpor file dari Slack menggunakan konektor data.
Jira: Mengimpor file dari Jira menggunakan konektor data.
Untuk informasi selengkapnya, lihat referensi RAG API.
Penghapusan duplikat data
Jika file yang sama diimpor beberapa kali tanpa perubahan, file akan dilewati
karena sudah ada. Oleh karena itu, response.skipped_rag_files_count
merujuk pada jumlah file yang dilewati selama proses impor.
File akan dilewati jika kondisi berikut terpenuhi:
- File telah diimpor.
- File belum berubah.
- Konfigurasi pengelompokan untuk file belum berubah.
Memahami kegagalan impor
Untuk memahami kegagalan impor, bagian ini menjelaskan metadata dalam respons terhadap permintaan impor dan sink data, yang merupakan tujuan untuk data yang Anda impor.
Metadata respons
Anda dapat menggunakan response.metadata
(objek respons di SDK) untuk melihat
hasil impor, waktu permintaan, dan waktu respons.
Mengimpor sink hasil
Di SDK, import_result_sink
adalah parameter fungsi opsional yang dapat
ditetapkan ke nilai string yang valid.
Jika import_result_sink
disediakan, hasil file yang berhasil dan gagal
akan ditulis ke sink. Dengan menulis semua hasil ke sink, akan lebih mudah untuk memahami mengapa beberapa file mungkin gagal diimpor dan file mana yang tidak diimpor.
import_result_sink
harus berupa jalur Cloud Storage atau tabel BigQuery.
Jika
import_result_sink
adalah jalur Cloud Storage, jalur tersebut harus menggunakan formatgs://my-bucket/my/object.ndjson
, dan objek tidak boleh ada. Setelah tugas impor selesai, setiap baris objek Cloud Storage berisi objek JSON, yang memiliki ID operasi, stempel waktu pembuatan, nama file, status, dan ID file.Jika
import_result_sink
adalah tabel BigQuery, tabel tersebut harus menggunakan formatbq://my-project.my-dataset.my-table
. Tabel tidak harus ada. Jika tidak ada, tabel akan dibuat. Jika tabel tersebut ada, skema akan diverifikasi. Saat pertama kali sink hasil impor BigQuery disediakan, Anda akan menyediakan tabel yang tidak ada; jika tidak, Anda dapat menggunakan kembali tabel yang ada.
Mengimpor file dari Cloud Storage atau Google Drive
Untuk mengimpor file dari Cloud Storage atau Google Drive ke korpus, lakukan langkah-langkah berikut:
Buat korpus dengan mengikuti petunjuk di Membuat korpus RAG.
Untuk mengimpor file dari Cloud Storage atau Google Drive, gunakan template.
Sistem akan otomatis memeriksa jalur, nama file, dan
version_id
file Anda.version_id
adalah hash file yang dihitung menggunakan konten file, yang mencegah file diindeks ulang.Jika file dengan nama file dan jalur yang sama memiliki pembaruan konten, file tersebut akan diindeks ulang.
Mengimpor file dari Slack
Untuk mengimpor file dari Slack ke korpus Anda, lakukan hal berikut:
- Buat korpus, yang merupakan indeks yang menyusun dan mengoptimalkan data Anda untuk penelusuran. Ikuti petunjuk di Membuat korpus RAG.
- Dapatkan
CHANNEL_ID
dari ID saluran Slack. - Membuat dan menyiapkan aplikasi untuk digunakan dengan Vertex AI RAG Engine.
- Dari UI Slack, di bagian Tambahkan fitur dan fungsi, klik Permissions.
- Tambahkan izin berikut:
channels:history
groups:history
im:history
mpim:history
- Klik Install to Workspace untuk menginstal aplikasi ke ruang kerja Slack Anda.
- Klik Salin untuk mendapatkan token API, yang mengautentikasi identitas Anda dan memberi Anda akses ke API.
- Tambahkan token API Anda ke Secret Manager.
- Untuk melihat secret yang disimpan, berikan peran Secret Manager Secret Accessor ke akun layanan Vertex AI RAG Engine project Anda.
Contoh kode curl dan Python berikut menunjukkan cara mengimpor file dari resource Slack Anda.
curl
Jika Anda ingin mendapatkan pesan dari saluran tertentu, ubah
CHANNEL_ID
.
API_KEY_SECRET_VERSION=SLACK_API_KEY_SECRET_VERSION
CHANNEL_ID=SLACK_CHANNEL_ID
PROJECT_ID=us-central1
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${ ENDPOINT }/v1beta1/projects/${ PROJECT_ID }/locations/${ PROJECT_ID }/ragCorpora/${ RAG_CORPUS_ID }/ragFiles:import \
-d '{
"import_rag_files_config": {
"slack_source": {
"channels": [
{
"apiKeyConfig": {
"apiKeySecretVersion": "'"${ API_KEY_SECRET_VERSION }"'"
},
"channels": [
{
"channel_id": "'"${ CHANNEL_ID }"'"
}
]
}
]
}
}
}'
Python
Jika Anda ingin mendapatkan pesan untuk rentang waktu tertentu atau dari saluran tertentu, ubah salah satu kolom berikut:
- START_TIME
- END_TIME
- CHANNEL1 atau CHANNEL2
# Slack example
start_time = protobuf.timestamp_pb2.Timestamp()
start_time.GetCurrentTime()
end_time = protobuf.timestamp_pb2.Timestamp()
end_time.GetCurrentTime()
source = rag.SlackChannelsSource(
channels = [
SlackChannel("CHANNEL1", "api_key1"),
SlackChannel("CHANNEL2", "api_key2", START_TIME, END_TIME)
],
)
response = rag.import_files(
corpus_name="projects/my-project/locations/us-central1/ragCorpora/my-corpus-1",
source=source,
chunk_size=512,
chunk_overlap=100,
)
Mengimpor file dari Jira
Untuk mengimpor file dari Jira ke dalam korpus, lakukan hal berikut:
- Buat korpus, yang merupakan indeks yang menyusun dan mengoptimalkan data Anda untuk penelusuran. Ikuti petunjuk di Membuat korpus RAG.
- Untuk membuat token API, login ke situs Atlassian.
- Gunakan {YOUR_ORG_ID}.atlassian.net sebagai SERVER_URI dalam permintaan.
- Gunakan email Atlassian Anda sebagai EMAIL dalam permintaan.
- Berikan
projects
ataucustomQueries
dengan permintaan Anda. Untuk mempelajari kueri kustom lebih lanjut, lihat Menggunakan penelusuran lanjutan dengan Jira Query Language (JQL).Saat Anda mengimpor
projects
,projects
akan diperluas ke kueri yang sesuai untuk mendapatkan seluruh project. Misalnya,MyProject
diperluas menjadiproject = MyProject
. - Klik Salin untuk mendapatkan token API, yang mengautentikasi identitas Anda dan memberi Anda akses ke API.
- Tambahkan token API Anda ke Secret Manager.
- Berikan peran Secret Manager Secret Accessor ke akun layanan Vertex AI RAG Engine project Anda.
curl
EMAIL=JIRA_EMAIL
API_KEY_SECRET_VERSION=JIRA_API_KEY_SECRET_VERSION
SERVER_URI=JIRA_SERVER_URI
CUSTOM_QUERY=JIRA_CUSTOM_QUERY
PROJECT_ID=JIRA_PROJECT
REGION= "us-central1"
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${ ENDPOINT }/v1beta1/projects/${ PROJECT_ID }/locations/REGION>/ragCorpora/${ RAG_CORPUS_ID }/ragFiles:import \
-d '{
"import_rag_files_config": {
"jiraSource": {
"jiraQueries": [{
"projects": ["'"${ PROJECT_ID }"'"],
"customQueries": ["'"${ CUSTOM_QUERY }"'"],
"email": "'"${ EMAIL }"'",
"serverUri": "'"${ SERVER_URI }"'",
"apiKeyConfig": {
"apiKeySecretVersion": "'"${ API_KEY_SECRET_VERSION }"'"
}
}]
}
}
}'
Python
# Jira Example
jira_query = rag.JiraQuery(
email="xxx@yyy.com",
jira_projects=["project1", "project2"],
custom_queries=["query1", "query2"],
api_key="api_key",
server_uri="server.atlassian.net"
)
source = rag.JiraSource(
queries=[jira_query],
)
response = rag.import_files(
corpus_name="projects/my-project/locations/REGION/ragCorpora/my-corpus-1",
source=source,
chunk_size=512,
chunk_overlap=100,
)
Mengimpor file dari SharePoint
Untuk mengimpor file dari situs SharePoint ke korpus, lakukan hal berikut:
- Buat korpus, yang merupakan indeks yang menyusun dan mengoptimalkan data Anda untuk penelusuran. Ikuti petunjuk di Membuat korpus RAG.
- Buat aplikasi Azure untuk mengakses situs SharePoint Anda.
- Untuk membuat pendaftaran, buka
Pendaftaran Aplikasi.
- Berikan nama untuk aplikasi.
- Pilih opsi, Accounts in this organizational directory only.
- Pastikan URI alihan kosong.
- Di bagian Ringkasan, gunakan ID Aplikasi (klien) sebagai CLIENT_ID, dan gunakan "ID Direktori (tenant) sebagai TENANT_ID.
- Di bagian Kelola, perbarui izin API dengan melakukan
hal berikut:
- Tambahkan izin
Sites.Read.All
SharePoint. - Tambahkan izin
Files.Read.All
danBrowser SiteLists.Read.All
Microsoft Graph. - Berikan izin admin agar perubahan izin ini diterapkan.
- Tambahkan izin
- Di bagian Kelola, lakukan tindakan berikut:
- Perbarui Sertifikat dan Rahasia dengan rahasia klien baru.
- Gunakan API_KEY_SECRET_VERSION untuk menambahkan nilai secret ke Secret Manager.
- Untuk membuat pendaftaran, buka
Pendaftaran Aplikasi.
- Berikan peran Secret Manager Secret Accessor ke akun layanan Vertex AI RAG Engine project Anda.
- Gunakan {YOUR_ORG_ID}.sharepoint.com sebagai SHAREPOINT_SITE_NAME.
- Nama drive atau ID drive di situs SharePoint harus ditentukan dalam permintaan.
- Opsional: Jalur folder atau ID folder di drive dapat ditentukan. Jika jalur folder atau ID folder tidak ditentukan, semua folder dan file di drive akan diimpor.
curl
CLIENT_ID=SHAREPOINT_CLIENT_ID
API_KEY_SECRET_VERSION=SHAREPOINT_API_KEY_SECRET_VERSION
TENANT_ID=SHAREPOINT_TENANT_ID
SITE_NAME=SHAREPOINT_SITE_NAME
FOLDER_PATH=SHAREPOINT_FOLDER_PATH
DRIVE_NAME=SHAREPOINT_DRIVE_NAME
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${ ENDPOINT }/v1beta1/projects/${ PROJECT_ID }/locations/REGION>/ragCorpora/${ RAG_CORPUS_ID }/ragFiles:import \
-d '{
"import_rag_files_config": {
"sharePointSources": {
"sharePointSource": [{
"clientId": "'"${ CLIENT_ID }"'",
"apiKeyConfig": {
"apiKeySecretVersion": "'"${ API_KEY_SECRET_VERSION }"'"
},
"tenantId": "'"${ TENANT_ID }"'",
"sharepointSiteName": "'"${ SITE_NAME }"'",
"sharepointFolderPath": "'"${ FOLDER_PATH }"'",
"driveName": "'"${ DRIVE_NAME }"'"
}]
}
}
}'
Python
from vertexai.preview import rag
from vertexai.preview.rag.utils import resources
CLIENT_ID="SHAREPOINT_CLIENT_ID"
API_KEY_SECRET_VERSION="SHAREPOINT_API_KEY_SECRET_VERSION"
TENANT_ID="SHAREPOINT_TENANT_ID"
SITE_NAME="SHAREPOINT_SITE_NAME"
FOLDER_PATH="SHAREPOINT_FOLDER_PATH"
DRIVE_NAME="SHAREPOINT_DRIVE_NAME"
# SharePoint Example.
source = resources.SharePointSources(
share_point_sources=[
resources.SharePointSource(
client_id=CLIENT_ID,
client_secret=API_KEY_SECRET_VERSION,
tenant_id=TENANT_ID,
sharepoint_site_name=SITE_NAME,
folder_path=FOLDER_PATH,
drive_id=DRIVE_ID,
)
]
)
response = rag.import_files(
corpus_name="projects/my-project/locations/REGION/ragCorpora/my-corpus-1",
source=source,
chunk_size=512,
chunk_overlap=100,
)