Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Saat mempertimbangkan penjelasan yang ditampilkan dari layanan, Anda harus memperhatikan batasan umum berikut. Untuk penjelasan mendalam, lihat Laporan Resmi AI Explanations.
Pengertian dan cakupan atribusi fitur
Pertimbangkan hal-hal berikut saat menganalisis atribusi fitur yang disediakan oleh Vertex Explainable AI:
Setiap atribusi hanya menunjukkan seberapa besar fitur tersebut memengaruhi prediksi untuk contoh tertentu. Atribusi tunggal mungkin tidak mencerminkan perilaku model
secara keseluruhan. Untuk memahami perkiraan perilaku model di seluruh set data, gabungkan atribusi di seluruh set data.
Atribusi bergantung sepenuhnya pada model dan data yang digunakan untuk melatih model tersebut. Atribusi ini hanya dapat mengungkapkan pola yang ditemukan oleh model di dalam data, dan tidak dapat mendeteksi hubungan mendasar dalam data. Ada atau tidaknya atribusi yang kuat ke fitur tertentu tidak berarti ada atau tidak adanya hubungan antara fitur tersebut dengan target. Atribusi hanya menunjukkan bahwa model menggunakan atau tidak menggunakan fitur tersebut dalam prediksinya.
Atribusi saja tidak dapat menunjukkan apakah model Anda fair, tidak bias, atau berkualitas wajar. Selain atribusi, evaluasi data pelatihan dan metrik evaluasi Anda dengan cermat.
Meningkatkan kualitas atribusi fitur
Saat bekerja dengan model yang dilatih khusus, Anda dapat mengonfigurasi parameter tertentu untuk meningkatkan kualitas penjelasan. Bagian ini tidak berlaku untuk model AutoML.
Faktor-faktor berikut memiliki dampak terbesar terhadap atribusi fitur:
Metode atribusi memperkirakan nilai Shapley. Anda dapat meningkatkan presisi perkiraan dengan:
Meningkatkan jumlah langkah integral untuk metode Integrated gradients atau XRAI.
Meningkatkan jumlah jalur integral untuk metode Sampled Shapley.
Akibatnya, atribusi dapat berubah secara drastis.
Atribusi hanya menyatakan seberapa besar fitur tersebut memengaruhi perubahan
nilai prediksi, relatif terhadap nilai dasar pengukuran. Pastikan untuk memilih
dasar pengukuran yang bermakna, yang relevan dengan pertanyaan yang Anda ajukan tentang model.
Nilai atribusi dan penafsirannya dapat berubah signifikan saat Anda beralih baseline.
Untuk metode Integrated Gradients dan XRAI, penggunaan dua baseline dapat meningkatkan kualitas hasil. Misalnya, Anda dapat menentukan baseline yang merepresentasikan gambar yang seluruhnya hitam dan seluruhnya putih.
Dua metode atribusi yang mendukung data gambar adalah Integrated Gradients dan XRAI.
Integrated Gradients adalah metode atribusi berbasis piksel yang menyoroti area penting dalam gambar terlepas dari kontrasnya, sehingga ideal untuk gambar tidak alami seperti sinar-X. Namun, output terperinci dapat membuat metode ini kesulitan untuk menilai tingkat kepentingan relatif berbagai area. Output default metode ini menyoroti area dalam gambar yang memiliki atribusi positif tinggi dengan menggambar garis batas, tetapi garis batas tersebut tidak diperingkatkan dan dapat mencakup banyak objek.
XRAI berfungsi paling baik pada gambar yang alami dan memiliki kontras tinggi serta berisi banyak objek.
Karena menghasilkan atribusi berbasis area, metode ini akan menghasilkan peta panas yang lebih halus dan mudah dibaca manusia dari area yang paling kentara untuk klasifikasi gambar tertentu.
XRAI tidak berfungsi dengan baik pada jenis input gambar berikut:
Gambar berkontras rendah yang semuanya berupa satu bayangan, misalnya sinar-X.
Gambar yang sangat tinggi atau sangat lebar, seperti panorama.
Gambar yang sangat besar, yang dapat memperlambat runtime secara keseluruhan.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-18 UTC."],[],[],null,["# Limitations of Vertex Explainable AI\n\nAs you consider the explanations returned from the service, you should keep in\nmind these high-level limitations. For an in-depth explanation, refer to the\n[AI Explanations Whitepaper](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf).\n\nMeaning and scope of feature attributions\n-----------------------------------------\n\nConsider the following when analyzing feature attributions provided by\nVertex Explainable AI:\n\n- Each attribution only shows how much the feature affected the prediction for that particular example. A single attribution might not reflect the overall behavior of the model. To understand approximate model behavior on an entire dataset, aggregate attributions over the entire dataset.\n- The attributions depend entirely on the model and data used to train the model. They can only reveal the patterns the model found in the data, and can't detect any fundamental relationships in the data. The presence or absence of a strong attribution to a certain feature doesn't mean there is or is not a relationship between that feature and the target. The attribution merely shows that the model is or is not using the feature in its predictions.\n- Attributions alone can't tell if your model is fair, unbiased, or of sound quality. Carefully evaluate your training data and evaluation metrics in addition to the attributions.\n\nImproving feature attributions\n------------------------------\n\nWhen you are working with custom-trained models, you can configure specific\nparameters to improve your explanations. This section does not apply\nto AutoML models.\n\nThe following factors have the highest impact on feature attributions:\n\n- The attribution methods approximate the Shapley value. You can increase the\n precision of the approximation by:\n\n - Increasing the number of integral steps for the integrated gradients or XRAI methods.\n - Increasing the number of integral paths for the sampled Shapley method.\n\n As a result, the attributions could change dramatically.\n- The attributions only express how much the feature affected the change in\n prediction value, relative to the baseline value. Be sure to choose a\n meaningful baseline, relevant to the question you're asking of the model.\n Attribution values and their interpretation might change significantly as you\n switch baselines.\n\n- For integrated gradients and XRAI, using two baselines can improve your\n results. For example, you can specify baselines that represent an entirely\n black image and an entirely white image.\n\nRead more about [improving feature\nattributions](/vertex-ai/docs/explainable-ai/improving-explanations).\n\nLimitations for image data\n--------------------------\n\nThe two attribution methods that support image data are integrated gradients\nand XRAI.\n\nIntegrated gradients is a pixel-based attribution method that highlights\nimportant areas in the image regardless of contrast, making this method ideal\nfor non-natural images such as X-rays. However, the granular output can make it\ndifficult to assess the relative importance of areas. The default output\nhighlights areas in the image that have high positive attributions by drawing\noutlines, but these outlines are not ranked and may span across objects.\n\nXRAI works best on natural, higher-contrast images containing multiple objects.\nBecause this method produces region-based attributions, it produces a smoother,\nmore human-readable heatmap of regions that are most salient for a given\nimage classification.\n\nXRAI does *not* work well on the following types of image input:\n\n- Low-contrast images that are all one shade, such as X-rays.\n- Very tall or very wide images, such as panoramas.\n- Very large images, which may slow down overall runtime."]]