Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Wenn Sie die vom Dienst zurückgegebenen Erklärungen berücksichtigen, sollten Sie diese allgemeinen Einschränkungen beachten. Ausführliche Erläuterungen finden Sie im AI Explanations Whitepaper.
Bedeutung und Umfang von Featureattributionen
Berücksichtigen Sie bei der Analyse der von Vertex Explainable AI bereitgestellten Featureattributionen Folgendes:
Jede Attribution zeigt nur an, wie stark sich das Feature auf die Vorhersage für dieses bestimmte Beispiel auswirkt. Eine einzelne Attribution spiegelt unter Umständen nicht das Gesamtverhalten des Modells wider. Aggregieren Sie Attributionen für das gesamte Dataset, um das ungefähre Modellverhalten für ein gesamtes Dataset zu verstehen.
Die Attributionen hängen vollständig vom Modell und den Daten ab, die zum Trainieren des Modells verwendet werden. Sie können nur die Muster erkennen, die vom Modell in den Daten gefunden wurden, keine grundlegenden Beziehungen in den Daten. Das Vorhandensein oder Fehlen einer starken Attribution zu einem bestimmten Feature bedeutet also nicht, dass eine Beziehung zwischen diesem Feature und dem Ziel besteht. Die Attribution zeigt lediglich, dass das Modell das Feature in seinen Vorhersagen verwendet oder nicht.
Über Attributione allein lässt sich nicht feststellen, ob Ihr Modell angemessen, verzerrungsfrei oder von guter Qualität ist. Prüfen Sie Ihre Trainingsdaten und Evaluierungsmesswerte zusätzlich zu den Attributionen sorgfältig.
Featureattributionen verbessern
Wenn Sie mit benutzerdefinierten Modellen arbeiten, können Sie bestimmte Parameter konfigurieren, um Ihre Erläuterungen zu verbessern. Dieser Abschnitt gilt nicht für AutoML-Modelle.
Die folgenden Faktoren haben die größte Auswirkung auf Featureattributionen:
Die Attributionsmethoden entsprechen ungefähr dem Shapley-Wert. Sie können die Genauigkeit der Näherung folgendermaßen erhöhen:
Die Anzahl der integralen Schritte für die integrierten Farbverläufe oder XRAI-Methoden erhöhen.
Die Anzahl integraler Pfade für die Sampled Shapley-Methode erhöhen.
Dadurch können sich die Attributionen drastisch ändern.
Die Attributionen geben nur an, wie stark sich das Feature auf die Änderung des Vorhersagewerts relativ zum Baselinewert auswirkt. Wählen Sie eine aussagekräftige Baseline, die für die Frage, die Sie dem Modell stellen, relevant ist.
Die Attributionswerte und ihre Interpretation können sich erheblich ändern, wenn Sie Baselines wechseln.
Bei integrierten Farbverläufen und XRAI kann die Verwendung von zwei Baselines Ihre Ergebnisse verbessern. Sie können beispielsweise Baselines angeben, die ein vollständig schwarzes Bild und ein vollständig weißes Bild darstellen.
Die beiden Attributionsmethoden, die Bilddaten unterstützen, sind integrierte Farbverläufe und XRAI.
Integrierte Farbverläufe sind eine Pixel-basierte Attributionsmethode, bei der wichtige Bereiche im Bild unabhängig vom Kontrast hervorgehoben werden. Diese Methode eignet sich daher ideal für nicht natürliche Bilder wie z. B. Röntgenaufnahmen. Die detaillierte Ausgabe kann es jedoch schwierig machen, die relative Bedeutung von Bereichen zu beurteilen. Die Standardausgabe hebt Bereiche im Bild hervor, die hohe positive Attributionen haben, indem Umrisse gezeichnet werden. Diese Umrisse werden jedoch nicht in eine Rangfolge gebracht und können sich über mehrere Objekte erstrecken.
XRAI funktioniert am besten bei natürlichen Bildern mit höherem Kontrast, die mehrere Objekte enthalten.
Da diese Methode regionsbasierte Attributionen erzeugt, wird eine reibungslosere, besser lesbare Heatmap der Regionen erzeugt, die für eine bestimmte Bildklassifizierung am auffälligsten sind.
XRAI funktioniert bei den folgenden Arten von Bildeingaben nicht:
Bilder mit geringem Kontrast, die alle eine Schattierung haben, z. B. Röntgenaufnahmen.
Sehr große oder sehr breite Bilder, z. B. Panoramen.
Sehr große Bilder, die die Gesamtlaufzeit verlangsamen können.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-18 (UTC)."],[],[],null,["# Limitations of Vertex Explainable AI\n\nAs you consider the explanations returned from the service, you should keep in\nmind these high-level limitations. For an in-depth explanation, refer to the\n[AI Explanations Whitepaper](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf).\n\nMeaning and scope of feature attributions\n-----------------------------------------\n\nConsider the following when analyzing feature attributions provided by\nVertex Explainable AI:\n\n- Each attribution only shows how much the feature affected the prediction for that particular example. A single attribution might not reflect the overall behavior of the model. To understand approximate model behavior on an entire dataset, aggregate attributions over the entire dataset.\n- The attributions depend entirely on the model and data used to train the model. They can only reveal the patterns the model found in the data, and can't detect any fundamental relationships in the data. The presence or absence of a strong attribution to a certain feature doesn't mean there is or is not a relationship between that feature and the target. The attribution merely shows that the model is or is not using the feature in its predictions.\n- Attributions alone can't tell if your model is fair, unbiased, or of sound quality. Carefully evaluate your training data and evaluation metrics in addition to the attributions.\n\nImproving feature attributions\n------------------------------\n\nWhen you are working with custom-trained models, you can configure specific\nparameters to improve your explanations. This section does not apply\nto AutoML models.\n\nThe following factors have the highest impact on feature attributions:\n\n- The attribution methods approximate the Shapley value. You can increase the\n precision of the approximation by:\n\n - Increasing the number of integral steps for the integrated gradients or XRAI methods.\n - Increasing the number of integral paths for the sampled Shapley method.\n\n As a result, the attributions could change dramatically.\n- The attributions only express how much the feature affected the change in\n prediction value, relative to the baseline value. Be sure to choose a\n meaningful baseline, relevant to the question you're asking of the model.\n Attribution values and their interpretation might change significantly as you\n switch baselines.\n\n- For integrated gradients and XRAI, using two baselines can improve your\n results. For example, you can specify baselines that represent an entirely\n black image and an entirely white image.\n\nRead more about [improving feature\nattributions](/vertex-ai/docs/explainable-ai/improving-explanations).\n\nLimitations for image data\n--------------------------\n\nThe two attribution methods that support image data are integrated gradients\nand XRAI.\n\nIntegrated gradients is a pixel-based attribution method that highlights\nimportant areas in the image regardless of contrast, making this method ideal\nfor non-natural images such as X-rays. However, the granular output can make it\ndifficult to assess the relative importance of areas. The default output\nhighlights areas in the image that have high positive attributions by drawing\noutlines, but these outlines are not ranked and may span across objects.\n\nXRAI works best on natural, higher-contrast images containing multiple objects.\nBecause this method produces region-based attributions, it produces a smoother,\nmore human-readable heatmap of regions that are most salient for a given\nimage classification.\n\nXRAI does *not* work well on the following types of image input:\n\n- Low-contrast images that are all one shade, such as X-rays.\n- Very tall or very wide images, such as panoramas.\n- Very large images, which may slow down overall runtime."]]