Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Ao considerar as explicações retornadas pelo serviço, você precisa ter em mente essas limitações avançadas. Para uma explicação detalhada, consulte o
Whitepaper sobre a AI Explanations (em inglês).
Significado e escopo das concessões de atributos
Considere o seguinte ao analisar atribuições de recurso fornecidas pela
Vertex Explainable AI:
Cada concessão mostra apenas quanto o atributo afetou a previsão do exemplo em questão. Uma única concessão pode não refletir o comportamento geral do modelo. Para entender o comportamento aproximado do modelo em um conjunto de dados completo, inclua concessões em todo o conjunto.
As concessões dependem totalmente do modelo e dos dados usados para treiná-lo. Elas informam apenas os padrões que o modelo encontrou nos dados e
não
detectam relações fundamentais neles. A presença ou a falta
de uma forte concessão de um determinado atributo não significa que há
uma relação entre esse atributo e o objetivo. A concessão apenas mostra se o modelo está usando o atributo nas previsões.
Só as concessões não informam se o modelo é justo, imparcial ou de qualidade. Avalie cuidadosamente seus dados de treinamento e métricas
de avaliação, além das atribuições.
Como aprimorar as concessões de atributos
Ao trabalhar com modelos treinados personalizados, é possível configurar parâmetros
específicos para melhorar suas explicações. Esta seção não se aplica
aos modelos do AutoML.
Os fatores a seguir têm o maior impacto nas concessões de atributos:
Os métodos de concessão são similares ao valor de Shapley. É possível aumentar a precisão da proximidade fazendo o seguinte:
Aumentando o número de etapas integrais para os métodos de gradientes integrados ou XRAI.
Aumentando o número de caminhos integrais para o método amostrado de Shapley.
Isso pode mudar bastante as concessões.
As concessões expressam apenas o quanto o atributo afetou a alteração no valor de previsão, em relação ao valor de referência. Escolha um valor de
referência significativo, relevante para a pergunta que você está fazendo sobre o modelo.
Os valores de concessão e a interpretação deles podem mudar bastante quando você alterna os valores de referência.
Para gradientes integrados e XRAI, o uso de valores de referência pode melhorar seus resultados. Por exemplo, é possível especificar valores de referência que representem uma imagem inteiramente preta e uma imagem totalmente branca.
Os dois métodos de atribuição compatíveis com dados de imagem são gradientes integrados e XRAI.
Os gradientes integrados são um método de atribuição com base em pixels que destaca áreas importantes da imagem, independentemente do contraste, tornando esse método ideal para imagens não naturais, como raio X. No entanto, a saída granular pode dificultar a avaliação da importância relativa das áreas. A saída padrão destaca áreas na imagem que têm atribuições positivas altas desenhando contornos, mas esses contornos não são classificados e podem abranger objetos.
O XRAI funciona melhor em imagens naturais de alto contraste que contêm vários objetos.
Como esse método produz atribuições com base na região, um mapa de calor mais suave e legível das regiões mais relevantes é produzido para uma determinada classificação de imagem.
O XRAI não funciona bem com os seguintes tipos de entrada de imagem:
Imagens de baixo contraste que são todas de uma tonalidade, como raios-X.
Imagens muito altas ou muito largas, como panoramas.
Imagens muito grandes, o que pode atrasar o tempo de execução geral.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-18 UTC."],[],[],null,["# Limitations of Vertex Explainable AI\n\nAs you consider the explanations returned from the service, you should keep in\nmind these high-level limitations. For an in-depth explanation, refer to the\n[AI Explanations Whitepaper](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf).\n\nMeaning and scope of feature attributions\n-----------------------------------------\n\nConsider the following when analyzing feature attributions provided by\nVertex Explainable AI:\n\n- Each attribution only shows how much the feature affected the prediction for that particular example. A single attribution might not reflect the overall behavior of the model. To understand approximate model behavior on an entire dataset, aggregate attributions over the entire dataset.\n- The attributions depend entirely on the model and data used to train the model. They can only reveal the patterns the model found in the data, and can't detect any fundamental relationships in the data. The presence or absence of a strong attribution to a certain feature doesn't mean there is or is not a relationship between that feature and the target. The attribution merely shows that the model is or is not using the feature in its predictions.\n- Attributions alone can't tell if your model is fair, unbiased, or of sound quality. Carefully evaluate your training data and evaluation metrics in addition to the attributions.\n\nImproving feature attributions\n------------------------------\n\nWhen you are working with custom-trained models, you can configure specific\nparameters to improve your explanations. This section does not apply\nto AutoML models.\n\nThe following factors have the highest impact on feature attributions:\n\n- The attribution methods approximate the Shapley value. You can increase the\n precision of the approximation by:\n\n - Increasing the number of integral steps for the integrated gradients or XRAI methods.\n - Increasing the number of integral paths for the sampled Shapley method.\n\n As a result, the attributions could change dramatically.\n- The attributions only express how much the feature affected the change in\n prediction value, relative to the baseline value. Be sure to choose a\n meaningful baseline, relevant to the question you're asking of the model.\n Attribution values and their interpretation might change significantly as you\n switch baselines.\n\n- For integrated gradients and XRAI, using two baselines can improve your\n results. For example, you can specify baselines that represent an entirely\n black image and an entirely white image.\n\nRead more about [improving feature\nattributions](/vertex-ai/docs/explainable-ai/improving-explanations).\n\nLimitations for image data\n--------------------------\n\nThe two attribution methods that support image data are integrated gradients\nand XRAI.\n\nIntegrated gradients is a pixel-based attribution method that highlights\nimportant areas in the image regardless of contrast, making this method ideal\nfor non-natural images such as X-rays. However, the granular output can make it\ndifficult to assess the relative importance of areas. The default output\nhighlights areas in the image that have high positive attributions by drawing\noutlines, but these outlines are not ranked and may span across objects.\n\nXRAI works best on natural, higher-contrast images containing multiple objects.\nBecause this method produces region-based attributions, it produces a smoother,\nmore human-readable heatmap of regions that are most salient for a given\nimage classification.\n\nXRAI does *not* work well on the following types of image input:\n\n- Low-contrast images that are all one shade, such as X-rays.\n- Very tall or very wide images, such as panoramas.\n- Very large images, which may slow down overall runtime."]]