Ver as explicações

Neste guia, descrevemos como receber explicações de um recurso Model na Vertex AI. Há duas maneiras de ter acesso às explicações:

  • Explicação on-line:solicitações síncronas à API Vertex AI, semelhante às inferências on-line que retornam inferências com atribuições de recursos.

  • Explicação em lote:solicitações assíncronas à API Vertex AI que retornam inferências com atribuições de recursos. As explicações em lote são uma parte opcional das solicitações de inferência em lote.

Antes de começar

Antes de ver as explicações, faça o seguinte:

  1. Esta etapa tem diferenças dependendo do tipo de modelo de machine learning usado:

  2. Se você quiser receber explicações on-line, implante o Model criado na etapa anterior em um recurso Endpoint.

Ver explicações on-line

Para explicações on-line, siga a maioria das etapas que você usaria para receber inferências on-line. No entanto, em vez de enviar uma solicitação projects.locations.endpoints.predict à API Vertex AI, envie uma solicitação projects.locations.endpoints.explain.

Os guias a seguir fornecem instruções detalhadas para preparar e enviar solicitações de explicação on-line:

Receber explicações em lote

Somente explicações em lote com base em recursos são suportadas. Não é possível receber explicações em lote com base em exemplos.

Para explicações em lote, defina o campo generateExplanation como true ao criar um job de inferência em lote.

Para instruções detalhadas sobre como preparar e criar jobs de previsão em lote, leia Como conseguir inferências em lote.

Acessar explicações simultâneas

A Explainable AI oferece suporte a explicações simultâneas. Explicações simultâneas permitem solicitar explicações baseadas em atributos e exemplos do mesmo endpoint de modelo implantado sem precisar implantar seu modelo separadamente para cada método de explicação.

Para receber explicações simultâneas, faça o upload do seu modelo e configure as explicações com base em exemplos ou com base em recursos. Em seguida, implante o modelo normalmente.

Após a implantação do modelo, é possível solicitar as explicações configuradas normalmente. Além disso, é possível solicitar explicações simultâneas especificando concurrent_explanation_spec_override.

Ao usar explicações simultâneas, observe o seguinte:

  • Explicações simultâneas estão disponíveis usando apenas a versão v1beta1 da API. Se você estiver usando o SDK Vertex para Python, precisará usar o modelo preview para usar explicações simultâneas.
  • Explicações baseadas em exemplos não podem ser solicitadas após a implantação com explicações baseadas em recursos. Se você quiser explicações baseadas em exemplo e em recursos, implante o modelo usando as explicações baseadas em exemplo e solicite as baseadas em recurso usando o campo de explicação simultânea.
  • As Explicações em lote não são compatíveis com Explicações simultâneas. As Explicações on-line são a única maneira de usar esse recurso.

Solução de problemas

Esta seção descreve etapas de solução de problemas que podem ser úteis se você tiver problemas ao receber explicações.

Erro: índice de lista fora do intervalo

Se você receber a seguinte mensagem de erro ao solicitar explicações:

"error": "Explainability failed with exception: listindex out of range"

Verifique se você não está transmitindo uma matriz vazia para um campo que precisa de uma matriz de objetos. Por exemplo, se field1 aceitar uma matriz de objetos, o corpo da solicitação a seguir poderá resultar em um erro:

{
  "instances": [
    {
      "field1": [],
    }
  ]
}

Em vez disso, verifique se a matriz não está vazia, por exemplo:

{
  "instances": [
    {
      "field1": [
        {}
      ],
    }
  ]
}

A seguir