Limitazioni di AI Explanations

Quando esamini le spiegazioni restituite dal servizio, tieni presente queste limitazioni di alto livello. Per una spiegazione dettagliata, consulta il white paper su AI Explainability.

Significato e ambito delle attribuzioni di funzionalità

Tieni presente quanto segue quando analizzi le attribuzioni delle funzionalità fornite da AI Explanations:

  • Ogni attribuzione mostra solo in che misura la funzionalità ha influito sulla previsione per quel determinato esempio. Una singola attribuzione potrebbe non riflettere il comportamento complessivo del modello. Per comprendere il comportamento approssimativo del modello in un intero set di dati, aggrega le attribuzioni nell'intero set di dati.
  • Le attribuzioni dipendono interamente dal modello e dai dati utilizzati per addestrarlo. Possono indicare solo i pattern trovati dal modello nei dati e non possono rilevare alcuna relazione fondamentale nei dati. Pertanto, la presenza o l'assenza di un'attribuzione forte a una determinata funzionalità non indica che esista o meno una relazione tra la funzionalità e il target. L'attribuzione mostra semplicemente che il modello utilizza o meno la funzionalità nelle sue previsioni.
  • Le attribuzioni da sole non possono indicare se il tuo modello è equo, imparziale o di buona qualità. Valuta attentamente il set di dati di addestramento, la procedura e le metriche di valutazione, oltre alle attribuzioni.

Miglioramento delle attribuzioni delle funzionalità

I seguenti fattori hanno l'impatto maggiore sulle attribuzioni delle funzionalità:

  • I metodi di attribuzione approssimano il valore di Shapley. Puoi aumentare la precisione dell'approssimazione:

    • Aumentare il numero di passaggi per l'integrale per i metodi di gradienti integrati o XRAI.
    • Aumento del numero di percorsi integrali per il metodo Shapley campionato.

    Di conseguenza, le attribuzioni potrebbero cambiare notevolmente.

  • Le attribuzioni esprimono solo l'impatto della funzionalità sulla variazione del valore della previsione rispetto al valore di riferimento. Scegli un valore di riferimento significativo e pertinente alla domanda che stai ponendo al modello. I valori di attribuzione e la relativa interpretazione potrebbero cambiare in modo significativo quando cambi le linee di base.

  • Per i gradienti integrati e XRAI, l'utilizzo di due linee di base può migliorare i risultati. Ad esempio, puoi specificare linee di base che rappresentano un'immagine completamente nera e un'immagine completamente bianca.

Limitazioni per i dati delle immagini

I due metodi di attribuzione che supportano i dati delle immagini sono i gradienti integrati e XRAI.

I gradienti integrati rappresentano un metodo di attribuzione basato sui pixel che evidenzia le aree importanti dell'immagine a prescindere dal contrasto, rendendo questo metodo ideale per immagini non naturali, come quelle a raggi X. Tuttavia, l'output granulare può rendere difficile valutare l'importanza relativa delle aree. L'output predefinito evidenzia le aree dell'immagine con attribuzioni positive elevate disegnando contorni, ma questi contorni non sono classificati e possono estendersi su più oggetti.

XRAI funziona meglio con le immagini naturali ad alto contrasto contenenti più oggetti. Poiché questo metodo produce attribuzioni basate sulle regioni, genera una mappa di calore più uniforme e leggibile delle regioni più importanti per una determinata classificazione delle immagini.

Al momento, XRAI non funziona bene con i seguenti tipi di input di immagini:

  • Immagini a basso contrasto tutte dello stesso colore, come le radiografie.
  • Immagini molto alte o molto larghe, ad esempio i panorami.
  • Immagini molto grandi, che potrebbero rallentare il tempo di esecuzione complessivo.