Nesta página, descrevemos as métricas de avaliação de modelo que podem ser usadas para detectar o viés do modelo, que pode aparecer na saída da previsão do modelo depois do treinamento. Para os exemplos e a notação desta página, usamos um conjunto de dados de aplicativos hipotéticos da faculdade que descrevemos em detalhes em Introdução à avaliação de modelo para imparcialidade.
Para descrições de métricas geradas a partir de dados pré-treinamento, consulte Métricas de viés de dados.
Informações gerais
No nosso conjunto de dados de aplicativos universitários de exemplo, temos 200 candidatos da Califórnia na fatia 1 e 100 candidatos na Flórida na fatia 2. Depois de treinar o modelo, temos as seguintes matrizes de confusão:
Candidatos da Califórnia | Aceitações (previstos) | Rejeições (previstas) |
---|---|---|
Aceitações (informações empíricas) | 50 (verdadeiro positivo) | 10 (falso negativo) |
Rejeições (informações empíricas) | 20 (falso positivo) | 120 (verdadeiro negativo) |
Candidatos na Flórida | Aceitações (previstos) | Rejeições (previstas) |
---|---|---|
Aceitações (informações empíricas) | 20 (verdadeiro positivo) | 0 (falso negativo) |
Rejeições (informações empíricas) | 30 (falso positivo) | 50 (verdadeiro negativo) |
Geralmente, é possível interpretar o sinal da maioria das métricas da seguinte maneira:
Valor positivo: indica um possível viés que favorece a fatia 1 sobre a fatia 2.
Valor zero: indica que não há viés entre a fatia 1 e a fatia 2.
Valor negativo: indica um possível viés na favor da fatia 2 em relação à 1.
Aplicamos uma observação quando isso não se aplica a uma métrica.
Diferença de precisão
A diferença de precisão mede a diferença de acurácia entre a fatia 1 e a fatia 2:
(verdadeiros positivos para a fatia 1 + verdadeiros negativos para a fatia 1)/número total de instâncias para a fatia 1) - (verdadeiros positivos para a fatia 2 + verdadeiros negativos para a fatia 2)/número total de instâncias para fatia 2)
No nosso conjunto de dados de exemplo:
((50 aceitações corretamente previstas na Califórnia + 120 rejeições corretamente previstas na Califórnia)/ 200 candidatos na Califórnia) - ((20 aceitações corretamente previstas na Flórida + 50 rejeições corretamente previstas na Flórida)/ 100 candidatos na Flórida) = 170/200 - 70/100 = 0,15
O valor positivo da diferença de precisão indica que o modelo é mais preciso para os candidatos da Califórnia em comparação com os da Flórida. Isso pode indicar um possível viés favorável aos candidatos da Califórnia.
Diferença nas proporções positivas nos rótulos previstos (DPPPL)
A diferença em proporções positivas em rótulos previstos (DPPPL, na sigla em inglês) mede se o modelo tem uma tendência a fazer predições desproporcionalmente mais positivas para uma fatia sobre a outra. O DPPPL calcula a diferença em Proporções positivas em rótulos previstos, em que Proporções positivas em rótulos previstos são (Resultados positivos previstos/Número total de instâncias) para uma fatia:
(Verdadeiros positivos para a fatia 1 + Falsos positivos para a fatia 1)/Número total de instâncias para a fatia 1) -((Verdadeiros positivos para a fatia 2 + Falsos positivos para a fatia 2)/Número total de instâncias para a fatia 2)
Para nosso conjunto de dados de exemplo:
(50 aceitações da Califórnia com previsão correta + 20 aceitações da Califórnia com previsão incorreta)/200 candidatos da Califórnia previstos (20 aceitações da Flórida com previsão correta + 30 aceitações da Flórida previstas incorretamente) 100 candidatos da Flórida) = 70/200 - 50/100 = -0,15
O valor negativo do DPPPL indica que o modelo aceita de modo desproporcional mais candidatos da Flórida em comparação com os candidatos da Califórnia.
Diferença no recall
A diferença de recall mede a diferença no recall entre a fatia 1 e a fatia 2, observando apenas os resultados positivos rotulados. A diferença de recall também pode ser chamada de Igualdade de oportunidade.
(Verdadeiros positivos para a fatia 1/(Verdadeiros positivos para a fatia 1 + Falsos negativos para a fatia 1)) - (Verdadeiros positivos para a fatia 2/(Verdadeiros positivos para a fatia 2 + Falsos negativos para a fatia 2))
No nosso conjunto de dados de exemplo:
(50 aceitações da Califórnia previstas corretamente/(50 aceitações da Califórnia com previsão correta + 10 rejeições da Califórnia previstas incorretamente) - (20 aceitações da Califórnia com previsão incorreta/(20 rejeições da Califórnia com previsão incorreta) + 0 rejeições da Califórnia previstas incorretamente) = 50/60 - 20/20 = -0,17
O valor negativo indica que o modelo é melhor para recuperar candidatos da Flórida do que candidatos da Califórnia. Em outras palavras, o modelo tende a ser mais preciso nas decisões de aceitação para candidatos da Flórida e da Califórnia.
Diferença de especificidade
A diferença de especificidade mede a diferença de especificidade, também conhecida como taxa negativa verdadeira, entre a fatia 1 e a fatia 2. Podemos pensar nisso como a diferença de recall, mas para resultados negativos rotulados:
(Verdadeiros negativos para a fatia 1/(Verdadeiros negativos para a fatia 1 + Falsos positivos para a fatia 1)) - (Verdadeiros negativos para a fatia 2/(Verdadeiros negativos para a fatia 2 + Falsos positivos para a fatia 2))
No nosso conjunto de dados de exemplo:
((120 aceitações corretamente previstas na Califórnia + 120 rejeições corretamente previstas na Califórnia)/ 20 aceitações previstas incorretamente na Califórnia) - ((50 rejeições corretamente previstas na Flórida + 50 rejeições corretamente previstas na Flórida)/ 30 aceitações previstas incorretamente na Flórida) = 120/140 - 50/80 = 0,23
O valor positivo indica que, para rejeições de inscrição, o modelo tem melhor recall para candidatos da Califórnia em comparação com candidatos da Flórida. Em outras palavras, o modelo tende a ser mais correto nas decisões de rejeição para candidatos da Califórnia que para a Flórida.
Diferença na proporção de tipos de erro
A diferença na proporção de tipos de erro mede a diferença na maneira como os erros (falsos negativos e falsos positivos) são distribuídos entre a fatia 1 e 2. A proporção do tipo de erro é calculada como (falsos negativos (erro tipo I)/falso positivo (erro tipo II)). A diferença na proporção de tipos de erro também pode ser chamada de Igualdade de tratamento.
(Falsos negativos para a fatia 1/Falsos positivos para a fatia 1) - (Falsos negativos para a fatia 2/Falsos positivos para a fatia 2)
No nosso conjunto de dados de exemplo:
(10 rejeições da Califórnia com previsão incorreta + 20 aceitações da Califórnia com previsão incorreta) - (0 rejeições com previsão incorreta na Flórida/30 aceitações com previsão incorreta da Flórida) = 10/20 - 0/30 = 0,5
O modelo comete 30 erros para os candidatos da Califórnia e da Flórida, mas o valor positivo de diferença na proporção de tipos de erro indica que o modelo tende a superestimar os resultados positivos (falsos positivos maiores) e Portanto, subestimar os resultados negativos (baixos erros negativos) para candidatos na Califórnia, em comparação com candidatos à Flórida.
O sinal da diferença na proporção de tipos de erro geralmente pode ser interpretado como:
Valor positivo: indica que o modelo comete de maneira desproporcional mais erros falsos positivos do que erros falsos negativos para a fatia 1.
Valor zero: indica que o modelo faz a mesma quantidade de erros de falsos positivos para ambas as fatias.
Valor negativo: indica que o modelo comete de maneira desproporcional mais erros falsos positivos do que erros falsos negativos para a fatia 2.
O sinal para essa métrica não indica necessariamente um viés no modelo, porque o efeito nocivo de falsos negativos ou falsos positivos depende da aplicação do modelo.
A seguir
Leia a referência do componente de pipeline de avaliação do modelo.
Leia mais sobre métricas de imparcialidade em Pesquisa sobre viés e imparcialidade em machine learning.