Um fluxo de trabalho de machine learning pode incluir a avaliação da imparcialidade do modelo. Um modelo injusto exibe um viés sistêmico que pode causar danos, especialmente a grupos tradicionalmente sub-representados. Um modelo injusto pode ter um desempenho pior em determinados subconjuntos do conjunto de dados, ou fatias.
É possível detectar vieses durante a coleta de dados ou o processo de avaliação pós-treinamento. A Vertex AI fornece as seguintes métricas de avaliação de modelo para ajudar você a avaliar o modelo quanto ao viés:
Métricas de viés de dados: antes de treinar e criar seu modelo, essas métricas detectam se os dados brutos incluem vieses. Por exemplo, um conjunto de dados de detecção de sorriso pode conter muito menos idosos do que os mais jovens. Várias dessas métricas são baseadas em quantificar a distância entre a distribuição de rótulos para diferentes grupos de dados:
Diferença no tamanho da população.
Diferença nas proporções positivas em rótulos verdadeiros.
Métricas de viés do modelo: depois de treinar seu modelo, essas métricas detectam se as previsões do modelo incluem vieses. Por exemplo, um modelo pode ser mais preciso para um subconjunto dos dados do que o restante dos dados:
Diferença de precisão.
Diferença nas proporções positivas nos rótulos previstos.
Diferença de recall.
Diferença de especificidade.
Diferença na proporção de tipos de erro.
Para saber como incluir os componentes do pipeline de viés de avaliação do modelo na execução do canal, consulte Componente de avaliação do modelo.
Visão geral do conjunto de dados de exemplo
Para todos os exemplos relacionados a métricas de imparcialidade, usamos um conjunto de dados hipotético de entrada universitária com recursos como notas escolares, estado e identidade de gênero de um candidato. Queremos avaliar se a faculdade está voltada para candidatos na Califórnia ou na Flórida.
Os rótulos de destino ou todos os resultados possíveis são:
Aceitar a inscrição com bolsa de estudos (
p
).Aceitar a inscrição sem uma bolsa de estudos (
q
)Rejeitar o candidato (
r
).
Os especialistas em admissão forneceram esses rótulos como informações empíricas. É possível que até mesmo esses rótulos de especialistas sejam tendenciosos, já que eles foram atribuídos por humanos.
Para criar um exemplo de classificação binária, podemos agrupar os rótulos para criar dois resultados possíveis:
Resultado positivo, anotado como
1
. Podemos agruparp
eq
no resultado positivo de "{p,q}
aceitos".Resultado negativo, nomeado como
0
. Pode ser um conjunto de todos os outros resultados além do positivo. No exemplo da inscrição na faculdade, o resultado negativo é "rejeitado{r}
".
Para medir o viés entre os candidatos da Califórnia e da Flórida, separamos duas fatias do restante do conjunto de dados:
Fatia 1 do conjunto de dados para o qual o viés está sendo medido. No exemplo de inscrição na faculdade, estamos avaliando o viés para candidatos da Califórnia.
Fatia 2 do conjunto de dados em relação ao qual o viés é medido. O Slice 2 pode incluir "tudo que não está na fatia 1" por padrão, mas, para o exemplo de inscrição na faculdade, estamos atribuindo a fatia 2 como candidatos à Flórida.
No nosso conjunto de dados de aplicativos universitários de exemplo, temos 200 candidatos da Califórnia na fatia 1 e 100 candidatos na Flórida na fatia 2. Depois de treinar o modelo, temos as seguintes matrizes de confusão:
Candidatos da Califórnia | Aceitações (previstos) | Rejeições (previstas) |
---|---|---|
Aceitações (informações empíricas) | 50 (verdadeiros positivos) | 10 (falsos negativos) |
Rejeições (informações empíricas) | 20 (falsos positivos) | 120 (verdadeiros negativos) |
Candidatos na Flórida | Aceitações (previstos) | Rejeições (previstas) |
---|---|---|
Aceitações (informações empíricas) | 20 (verdadeiros positivos) | 0 (falsos negativos) |
Rejeições (informações empíricas) | 30 (falsos positivos) | 50 (verdadeiros negativos) |
Ao comparar as métricas entre as duas matrizes de confusão, é possível avaliar os vieses respondendo a perguntas como "o modelo tem melhor recall de uma fatia em relação à outra?"
Também usamos a seguinte forma para representar dados de informações empíricas rotulados, em que i
representa o número da fatia (1 ou 2):
i
, é o número de resultados positivos rotulados = falsos negativos + verdadeiros positivos.
Observe o seguinte sobre o exemplo do conjunto de dados da inscrição na faculdade:
Algumas métricas de imparcialidade também podem ser generalizadas para vários resultados, mas usamos a classificação binária para simplificar.
O exemplo se concentra na tarefa de classificação, mas algumas métricas de imparcialidade geram geralmente outros problemas, como regressão.
Neste exemplo, supomos que os dados de treinamento e de teste são os mesmos.
A seguir
Saiba mais sobre as métricas de viés de dados compatíveis com a Vertex AI.
Saiba mais sobre as métricas de viés de modelo compatíveis com a Vertex AI.
Leia a referência do componente de pipeline de avaliação do modelo.