Información general sobre Explainable AI de BigQuery

En este documento se describe cómo admite BigQuery ML la inteligencia artificial (IA) explicable, a veces denominada XAI.

Explainable AI te ayuda a comprender los resultados que genera tu modelo de aprendizaje automático predictivo para las tareas de clasificación y regresión. Para ello, define cómo ha contribuido cada característica de una fila de datos al resultado previsto. Esta información se suele denominar "atribución de funciones". Puedes usar esta información para verificar que el modelo se comporta como se espera, detectar sesgos en tus modelos y obtener ideas para mejorar tus modelos y tus datos de entrenamiento.

Tanto BigQuery ML como Vertex AI ofrecen IA explicable, que proporciona explicaciones basadas en características. Puedes realizar la interpretabilidad en BigQuery ML o registrar tu modelo en Vertex AI y realizar la interpretabilidad allí.

Explicabilidad local frente a global

Hay dos tipos de interpretabilidad: local y global. También se conocen como importancia de la función local e importancia de la función global, respectivamente.

  • La interpretabilidad local devuelve valores de atribución de características para cada ejemplo explicado. Estos valores describen cuánto ha afectado una función concreta a la predicción en relación con la predicción de referencia.
  • La interpretabilidad global devuelve la influencia general de la característica en el modelo y, a menudo, se obtiene agregando las atribuciones de la característica en todo el conjunto de datos. Cuanto mayor sea el valor absoluto, mayor será la influencia de la característica en las predicciones del modelo.

Ofertas de Explainable AI en BigQuery ML

Explainable AI en BigQuery ML admite varios modelos de aprendizaje automático, incluidos los modelos de series temporales y los que no son de series temporales. Cada uno de los modelos aprovecha un método de interpretabilidad diferente.

Categoría de modelo Tipos de modelo Método de explicabilidad Explicación básica del método Funciones de explicación locales Funciones de explicación globales
Modelos supervisados Regresión lineal y logística Valores de Shapley Los valores de Shapley de los modelos lineales son iguales a model weight * feature value, donde los valores de las características se estandarizan y las ponderaciones del modelo se entrenan con los valores de las características estandarizados. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
Errores estándar y valores p Los errores estándar y los valores p se usan para probar la significación de los pesos del modelo. N/A ML.ADVANCED_WEIGHTS4
Árboles de potenciación

Bosque aleatorio
SHAP de árbol Tree SHAP es un algoritmo para calcular los valores de SHAP exactos de los modelos basados en árboles de decisión. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
Contribución aproximada de la función Aproxima los valores de contribución de las características. Es más rápido y sencillo que Tree SHAP. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
Importancia de las características basada en el índice de Gini Una puntuación de importancia de las funciones global que indica lo útil o valiosa que ha sido cada función en la creación del modelo de árbol reforzado o de bosque aleatorio durante el entrenamiento. N/A ML.FEATURE_IMPORTANCE
Red neuronal profunda (DNN)

Wide and deep
Gradientes integrados Un método basado en gradientes que calcula de forma eficiente las atribuciones de características con las mismas propiedades axiomáticas que el valor de Shapley. Proporciona una aproximación por muestreo de las atribuciones exactas de las funciones. Su precisión se controla con el parámetro integrated_gradients_num_steps. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
AutoML Tables Shapley muestreado Shapley muestreado asigna la contribución al resultado del modelo a cada característica y tiene en cuenta diferentes permutaciones de las características. Este método proporciona una aproximación de muestreo de los valores de Shapley exactos. N/A ML.GLOBAL_EXPLAIN2
Modelos de series temporales ARIMA_PLUS Descomposición de series temporales Descompone la serie temporal en varios componentes si estos están presentes en la serie temporal. Entre los componentes se incluyen la tendencia, la estacionalidad, los festivos, los cambios bruscos, los picos y los descensos. Consulta más información sobre el flujo de procesamiento de modelos de ARIMA_PLUS. ML.EXPLAIN_FORECAST3 N/A
ARIMA_PLUS_XREG Descomposición de series temporales
y
valores de Shapley
Descompone la serie temporal en varios componentes, como la tendencia, la estacionalidad, los festivos, los cambios bruscos, los picos y los descensos. (similar a ARIMA_PLUS). La atribución de cada regresor externo se calcula en función de los valores de Shapley, que son iguales a model weight * feature value. ML.EXPLAIN_FORECAST3 N/A

1ML_EXPLAIN_PREDICT es una versión ampliada de ML.PREDICT.

2ML.GLOBAL_EXPLAIN devuelve la interpretabilidad global obtenida al calcular la atribución absoluta media que recibe cada característica en todas las filas del conjunto de datos de evaluación.

3ML.EXPLAIN_FORECAST es una versión ampliada de ML.FORECAST.

4ML.ADVANCED_WEIGHTS es una versión ampliada de ML.WEIGHTS.

Explainable AI en Vertex AI

Explainable AI está disponible en Vertex AI para el siguiente subconjunto de modelos de aprendizaje supervisado exportables:

Tipo de modelo Método de Explainable AI
dnn_classifier Degradados integrados
dnn_regressor Degradados integrados
dnn_linear_combined_classifier Degradados integrados
dnn_linear_combined_regressor Degradados integrados
boosted_tree_regressor Shapley muestreado
boosted_tree_classifier Shapley muestreado
random_forest_regressor Shapley muestreado
random_forest_classifier Shapley muestreado

Consulta Métodos de atribución de funciones para obtener más información sobre estos métodos.

Habilitar Explainable AI en el registro de modelos

Si tu modelo de BigQuery ML está registrado en Model Registry y es un tipo de modelo compatible con Explainable AI, puedes habilitar Explainable AI en el modelo al desplegarlo en un endpoint. Cuando registras tu modelo de BigQuery ML, se rellena automáticamente toda la metainformación asociada.

  1. Registre su modelo de BigQuery ML en Model Registry.
  2. Ve a la página Registro de modelos de la sección BigQuery de la consola de Google Cloud .
  3. En Model Registry, selecciona el modelo de BigQuery ML y haz clic en la versión del modelo para ir a la página de detalles del modelo.
  4. Selecciona Más acciones en la versión del modelo.
  5. Haz clic en Implementar en endpoint.
  6. Define tu endpoint: crea un nombre para el endpoint y haz clic en Continuar.
  7. Selecciona un tipo de máquina, por ejemplo, n1-standard-2.
  8. En Configuración del modelo, en la sección de registro, marque la casilla para habilitar las opciones de interpretabilidad.
  9. Haz clic en Hecho y, a continuación, en Continuar para implementar el endpoint.

Para saber cómo usar XAI en tus modelos del registro de modelos, consulta el artículo Obtener una explicación online con tu modelo desplegado. Para obtener más información sobre XAI en Vertex AI, consulta Obtener explicaciones.

Siguientes pasos