Información general sobre Explainable AI de BigQuery
En este documento se describe cómo admite BigQuery ML la inteligencia artificial (IA) explicable, a veces denominada XAI.
Explainable AI te ayuda a comprender los resultados que genera tu modelo de aprendizaje automático predictivo para las tareas de clasificación y regresión. Para ello, define cómo ha contribuido cada característica de una fila de datos al resultado previsto. Esta información se suele denominar "atribución de funciones". Puedes usar esta información para verificar que el modelo se comporta como se espera, detectar sesgos en tus modelos y obtener ideas para mejorar tus modelos y tus datos de entrenamiento.
Tanto BigQuery ML como Vertex AI ofrecen IA explicable, que proporciona explicaciones basadas en características. Puedes realizar la interpretabilidad en BigQuery ML o registrar tu modelo en Vertex AI y realizar la interpretabilidad allí.
Explicabilidad local frente a global
Hay dos tipos de interpretabilidad: local y global. También se conocen como importancia de la función local e importancia de la función global, respectivamente.
- La interpretabilidad local devuelve valores de atribución de características para cada ejemplo explicado. Estos valores describen cuánto ha afectado una función concreta a la predicción en relación con la predicción de referencia.
- La interpretabilidad global devuelve la influencia general de la característica en el modelo y, a menudo, se obtiene agregando las atribuciones de la característica en todo el conjunto de datos. Cuanto mayor sea el valor absoluto, mayor será la influencia de la característica en las predicciones del modelo.
Ofertas de Explainable AI en BigQuery ML
Explainable AI en BigQuery ML admite varios modelos de aprendizaje automático, incluidos los modelos de series temporales y los que no son de series temporales. Cada uno de los modelos aprovecha un método de interpretabilidad diferente.
Categoría de modelo | Tipos de modelo | Método de explicabilidad | Explicación básica del método | Funciones de explicación locales | Funciones de explicación globales |
---|---|---|---|---|---|
Modelos supervisados | Regresión lineal y logística | Valores de Shapley | Los valores de Shapley de los modelos lineales son iguales a model weight * feature
value , donde los valores de las características se estandarizan y las ponderaciones del modelo se entrenan con los valores de las características estandarizados. |
ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
Errores estándar y valores p | Los errores estándar y los valores p se usan para probar la significación de los pesos del modelo. | N/A | ML.ADVANCED_WEIGHTS 4 |
||
Árboles de potenciación Bosque aleatorio |
SHAP de árbol | Tree SHAP es un algoritmo para calcular los valores de SHAP exactos de los modelos basados en árboles de decisión. | ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
|
Contribución aproximada de la función | Aproxima los valores de contribución de las características. Es más rápido y sencillo que Tree SHAP. | ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
||
Importancia de las características basada en el índice de Gini | Una puntuación de importancia de las funciones global que indica lo útil o valiosa que ha sido cada función en la creación del modelo de árbol reforzado o de bosque aleatorio durante el entrenamiento. | N/A | ML.FEATURE_IMPORTANCE |
||
Red neuronal profunda (DNN) Wide and deep |
Gradientes integrados | Un método basado en gradientes que calcula de forma eficiente las atribuciones de características
con las mismas propiedades axiomáticas que el valor de Shapley. Proporciona una aproximación por muestreo de las atribuciones exactas de las funciones. Su precisión se controla con el parámetro integrated_gradients_num_steps . |
ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
|
AutoML Tables | Shapley muestreado | Shapley muestreado asigna la contribución al resultado del modelo a cada característica y tiene en cuenta diferentes permutaciones de las características. Este método proporciona una aproximación de muestreo de los valores de Shapley exactos. | N/A | ML.GLOBAL_EXPLAIN 2 |
|
Modelos de series temporales | ARIMA_PLUS | Descomposición de series temporales | Descompone la serie temporal en varios componentes si estos están presentes en la serie temporal. Entre los componentes se incluyen la tendencia, la estacionalidad, los festivos, los cambios bruscos, los picos y los descensos. Consulta más información sobre el flujo de procesamiento de modelos de ARIMA_PLUS. | ML.EXPLAIN_FORECAST 3 |
N/A |
ARIMA_PLUS_XREG | Descomposición de series temporales y valores de Shapley |
Descompone la serie temporal en varios componentes, como la tendencia, la estacionalidad, los festivos, los cambios bruscos, los picos y los descensos.
(similar a ARIMA_PLUS).
La atribución de cada regresor externo se calcula en función de los valores de Shapley, que son iguales a model weight * feature value . |
ML.EXPLAIN_FORECAST 3 |
N/A |
1ML_EXPLAIN_PREDICT
es una versión ampliada de ML.PREDICT
.
2ML.GLOBAL_EXPLAIN
devuelve la interpretabilidad global
obtenida al calcular la atribución absoluta media que recibe cada característica en
todas las filas del conjunto de datos de evaluación.
3ML.EXPLAIN_FORECAST
es una versión ampliada de ML.FORECAST
.
4ML.ADVANCED_WEIGHTS
es una versión ampliada de ML.WEIGHTS
.
Explainable AI en Vertex AI
Explainable AI está disponible en Vertex AI para el siguiente subconjunto de modelos de aprendizaje supervisado exportables:
Tipo de modelo | Método de Explainable AI |
---|---|
dnn_classifier | Degradados integrados |
dnn_regressor | Degradados integrados |
dnn_linear_combined_classifier | Degradados integrados |
dnn_linear_combined_regressor | Degradados integrados |
boosted_tree_regressor | Shapley muestreado |
boosted_tree_classifier | Shapley muestreado |
random_forest_regressor | Shapley muestreado |
random_forest_classifier | Shapley muestreado |
Consulta Métodos de atribución de funciones para obtener más información sobre estos métodos.
Habilitar Explainable AI en el registro de modelos
Si tu modelo de BigQuery ML está registrado en Model Registry y es un tipo de modelo compatible con Explainable AI, puedes habilitar Explainable AI en el modelo al desplegarlo en un endpoint. Cuando registras tu modelo de BigQuery ML, se rellena automáticamente toda la metainformación asociada.
- Registre su modelo de BigQuery ML en Model Registry.
- Ve a la página Registro de modelos de la sección BigQuery de la consola de Google Cloud .
- En Model Registry, selecciona el modelo de BigQuery ML y haz clic en la versión del modelo para ir a la página de detalles del modelo.
- Selecciona Más acciones en la versión del modelo.
- Haz clic en Implementar en endpoint.
- Define tu endpoint: crea un nombre para el endpoint y haz clic en Continuar.
- Selecciona un tipo de máquina, por ejemplo,
n1-standard-2
. - En Configuración del modelo, en la sección de registro, marque la casilla para habilitar las opciones de interpretabilidad.
- Haz clic en Hecho y, a continuación, en Continuar para implementar el endpoint.
Para saber cómo usar XAI en tus modelos del registro de modelos, consulta el artículo Obtener una explicación online con tu modelo desplegado. Para obtener más información sobre XAI en Vertex AI, consulta Obtener explicaciones.
Siguientes pasos
- Consulta cómo gestionar modelos de BigQuery ML en Vertex AI.
- Para obtener más información sobre las instrucciones y funciones de SQL admitidas en los modelos que admiten la interpretabilidad, consulta Recorridos de usuario completos para modelos de aprendizaje automático.