Este instructivo contiene una descripción de nivel alto del modelo MNIST, instrucciones sobre cómo descargar la muestra de código de TPU de TensorFlow de MNIST y una guía para ejecutar el código en Cloud TPU.
Renuncia de responsabilidad
En este instructivo se utiliza un conjunto de datos de terceros. Google no hace declaraciones, garantía u otras garantías acerca de la validez o cualquier otro aspecto de este de tu conjunto de datos.
Descripción del modelo
El conjunto de datos MNIST contiene una gran cantidad de imágenes de dígitos escritos a mano en el intervalo de 0 a 9, así como las etiquetas que identifican dígito en cada imagen.
En este instructivo, se entrena un modelo de aprendizaje automático para clasificar imágenes según conjunto de datos de MNIST. Después del entrenamiento, el modelo clasifica las imágenes entrantes en 10 categorías (0 a 9) según lo aprendido sobre imágenes escritas a mano de conjunto de datos MNIST. Luego, puedes enviarle al modelo una imagen que no haya visto. antes, y el modelo identifica el dígito de la imagen según lo que aprendido durante el entrenamiento.
El conjunto de datos MNIST se divide en tres partes:
- 60,000 ejemplos de datos de entrenamiento
- 10,000 ejemplos de datos de prueba
- 5,000 ejemplos de datos de validación
El modelo tiene una mezcla de siete capas:
- 2 de convolución
- 2 de agrupación máxima
- 2 de densidad (totalmente conectadas)
- 1 de abandono
La pérdida se calcula con la entropía cruzada categórica.
Esta versión del modelo MNIST usa la API de Keras, una forma recomendada de compilar y ejecutar un modelo de aprendizaje automático en una Cloud TPU.
Keras simplifica el proceso de desarrollo del modelo, ya que oculta la mayoría de las partes que también te permite cambiar entre TPU y otras plataformas de prueba como GPU o CPU.
Objetivos
- Crear un bucket de Cloud Storage para almacenar el resultado de tu modelo y tu conjunto de datos
- Ejecutar el trabajo de entrenamiento
- Verificar los resultados de salida
Costos
En este documento, usarás los siguientes componentes facturables de Google Cloud:
- Compute Engine
- Cloud TPU
- Cloud Storage
Para generar una estimación de costos en función del uso previsto, usa la calculadora de precios.
Antes de comenzar
En esta sección, se proporciona información sobre cómo configurar el bucket de Cloud Storage y una VM de Compute Engine.
Abre una ventana de Cloud Shell.
Crea una variable para el ID de tu proyecto.
export PROJECT_ID=project-id
Configura Google Cloud CLI para usar el proyecto en el que quieres crear Cloud TPU
gcloud config set project ${PROJECT_ID}
La primera vez que ejecutes este comando en una VM de Cloud Shell nueva, se mostrará la página
Authorize Cloud Shell
. Haz clic enAuthorize
en la parte inferior. de la página para permitir quegcloud
realice llamadas a la API de Google Cloud con tus credenciales.Crea una cuenta de servicio para el proyecto de Cloud TPU.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
El comando muestra una cuenta de servicio de Cloud TPU con el siguiente formato:
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Crea un bucket de Cloud Storage con el siguiente comando:
gcloud storage buckets create gs://bucket-name \ --project=${PROJECT_ID} \ --location=us-central1
En este bucket de Cloud Storage se almacenan los datos que usas para entrenar tu modelo y los resultados del entrenamiento. El comando
gcloud
que se usa en este instructivo configura permisos predeterminados para la cuenta de servicio de Cloud TPU que configuraste en la paso anterior. Si quieres contar con permisos más detallados, revisa los permisos de nivel de acceso.Crea una VM de TPU con el comando
gcloud
.$ gcloud compute tpus tpu-vm create mnist-tutorial \ --zone=us-central1-b \ --accelerator-type=v3-8 \ --version=tpu-vm-tf-2.17.0-pjrt \
Descripciones de las marcas de comandos
zone
- Es la zona en la que deseas crear la Cloud TPU.
accelerator-type
- El tipo de acelerador especifica la versión y el tamaño de la Cloud TPU que deseas crear. Para obtener más información sobre los tipos de aceleradores compatibles con cada versión de TPU, consulta Versiones de TPU.
version
- La versión de software de Cloud TPU.
Para obtener más información sobre el comando de
gcloud
, consulta la Referencia de gcloud.Conectarse a la instancia de Compute Engine mediante SSH Cuando estés conectado a la VM, el símbolo del sistema de shell cambia de
username@projectname
ausername@vm-name
:gcloud compute tpus tpu-vm ssh mnist-tutorial --zone=us-central1-b
Crea una variable de entorno para el nombre de la TPU.
(vm)$ export TPU_NAME=local
Instala los requisitos de TensorFlow.
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
Entrenar el modelo
El código fuente del modelo de TPU MNIST también está disponible en GitHub.
Configura las siguientes variables: Reemplaza bucket-name por el nombre de tu depósito:
(vm)$ export STORAGE_BUCKET=gs://bucket-name (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mnist (vm)$ export DATA_DIR=${STORAGE_BUCKET}/data
Configura la variable de entorno
PYTHONPATH
.(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
Cuando creas tu TPU, si estableces el parámetro
--version
en una versión que termina en-pjrt
, establece las siguientes variables de entorno para habilitar el entorno de ejecución de PJRT:(vm)$ export NEXT_PLUGGABLE_DEVICE_USE_C_API=true (vm)$ export TF_PLUGGABLE_DEVICE_LIBRARY_PATH=/lib/libtpu.so
Ve al directorio en el que se almacena el modelo:
(vm)$ cd /usr/share/tpu/models/official/legacy/image_classification
Ejecuta la secuencia de comandos de entrenamiento de MNIST:
(vm)$ python3 mnist_main.py \ --tpu=${TPU_NAME} \ --model_dir=${MODEL_DIR} \ --data_dir=${DATA_DIR} \ --train_epochs=10 \ --distribution_strategy=tpu \ --download
Descripciones de las marcas de comandos
tpu
- El nombre de Cloud TPU. Si no se especifica durante la configuración la VM de Compute Engine y Cloud TPU, de forma predeterminada a tu nombre de usuario.
model_dir
- El bucket de Cloud Storage en el que se encuentran los puntos de control y los resúmenes almacenados durante el entrenamiento. Puedes usar una carpeta existente para cargar archivos puntos de control generados en una TPU del mismo tamaño y en TensorFlow versión.
data_dir
- La ruta de entrada de entrenamiento en Cloud Storage. Se establece en el fake_imagenet en este ejemplo.
train_epochs
- La cantidad de ciclos de entrenamiento para entrenar el modelo.
distribution_strategy
- Para entrenar el modelo ResNet en una Cloud TPU, configura
distribution_strategy
atpu
. download
- Cuando se establece en
true
, la secuencia de comandos descarga y realiza un procesamiento previo el conjunto de datos MNIST, si aún no se ha descargado.
La secuencia de comandos de entrenamiento se ejecuta en menos de 5 minutos en una Cloud TPU v3-8 y muestra un resultado similar al siguiente:
Run stats: { 'accuracy_top_1': 0.9762369990348816, 'eval_loss': 0.07863274961709976, 'loss': 0.1111728847026825, 'training_accuracy_top_1': 0.966645359992981 }
Limpia
Para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos usados en este instructivo, borra el proyecto que contiene los recursos o conserva el proyecto y borra los recursos individuales.
Desconéctate de la instancia de Compute Engine, si aún no lo hiciste:
(vm)$ exit
El mensaje ahora debería mostrar
username@projectname
, que indica que estás en Cloud Shell.Borra tus recursos de Cloud TPU y Compute Engine.
$ gcloud compute tpus tpu-vm delete mnist-tutorial \ --zone=us-central1-b
Ejecuta
gcloud compute tpus tpu-vm list
para verificar que los recursos se hayan borrado. La eliminación puede tardar varios minutos. El resultado del siguiente comando no debe incluir ninguno de los recursos creados en este instructivo:$ gcloud compute tpus tpu-vm list --zone=us-central1-b
Borra tu bucket de Cloud Storage con el siguiente comando. Reemplazar bucket-name por el nombre del bucket de Cloud Storage
$ gcloud storage rm gs://bucket-name --recursive
¿Qué sigue?
Los instructivos de TensorFlow Cloud TPU suelen entrenar el modelo con un conjunto de datos de muestra. Los resultados de este entrenamiento no se pueden usar para la inferencia. Para usar un modelo para inferencia, puedes entrenar los datos en un modelo conjunto de datos o uno propio. Modelos de TensorFlow entrenados con Cloud TPU generalmente requieren que los conjuntos de datos estén TFRecord.
Puedes usar la herramienta de conversión de conjuntos de datos muestra para convertir una imagen de clasificación de datos en formato TFRecord. Si no usas una imagen de clasificación de datos, tendrás que convertir tu conjunto de datos a Formato TFRecord tú mismo. Para obtener más información, consulta TFRecord y tf.Example
Ajuste de hiperparámetros
Para mejorar el rendimiento del modelo con tu conjunto de datos, puedes ajustar la hiperparámetros. Puedes encontrar información sobre los hiperparámetros comunes a todos Los modelos compatibles con TPU en GitHub: La información sobre los hiperparámetros específicos del modelo se puede encontrar en la fuente de la aplicación para cada un modelo de responsabilidad compartida. Para obtener más información sobre el ajuste de hiperparámetros, consulta Descripción general de ajuste de hiperparámetros y ajustes hiperparámetros.
Inferencia
Una vez que hayas entrenado tu modelo, puedes usarlo para inferencias (también denominado predicciones). Puedes usar el conversor de inferencia de Cloud TPU de desarrollo de software para preparar y optimizar un Modelo de TensorFlow para inferencias en Cloud TPU v5e. Para ver más información sobre la inferencia en Cloud TPU v5e, consulta Inferencia de Cloud TPU v5e introducción.
- Ejecuta un colab de Cloud TPU que demuestra cómo entrenar un modelo de clasificación de imágenes con tu propio datos de imágenes.
- Explora los otros instructivos de Cloud TPU.
- Aprende a usar las herramientas de supervisión de TPU en TensorBoard.
- Verifica el rendimiento en un modelo a gran escala; para ello, ejecuta la muestra de ResNet.