本文档简要介绍了如何在单主机 TPU(v2-8、v3-8、v4-8)上使用 Pax。
Pax 是一个框架,用于基于 JAX 配置和运行机器学习实验。Pax 专注于通过与现有机器学习框架共享基础架构组件以及利用 Praxis 建模库来实现模块化,从而大规模简化机器学习。
目标
- 设置 TPU 资源以用于训练
- 在单主机 TPU 上安装 Pax
- 使用 Pax 训练基于 Transformer 的 SPMD 模型
准备工作
运行以下命令,将 gcloud
配置为使用您的 Cloud TPU 项目,并安装在单主机 TPU 上运行 Pax 模型所需的组件。
安装 Google Cloud CLI
Google Cloud CLI 包含用于与 Google Cloud CLI 产品和服务交互的工具和库。如果您之前未安装过 Google Cloud CLI,请立即按照安装 Google Cloud CLI 中的说明进行安装。
配置 gcloud
命令
(运行 gcloud auth list
可查看当前可用的帐号)。
$ gcloud config set account account
$ gcloud config set project project-id
启用 Cloud TPU API
在 Cloud Shell 中使用以下 gcloud
命令启用 Cloud TPU API。(您也可以通过 Google Cloud 控制台将其启用)。
$ gcloud services enable tpu.googleapis.com
运行以下命令以创建服务身份(服务帐号)。
$ gcloud beta services identity create --service tpu.googleapis.com
创建 TPU 虚拟机
借助 Cloud TPU 虚拟机,您的模型和代码直接在 TPU 虚拟机上运行。您通过 SSH 直接连接到 TPU 虚拟机。您可以直接在 TPU 虚拟机上运行任意代码、安装软件包、查看日志和调试代码。
从安装了 Google Cloud CLI 的 Cloud Shell 或计算机终端运行以下命令,创建 TPU 虚拟机。
根据合同中的可用性设置 zone
,如果需要,请参阅 TPU 区域和可用区。
将 accelerator-type
变量设置为 v2-8、v3-8 或 v4-8。
对于 v2 和 v3 TPU 版本,将 version
变量设置为 tpu-vm-base
;对于 v4 TPU,将变量设置为 tpu-vm-v4-base
。
$ gcloud compute tpus tpu-vm create tpu-name \ --zone zone \ --accelerator-type accelerator-type \ --version version
连接到您的 Google Cloud TPU 虚拟机
使用以下命令通过 SSH 连接到您的 TPU 虚拟机:
$ gcloud compute tpus tpu-vm ssh tpu-name --zone zone
登录虚拟机后,shell 提示符会从 username@projectname
更改为 username@vm-name
:
在 Google Cloud TPU 虚拟机上安装 Pax
使用以下命令在 TPU 虚拟机上安装 Pax、JAX 和 libtpu
:
(vm)$ python3 -m pip install -U pip \ python3 -m pip install paxml jax[tpu] -f https://storage.googleapis.com/jax-releases/libtpu_releases.html
系统检查
通过检查 JAX 是否看到 TPU 核心来测试所有内容是否已正确安装:
(vm)$ python3 -c "import jax; print(jax.device_count())"
此时系统会显示 TPU 核心的数量,如果您使用的是 v2-8 或 v3-8,该值应为 8;如果您使用的是 v4-8,该值应为 4。
在 TPU 虚拟机上运行 Pax 代码
您现在可以运行所需的任何 Pax 代码。如需开始在 Pax 中运行模型,可参阅 lm_cloud 示例。例如,以下命令会根据合成数据训练一个基于 2B 参数转换器的 SPMD 语言模型。
以下命令显示了 SPMD 语言模型的训练输出。它可以在大约 20 分钟内训练 300 步。
(vm)$ python3 .local/lib/python3.8/site-packages/paxml/main.py --exp=tasks.lm.params.lm_cloud.LmCloudSpmd2BLimitSteps --job_log_dir=job_log_dir
在 v4-8 切片上,输出应包含:
损失和单步用时
summary 张量,位于 step=step_# loss
= loss
summary 张量,位于 step=step_# 步/秒 x
清理
为避免因本教程中使用的资源导致您的 Google Cloud 账号产生费用,请删除包含这些资源的项目,或者保留项目但删除各个资源。
完成 TPU 虚拟机的操作后,请按照以下步骤清理资源。
断开与 Compute Engine 实例的连接(如果您尚未这样做):
(vm)$ exit
删除您的 Cloud TPU。
$ gcloud compute tpus tpu-vm delete tpu-name --zone zone
后续步骤
如需详细了解 Cloud TPU,请参阅: