Configura la red y el acceso a tu Cloud TPU
En esta página, se describe cómo configurar la red y el acceso personalizados para tu Cloud TPU, lo que incluye lo siguiente:
- Especifica una red y una subred personalizadas
- Especifica direcciones IP internas y externas
- Habilita el acceso SSH a las TPU
- Cómo conectar una cuenta de servicio personalizada a tu TPU
- Habilita métodos SSH personalizados
- Usa los Controles del servicio de VPC
Requisitos previos
Antes de ejecutar estos procedimientos, debes instalar Google Cloud CLI, crear un proyecto de Google Cloud y habilitar la API de Cloud TPU. Para obtener instrucciones, consulta Configura el entorno de Cloud TPU.
Especifica una red y una subred personalizadas
De forma opcional, puedes especificar la red y la subred que se usarán para la TPU. Si no se especifica la red, la TPU estará en la red default
. La subred debe estar en la misma región que la zona donde se ejecuta la TPU.
Crea una red que coincida con uno de los siguientes formatos válidos:
compute/{version}/projects/{proj-id}/global/networks/{network}
compute/{version}/projects/{proj-##}/global/networks/{network}
projects/{proj-id}/global/networks/{network}
projects/{proj-##}/global/networks/{network}
global/networks/{network}
{network}
Para obtener más información, consulta Crea y administra redes de VPC.
Crea una subred que coincida con uno de los siguientes formatos válidos:
compute/{version}/projects/{proj-id}/regions/{region}/subnetworks/{subnetwork}
compute/{version}/projects/{proj-##}/regions/{region}/subnetworks/{subnetwork}
projects/{proj-id}/regions/{region}/subnetworks/{subnetwork}
projects/{proj-##}/regions/{region}/subnetworks/{subnetwork}
regions/{region}/subnetworks/{subnetwork}
{subnetwork}
Para obtener más información, consulta Crea y administra redes de VPC.
Crea una VM de TPU y especifica la red y la subred personalizadas:
gcloud
Para especificar la red y la subred con la CLI de
gcloud
, agrega las marcas--network
y--subnetwork
a tu solicitud de creación:$ gcloud compute tpus tpu-vm create TPU_NAME \ --zone=us-central2-b \ --accelerator-type=v4-8 \ --version=TPU_SOFTWARE_VERSION \ --network=NETWORK \ --subnetwork=SUBNETWORK
curl
Para especificar la red y la subred en una llamada a
curl
, agrega los camposnetwork
ysubnetwork
al cuerpo de la solicitud:$ curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" -d "{accelerator_type: 'v4-8', \ runtime_version:'tpu-vm-tf-2.17.1-pjrt', \ network_config: {network: 'NETWORK', subnetwork: 'SUBNETWORK', enable_external_ips: true}, \ shielded_instance_config: { enable_secure_boot: true }}" \ https://tpu.googleapis.com/v2/projects/PROJECT_ID/locations/us-central2-b/nodes?node_id=TPU_NAME
Información sobre las direcciones IP internas y externas
Cuando creas VMs de TPU, siempre se incluyen direcciones IP internas de forma automática. Si las VMs de TPU se crean a través de gcloud CLI, se generan direcciones IP externas de forma predeterminada. Si se crean a través de las APIs de REST de Cloud TPU (tpu.googleapis.com), no se asigna ninguna dirección IP externa de forma predeterminada. Puedes cambiar el comportamiento predeterminado en ambos casos.
Direcciones IP externas
Cuando creas una TPU con gcloud
, se crean direcciones IP externas de forma predeterminada para cada VM de TPU.
Si deseas crear una VM de TPU sin IP externa, usa la marca --internal-ips
que se muestra en los siguientes ejemplos cuando crees la VM de TPU.
gcloud
Si usas recursos en cola, haz lo siguiente:
gcloud compute tpus queued-resources create your-queued-resource-id \ --node-id your-node-id \ --project your-project \ --zone us-central2-b \ --accelerator-type v4-8 \ --runtime-version tpu_software_version \ --internal-ips
Si usas la API de Create Node, haz lo siguiente:
$ gcloud compute tpus tpu-vm create TPU_NAME \ --zone=us-central2-b \ --accelerator-type=v4-8 \ --version=tpu_software_version \ --internal-ips
curl
Establece el campo enable_external_ips
en false
en el cuerpo de la solicitud:
$ curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" -d "{accelerator_type: 'v4-8', \ runtime_version:'tpu-vm-tf-2.17.1-pjrt', \ network_config: {enable_external_ips: false}, \ shielded_instance_config: { enable_secure_boot: true }}" \ https://tpu.googleapis.com/v2/projects/PROJECT_ID/locations/us-central2-b/nodes?node_id=TPU_NAME
Para crear una VM de TPU con una dirección IP externa cuando usas la API de REST (tpu.googleapis.com
), establece el campo networkconfig.enable_external_ips
en la solicitud como true
.
Direcciones IP internas
Las VMs de TPU siempre tienen direcciones IP internas. Los usuarios de Cloud TPU pueden querer restringir sus VMs de TPU a direcciones IP internas solo por algunos motivos clave:
Seguridad mejorada: Solo los recursos dentro de la misma red de VPC pueden acceder a las IP internas, lo que puede mejorar la seguridad, ya que limita el acceso externo a las VMs de TPU. Esto es muy importante cuando se trabaja con datos sensibles o cuando se desea restringir el acceso a las TPU a usuarios o sistemas específicos dentro de la red.
Ahorro de costos: Cuando usas direcciones IP internas, puedes evitar los costos asociados con las direcciones IP externas, que pueden ser significativos para una gran cantidad de VMs de TPU.
Rendimiento de red mejorado: Las IP internas pueden mejorar el rendimiento de la red, ya que el tráfico permanece dentro de la red de Google, lo que evita la sobrecarga de enrutamiento a través de la Internet pública. Esto es particularmente relevante para las cargas de trabajo de aprendizaje automático a gran escala que necesitan comunicación de gran ancho de banda entre las VMs de TPU.
Habilita métodos SSH personalizados
Para conectarte a las TPU con SSH, debes habilitar las direcciones IP externas para las TPU o habilitar el Acceso privado a Google para la subred a la que están conectadas las VMs de TPU.
Habilite el Acceso privado a Google
Las TPU que no tienen direcciones IP externas pueden usar el Acceso privado a Google para acceder a los servicios y las APIs de Google. Para obtener más información sobre cómo habilitar el Acceso privado a Google, consulta Configura el Acceso privado a Google.
Después de configurar el Acceso privado a Google, conéctate a la VM con SSH.
Cómo conectar una cuenta de servicio personalizada
Cada VM de TPU tiene una cuenta de servicio asociada que usa para realizar solicitudes a la API en tu nombre. Las VMs de TPU usan esta cuenta de servicio para llamar a las APIs de Cloud TPU y acceder a Cloud Storage y otros servicios. De forma predeterminada, tu VM de TPU usa la cuenta de servicio predeterminada de Compute Engine.
La cuenta de servicio debe definirse en el mismo Google Cloud proyecto en el que creas tu VM de TPU. Las cuentas de servicio personalizadas que se usan para las VMs de TPU deben tener el rol de Visualizador de TPU para llamar a la API de Cloud TPU. Si el código que se ejecuta en tu VM de TPU llama a otros Google Cloud servicios, debe tener los roles necesarios para acceder a ellos.
Para obtener más información sobre las cuentas de servicio, consulta Cuentas de servicio.
Usa los siguientes comandos para especificar una cuenta de servicio personalizada.
gcloud
Usa la marca --service-account
cuando crees una TPU:
$ gcloud compute tpus tpu-vm create TPU_NAME \ --zone=us-central2-b \ --accelerator-type=TPU_TYPE \ --version=tpu-vm-tf-2.17.1-pjrt \ --service-account=SERVICE_ACCOUNT
curl
Configura el campo service_account
en el cuerpo de la solicitud:
$ curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" -d "{accelerator_type: 'v4-8', \ runtime_version:'tpu-vm-tf-2.17.1-pjrt', \ network_config: {enable_external_ips: true}, \ shielded_instance_config: { enable_secure_boot: true }}" \ service_account: {email: 'SERVICE_ACCOUNT'} \ https://tpu.googleapis.com/v2/projects/PROJECT_ID/locations/us-central2-b/nodes?node_id=TPU_NAME
Habilita métodos SSH personalizados
La red predeterminada permite el acceso SSH a todas las VMs de TPU. Si usas una red que no es la predeterminada o cambias su configuración, debes habilitar explícitamente el acceso SSH agregando una regla de firewall:
$ gcloud compute firewall-rules create \ --network=NETWORK allow-ssh \ --allow=tcp:22
Cómo realizar la integración con los Controles del servicio de VPC
Los Controles del servicio de VPC de Cloud TPU te permiten definir perímetros de seguridad alrededor de los recursos de Cloud TPU y controlar el movimiento de datos en el límite perimetral. Para obtener más información sobre los Controles del servicio de VPC, consulta la Descripción general de los Controles del servicio de VPC. Para conocer las limitaciones en el uso de Cloud TPU con los controles del servicio de VPC, consulta la página sobre los productos admitidos y las limitaciones.