Configurer la mise en réseau et l'accès à votre Cloud TPU
Cette page explique comment configurer des configurations réseau et d'accès personnalisées pour votre Cloud TPU, y compris:
- Spécifier un réseau et un sous-réseau personnalisés
- Spécifier des adresses IP externes et internes
- Activer l'accès SSH aux TPU
- Associer un compte de service personnalisé à votre TPU
- Activer des méthodes SSH personnalisées
- Utiliser VPC Service Controls
Prérequis
Avant d'exécuter ces procédures, vous devez installer Google Cloud CLI, créer un projet Google Cloud et activer l'API Cloud TPU. Pour obtenir des instructions, consultez la page Configurer l'environnement Cloud TPU.
Spécifier un réseau et un sous-réseau personnalisés
Vous pouvez éventuellement spécifier le réseau et le sous-réseau à utiliser pour le TPU. Si le réseau n'est pas spécifié, le TPU se trouve sur le réseau default
. Le sous-réseau doit se trouver dans la même région que la zone dans laquelle le TPU s'exécute.
Créez un réseau qui correspond à l'un des formats valides suivants:
compute/{version}/projects/{proj-id}/global/networks/{network}
compute/{version}/projects/{proj-##}/global/networks/{network}
projects/{proj-id}/global/networks/{network}
projects/{proj-##}/global/networks/{network}
global/networks/{network}
{network}
Pour en savoir plus, consultez la page Créer et gérer des réseaux VPC.
Créez un sous-réseau correspondant à l'un des formats valides suivants:
compute/{version}/projects/{proj-id}/regions/{region}/subnetworks/{subnetwork}
compute/{version}/projects/{proj-##}/regions/{region}/subnetworks/{subnetwork}
projects/{proj-id}/regions/{region}/subnetworks/{subnetwork}
projects/{proj-##}/regions/{region}/subnetworks/{subnetwork}
regions/{region}/subnetworks/{subnetwork}
{subnetwork}
Pour en savoir plus, consultez la page Créer et gérer des réseaux VPC.
Créez une VM TPU en spécifiant le réseau et le sous-réseau personnalisés:
gcloud
Pour spécifier le réseau et le sous-réseau à l'aide de la CLI
gcloud
, ajoutez les options--network
et--subnetwork
à votre requête de création:$ gcloud compute tpus tpu-vm create TPU_NAME \ --zone=us-central2-b \ --accelerator-type=v4-8 \ --version=TPU_SOFTWARE_VERSION \ --network=NETWORK \ --subnetwork=SUBNETWORK
curl
Pour spécifier le réseau et le sous-réseau dans un appel
curl
, ajoutez les champsnetwork
etsubnetwork
au corps de la requête:$ curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" -d "{accelerator_type: 'v4-8', \ runtime_version:'tpu-vm-tf-2.17.1-pjrt', \ network_config: {network: 'NETWORK', subnetwork: 'SUBNETWORK', enable_external_ips: true}, \ shielded_instance_config: { enable_secure_boot: true }}" \ https://tpu.googleapis.com/v2/projects/PROJECT_ID/locations/us-central2-b/nodes?node_id=TPU_NAME
Comprendre les adresses IP externes et internes
Lorsque vous créez des VM TPU, elles sont toujours fournies avec des adresses IP internes automatiquement. Si les VM TPU sont créées via la gcloud CLI, des adresses IP externes sont générées par défaut. Si elles sont créées via les API REST Cloud TPU (tpu.googleapis.com), aucune adresse IP externe n'est attribuée par défaut. Dans les deux cas, vous pouvez modifier le comportement par défaut.
Adresses IP externes
Lorsque vous créez un TPU à l'aide de gcloud
, des adresses IP externes sont créées par défaut pour chaque VM TPU.
Si vous souhaitez créer une VM TPU sans adresse IP externe, utilisez l'option --internal-ips
indiquée dans les exemples suivants lorsque vous créez la VM TPU.
gcloud
Si vous utilisez des ressources en file d'attente:
gcloud compute tpus queued-resources create your-queued-resource-id \ --node-id your-node-id \ --project your-project \ --zone us-central2-b \ --accelerator-type v4-8 \ --runtime-version tpu_software_version \ --internal-ips
Si vous utilisez l'API Create Node:
$ gcloud compute tpus tpu-vm create TPU_NAME \ --zone=us-central2-b \ --accelerator-type=v4-8 \ --version=tpu_software_version \ --internal-ips
curl
Définissez le champ enable_external_ips
sur false
dans le corps de la requête:
$ curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" -d "{accelerator_type: 'v4-8', \ runtime_version:'tpu-vm-tf-2.17.1-pjrt', \ network_config: {enable_external_ips: false}, \ shielded_instance_config: { enable_secure_boot: true }}" \ https://tpu.googleapis.com/v2/projects/PROJECT_ID/locations/us-central2-b/nodes?node_id=TPU_NAME
Pour créer une VM TPU avec une adresse IP externe lorsque vous utilisez l'API REST (tpu.googleapis.com
), définissez le champ networkconfig.enable_external_ips
de la requête sur true
.
Adresses IP internes
Les VM TPU ont toujours des adresses IP internes. Les utilisateurs de Cloud TPU peuvent vouloir limiter leurs VM TPU aux adresses IP internes pour quelques raisons clés:
Sécurité renforcée: les adresses IP internes ne sont accessibles qu'aux ressources du même réseau VPC, ce qui peut améliorer la sécurité en limitant l'accès externe aux VM TPU. Cela est particulièrement important lorsque vous travaillez avec des données sensibles ou lorsque vous souhaitez limiter l'accès à vos TPU à des utilisateurs ou des systèmes spécifiques de votre réseau.
Économies: en utilisant des adresses IP internes, vous pouvez éviter les coûts associés aux adresses IP externes, qui peuvent être importants pour un grand nombre de VM TPU.
Amélioration des performances réseau: les adresses IP internes peuvent améliorer les performances réseau, car le trafic reste sur le réseau de Google, ce qui évite les coûts liés au routage sur l'Internet public. Cela est particulièrement pertinent pour les charges de travail de machine learning à grande échelle qui nécessitent une communication à haut débit entre les VM TPU.
Activer les méthodes SSH personnalisées
Pour vous connecter aux TPU à l'aide de SSH, vous devez activer les adresses IP externes pour les TPU ou l'accès privé à Google pour le sous-réseau auquel les VM TPU sont connectées.
Activer l'accès privé à Google
Les TPU sans adresses IP externes peuvent utiliser l'accès privé à Google pour accéder aux API et services Google. Pour en savoir plus sur l'activation de l'Accès privé à Google, consultez la page Configurer l'Accès privé à Google.
Une fois que vous avez configuré l'accès privé à Google, connectez-vous à la VM à l'aide de SSH.
Associer un compte de service personnalisé
Chaque VM TPU est associée à un compte de service qu'elle utilise pour envoyer des requêtes API en votre nom. Les VM TPU utilisent ce compte de service pour appeler les API Cloud TPU et accéder à Cloud Storage et à d'autres services. Par défaut, votre VM TPU utilise le compte de service Compute Engine par défaut.
Le compte de service doit être défini dans le même Google Cloud projet que celui dans lequel vous créez votre VM TPU. Les comptes de service personnalisés utilisés pour les VM TPU doivent disposer du rôle Visionneuse TPU pour appeler l'API Cloud TPU. Si le code exécuté dans votre VM TPU appelle d'autres services Google Cloud , il doit disposer des rôles nécessaires pour y accéder.
Pour plus d'informations sur les comptes de service, consultez la page Comptes de service.
Utilisez les commandes suivantes pour spécifier un compte de service personnalisé.
gcloud
Utilisez l'option --service-account
lorsque vous créez un TPU:
$ gcloud compute tpus tpu-vm create TPU_NAME \ --zone=us-central2-b \ --accelerator-type=TPU_TYPE \ --version=tpu-vm-tf-2.17.1-pjrt \ --service-account=SERVICE_ACCOUNT
curl
Définissez le champ service_account
dans le corps de la requête:
$ curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" -d "{accelerator_type: 'v4-8', \ runtime_version:'tpu-vm-tf-2.17.1-pjrt', \ network_config: {enable_external_ips: true}, \ shielded_instance_config: { enable_secure_boot: true }}" \ service_account: {email: 'SERVICE_ACCOUNT'} \ https://tpu.googleapis.com/v2/projects/PROJECT_ID/locations/us-central2-b/nodes?node_id=TPU_NAME
Activer les méthodes SSH personnalisées
Le réseau par défaut autorise l'accès SSH à toutes les VM TPU. Si vous utilisez un réseau autre que le réseau par défaut ou si vous modifiez les paramètres réseau par défaut, vous devez activer explicitement l'accès SSH en ajoutant une règle de pare-feu:
$ gcloud compute firewall-rules create \ --network=NETWORK allow-ssh \ --allow=tcp:22
Intégrer à VPC Service Controls
Le service VPC Service Controls de Cloud TPU vous permet de définir des périmètres de sécurité autour de vos ressources Cloud TPU et de contrôler le déplacement des données au-delà des limites de ces périmètres. Pour en savoir plus sur VPC Service Controls, consultez la page Présentation de VPC Service Controls. Pour en savoir plus sur les limites d'utilisation de Cloud TPU avec VPC Service Controls, consultez la page Produits compatibles et limites.