VLAN et sous-réseaux sur VMware Engine

Google Cloud VMware Engine crée un réseau par région dans laquelle votre service VMware Engine est déployé. Le réseau est un espace d'adressage TCP de couche 3 unique avec routage activé par défaut. Tous les clouds et sous-réseaux privés créés dans cette région peuvent communiquer entre eux sans configuration supplémentaire. Vous pouvez créer des segments de réseau (sous-réseaux) à l'aide de NSX-T pour vos machines virtuelles (VM) de charge de travail.

VLAN et sous-réseaux

VLAN de gestion

Google crée un VLAN (réseau de Couche 2) pour chaque cloud privé. Le trafic de Couche 2 reste dans les limites d'un cloud privé, ce qui vous permet d'isoler le trafic local dans le cloud privé. Ces VLAN sont utilisés pour le réseau de gestion. Pour les VM de charge de travail, vous devez créer des segments de réseau sur le gestionnaire NSX-T de votre cloud privé.

Sous-réseaux

Vous devez créer un segment de réseau dans le gestionnaire NSX-T de votre cloud privé. Un seul espace d'adressage de Couche 3 privé est attribué par client et par région. Vous pouvez configurer n'importe quelle plage d'adresses IP qui ne chevauche pas d'autres réseaux de votre cloud privé, réseau sur site, réseau de gestion de votre cloud privé ou plages d'adresses IP de sous-réseau de votre réseau de cloud privé virtuel (VPC). Pour en savoir plus sur la manière dont VMware Engine alloue les plages d'adresses IP de sous-réseau, consultez la section Configuration réseau requise.

Par défaut, tous les sous-réseaux peuvent communiquer entre eux, ce qui réduit le temps de configuration pour le routage entre clouds privés. Les données Est-Ouest sur les clouds privés d'une même région demeurent sur le même réseau de Couche 3 et sont transférées sur l'infrastructure du réseau local de la région. Aucune sortie n'est requise pour la communication entre les clouds privés d'une région. Cette approche élimine toute perte de performance de WAN/sortie lors du déploiement de différentes charges de travail dans différents clouds privés du même projet.

Sous-réseaux de gestion créés sur un cloud privé

Lorsque vous créez un cloud privé, VMware Engine crée les sous-réseaux de gestion suivants :

  • Gestion du système : VLAN et sous-réseau pour le réseau de gestion des hôtes ESXi, le serveur DNS et le serveur vCenter
  • VMotion : VLAN et sous-réseau pour le réseau vMotion des hôtes ESXi
  • VSAN : VLAN et sous-réseau pour le réseau vSAN des hôtes ESXi
  • NsxtEdgeUplink1 : VLAN et sous-réseau pour les liaisons VLAN avec un réseau externe
  • NsxtEdgeUplink2 : VLAN et sous-réseau pour les liaisons VLAN avec un réseau externe
  • HCXUplink : utilisé par les appliances HCX IX (mobilité) et NE (extension) pour atteindre leurs homologues et permettre la création du maillage de services HCX.
  • NsxtHostTransport : VLAN et sous-réseau pour la zone de transport hôte

Plage CIDR du réseau de déploiement HCX

Lorsque vous créez un cloud privé sur VMware Engine, HCX est automatiquement installé sur le cloud privé. Vous pouvez spécifier une plage CIDR du réseau à utiliser par les composants HCX. Le préfixe de la plage CIDR doit être /26 ou /27.

Le réseau fourni est divisé en trois sous-réseaux. Le gestionnaire HCX est installé dans le sous-réseau de Gestion HCX. Le sous-réseau vMotion HCX est utilisé pour la migration vMotion de machines virtuelles entre votre environnement sur site et le cloud privé VMware Engine. Le sous-réseau WANUplink HCX permet d'établir le tunnel entre votre environnement sur site et le cloud privé VMware Engine.

Sous-réseaux de service

Lorsque vous créez un cloud privé, VMware Engine crée automatiquement des sous-réseaux de service supplémentaires. Vous pouvez les utiliser pour le déploiement de dispositifs ou de services, le stockage, la sauvegarde, la reprise après sinistre, le streaming multimédia, et le débit linéaire et le traitement de paquets à grande échelle, même pour les clouds privés les plus étendus. Voici les noms des sous-réseaux de service :

  • service-1
  • service-2
  • service-3
  • service-4
  • service-5

La communication avec les machines virtuelles d'un sous-réseau de service passe directement de l'hôte VMware ESXi à l'infrastructure réseau Google Cloud , ce qui permet une communication à haut débit.

Configurer des sous-réseaux de service

Lorsque VMware Engine crée un sous-réseau de service, il n'alloue pas de plage ni de préfixe CIDR. Vous devez spécifier un préfixe et une plage CIDR sans chevauchement. La première adresse utilisable deviendra l'adresse de la passerelle. Pour attribuer une plage et un préfixe CIDR, modifiez l'un des sous-réseaux de service.

Les sous-réseaux de service peuvent être mis à jour si les exigences CIDR changent. La modification du CIDR d'un sous-réseau de service existant peut entraîner une interruption de la disponibilité du réseau pour les VM associées à ce sous-réseau de service.

Configurer les groupes de ports distribués vSphere

Pour connecter une VM à un sous-réseau de service, vous devez créer un groupe de ports distribués. Ce groupe mappe l'ID de sous-réseau de service à un nom de réseau dans un cloud privé vCenter.

Pour ce faire, accédez à la section de configuration réseau de l'interface vCenter, sélectionnez Datacenter-dvs, puis New Distributed Port Group (Nouveau groupe de ports distribué).

Une fois le groupe de ports distribué créé, vous pouvez associer des VM en sélectionnant le nom correspondant dans la configuration réseau des propriétés de la VM.

Voici les valeurs de configuration critiques des groupes de ports distribués :

  • Association de ports : association statique
  • Allocation de ports : élastique
  • Nombre de ports : 120
  • Type de VLAN : VLAN
  • ID de VLAN : ID de sous-réseau correspondant dans la section "Sous-réseaux" de l'interface Google Cloud VMware Engine

L'unité de transmission maximale (MTU) correspond à la taille, en octets, du plus grand paquet accepté par un protocole de couche réseau. Elle inclut les en-têtes et les données. Pour éviter les problèmes liés à la fragmentation, nous vous recommandons d'utiliser les paramètres de MTU suivants :

  • Pour les VM qui ne communiquent qu'avec d'autres points de terminaison dans un cloud privé standard, vous pouvez utiliser des paramètres de MTU allant jusqu'à 8 800 octets.

  • Pour les VM qui ne communiquent qu'avec d'autres points de terminaison dans un cloud privé étendu, vous pouvez utiliser des paramètres de MTU allant jusqu'à 8 600 octets.

  • Pour les VM qui communiquent vers ou depuis un cloud privé sans encapsulation, utilisez le paramètre de MTU standard de 1 500 octets. Ce paramètre par défaut commun est valide pour les interfaces de VM qui envoient du trafic des manières suivantes :

    • d'une VM dans un cloud privé vers une VM dans un autre cloud privé
    • d'un point de terminaison sur site vers un cloud privé
    • d'une VM dans un cloud privé vers un point de terminaison sur site
    • d'Internet vers un cloud privé
    • d'une VM dans un cloud privé vers Internet
  • Pour les VM qui communiquent vers ou depuis Internet avec de grands flux de trafic UDP sensibles à la fragmentation, utilisez un paramètre de MTU de 1 370 octets ou moins. Cette recommandation s'applique aux communications utilisant des connexions ou des adresses IP publiques fournies par VMware Engine. Le processus de limitation de la taille MSS résout généralement les problèmes de fragmentation avec les flux de trafic basés sur TCP.

  • Pour les VM qui communiquent vers ou depuis un cloud privé ou avec encapsulation, calculez le paramètre de MTU optimal en fonction des configurations des points de terminaison du VPN. Cela se traduit généralement par un paramètre de MTU de 1 350 à 1 390 octets ou moins pour les interfaces de VM qui envoient du trafic des manières suivantes :

    • d'un point de terminaison sur site vers un cloud privé avec encapsulation
    • d'une VM cloud privé vers un point de terminaison sur site avec encapsulation
    • d'une VM cloud privé vers une VM dans un autre cloud privé avec encapsulation

Ces recommandations sont particulièrement importantes dans les cas où une application n'est pas en mesure de contrôler la taille de la charge utile maximale. Pour plus d'informations sur le calcul de la surcharge d'encapsulation, consultez les ressources suivantes :