Cette page décrit les problèmes connus que vous pourriez rencontrer lors de l'utilisation de Compute Engine. Pour les problèmes qui concernent spécifiquement les Confidential VMs, consultez la section Limites de Confidential VM.
Problèmes d'ordre général
Les problèmes suivants vous fournissent des conseils de dépannage ou des informations générales.
Vous ne pouvez pas utiliser la console Google Cloud pour créer des VM Spot pour A4 et A3 Ultra.
Vous ne pouvez pas créer de VM Spot utilisant les séries de machines A4 ou A3 Ultra à l'aide de la console Google Cloud . Plus précisément, sur la page Créer une instance, après avoir sélectionné un type de GPU pour ces séries de machines dans le volet Configuration de la machine, le volet Avancé indique qu'une réservation est requise et ne vous permet pas de sélectionner Spot dans la liste Modèle de provisionnement de VM.
Pour contourner ce problème, utilisez la gcloud CLI ou REST pour créer des VM Spot pour A4 et A3 Ultra. Vous pouvez également utiliser la console Google Cloud pour créer des VM A4 et A3 Ultra qui utilisent le modèle de provisionnement lié à une réservation.
La modification des IOPS ou du débit sur un disque principal de réplication asynchrone à l'aide de la commande gcloud compute disks update
entraîne une fausse erreur.
Lorsque vous utilisez la commande gcloud compute disks update
pour modifier les IOPS et le débit d'un disque principal de réplication asynchrone, Google Cloud CLI affiche un message d'erreur même si la mise à jour a réussi.
Pour vérifier précisément qu'une mise à jour a réussi, utilisez la Google Cloud CLI ou la console Google Cloud pour voir si les propriétés du disque affichent les nouvelles valeurs d'IOPS et de débit. Pour en savoir plus, consultez Afficher les paramètres de performances provisionnés pour Hyperdisk.
Le serveur de métadonnées peut afficher d'anciennes métadonnées de VM physicalHost
.
Après avoir rencontré une erreur d'hôte qui déplace une instance vers un nouvel hôte, lorsque vous interrogez le serveur de métadonnées, il peut afficher les métadonnées physicalHost
de l'hôte précédent de l'instance.
Pour contourner ce problème, effectuez l'une des opérations suivantes :
- Utilisez la méthode
instances.get
ou la commandegcloud compute instances describe
pour récupérer les informationsphysicalHost
appropriées. - Arrêtez, puis démarrez votre instance. Ce processus met à jour les informations
physicalHost
sur le serveur de métadonnées. - Attendez 24 heures que les informations
physicalHost
de l'instance concernée soient mises à jour.
Les valeurs baseInstanceName
longues dans les groupes d'instances gérés (MIG) peuvent entraîner des conflits de noms de disque.
Dans un MIG, des conflits de noms de disques peuvent se produire si le modèle d'instance spécifie des disques à créer lors de la création de la VM et si la valeur baseInstanceName
dépasse 54 caractères. Cela se produit, car Compute Engine génère des noms de disques en utilisant le nom de l'instance comme préfixe.
Lors de la génération des noms de disque, si le nom obtenu dépasse la limite de 63 caractères, Compute Engine tronque les caractères en trop à la fin du nom de l'instance. Cette troncature peut entraîner la création de noms de disques identiques pour les instances dont les schémas de nommage sont similaires. Dans ce cas, la nouvelle instance tentera d'associer le disque existant. Si le disque est déjà associé à une autre instance, la création de la nouvelle instance échoue. Si le disque n'est pas associé ou est en mode écriture simultanée, la nouvelle instance l'associera, ce qui peut entraîner une corruption des données.
Pour éviter les conflits de noms de disque, la valeur baseInstanceName
ne doit pas dépasser 54 caractères.
La création de réservations ou de demandes de réservations futures à l'aide d'un modèle d'instance qui spécifie un type de machine A2, C3 ou G2 entraîne des problèmes
Si vous utilisez un modèle d'instance qui spécifie un type de machine A2, C3 ou G2 pour créer une réservation, ou pour créer et envoyer une demande de réservation ultérieure pour examen, vous rencontrez des problèmes. à savoir :
La création de la réservation peut échouer. En cas de réussite, l'une des conditions suivantes s'applique :
Si vous avez créé une réservation utilisée automatiquement (par défaut), la création de VM avec des propriétés correspondantes n'impliquera pas la consommation de la réservation.
Si vous avez créé une réservation spécifique, la création de VM pour cibler spécifiquement cette réservation échoue.
La création de la requête de réservation future aboutit. Toutefois, si vous l'envoyez pour examen, Google Cloud refuse votre demande.
Vous ne pouvez pas remplacer le modèle d'instance utilisé pour créer une réservation ou une requête de réservation ultérieure, ni remplacer les propriétés de la VM du modèle. Si vous souhaitez réserver des ressources pour des types de machines A2, C3 ou G2, effectuez plutôt l'une des opérations suivantes :
Créer un projet unique ou une réservation partagée en spécifiant directement les propriétés.
Créez une demande de réservation future en procédant comme suit :
Si vous souhaitez empêcher une requête de réservation future existante de restreindre les propriétés des requêtes de réservations futures que vous pouvez créer dans votre projet actuel ou dans les projets avec lesquels la demande de réservation future est partagée supprimez la demande de réservation future.
Créez une demande de réservation future à projet unique ou partagée en spécifiant directement les propriétés, puis envoyez-la pour examen.
Limites lorsque vous utilisez les types de machines -lssd
avec Google Kubernetes Engine
Lorsque vous utilisez l'API Google Kubernetes Engine, le pool de nœuds auquel vous associez des disques SSD locaux que vous provisionnez doit disposer du même nombre de disques SSD que le type de machine C4, C3 ou C3D sélectionné. Par exemple, si vous envisagez de créer une VM qui utilise c3-standard-8-lssd
, vous devez disposer de deux disques SSD, tandis que pour un c3d-standard-8-lssd
, un seul disque SSD est requis. Si le numéro de disque ne correspond pas, vous obtenez une erreur de configuration SSD locale du plan de contrôle Compute Engine. Consultez Types de machines qui associent automatiquement des disques SSD locaux pour sélectionner le nombre approprié de disques SSD locaux en fonction du type de machine lssd
.
L'utilisation de la console Google Kubernetes Engine Google Cloud pour créer un cluster ou un pool de nœuds avec des VM c4-standard-*-lssd
, c4-highmem-*-lssd
, c3-standard-*-lssd
et c3d-standard-*-lssd
entraîne l'échec de la création de nœud ou de la détection des disques SSD locaux en tant qu'espace de stockage éphémère.
Variabilité du débit TCP sur un seul flux sur les VM C3D
Les VM C3D supérieures à 30 vCPU peuvent rencontrer une variabilité de débit TCP à un seul flux et être parfois limitée à 20-25 Gbit/s. Pour atteindre des taux plus élevés, utilisez plusieurs flux TCP.
La métrique d'observabilité de l'utilisation du processeur est incorrecte pour les VM qui utilisent un thread par cœur
Si le processeur de votre VM utilise un thread par cœur, la métrique d'observabilité de l'utilisation du processeur de Cloud Monitoring dans l'onglet Compute Engine > Instances de VM > Observabilité n'atteint que 50 %. À l'exception de la série Tau T2D, deux threads par cœur sont utilisés par défaut pour tous les types de machines. Pour en savoir plus, consultez la section Définir le nombre de threads par cœur.
Pour afficher l'utilisation du processeur normalisée de votre VM à 100 %, affichez plutôt l'utilisation du processeur dans l'explorateur de métriques. Pour plus d'informations, consultez la page Créer des graphiques avec l'explorateur de métriques.
Les connexions SSH dans le navigateur de la consoleGoogle Cloud peuvent échouer si vous utilisez des règles de pare-feu personnalisées
Si vous utilisez des règles de pare-feu personnalisées pour contrôler l'accès SSH à vos instances de VM, vous ne pourrez peut-être pas utiliser la fonctionnalité SSH dans le navigateur.
Pour contourner ce problème, effectuez l'une des opérations suivantes :
Activez Identity-Aware Proxy pour TCP pour continuer à vous connecter aux VM à l'aide de la fonctionnalité "SSH dans le navigateur" de la consoleGoogle Cloud .
Recréez la règle de pare-feu
default-allow-ssh
pour continuer à vous connecter aux VM à l'aide de la fonctionnalité "SSH dans le navigateur".Connectez-vous aux VM à l'aide de Google Cloud CLI plutôt qu'avec SSH dans le navigateur.
Noms temporaires des disques
Pendant les mises à jour d'instances de machines virtuelles (VM) lancées à l'aide de la commande gcloud compute instances update
ou de la méthode de l'API instances.update
, Compute Engine peut temporairement modifier le nom des disques de votre VM en ajoutant les suffixes suivants au nom d'origine :
-temp
-old
-new
Compute Engine supprime le suffixe et restaure les noms de disques d'origine à la fin de la mise à jour.
Augmentation de la latence pour certains disques persistants causée par leur redimensionnement
Dans certains cas, le redimensionnement des disques persistants volumineux (environ 3 To ou plus) peut perturber les performances d'E/S du disque. Si vous êtes concerné par ce problème, vos disques persistants peuvent connaître une latence accrue lors de l'opération de redimensionnement. Ce problème peut affecter les disques persistants de n'importe quel type.
Vos processus automatisés peuvent échouer s'ils utilisent des données de réponse de l'API concernant vos quotas d'engagement basés sur les ressources
Vos processus automatisés qui consomment et utilisent les données de réponse de l'API concernant vos quotas d'engagement basés sur les ressources Compute Engine peuvent échouer si les conditions suivantes sont remplies. Vos processus automatisés peuvent inclure des extraits de code, une logique métier ou des champs de base de données qui utilisent ou stockent les réponses de l'API.
Les données de réponse proviennent de l'une des méthodes d'API Compute Engine suivantes :
Vous utilisez un
int
au lieu d'unnumber
pour définir le champ de la limite de quota de ressources dans les corps de réponse de votre API. Vous pouvez trouver le champ comme suit pour chaque méthode :items[].quotas[].limit
pour la méthodecompute.regions.list
.quotas[].limit
pour la méthodecompute.regions.get
.quotas[].limit
pour la méthodecompute.projects.get
.
Vous disposez d'un quota par défaut illimité pour tous vos SKU Compute Engine associés à un engagement.
Pour en savoir plus sur les quotas d'engagements et de SKU validés, consultez la page Quotas pour les engagements et les ressources validées.
Origine du problème
Lorsque votre quota est limité, si vous définissez le champ items[].quotas[].limit
ou quotas[].limit
comme type int
, les données de réponse de l'API pour vos limites de quota peuvent toujours se situer dans la plage du type int
, et votre processus automatisé ne sera peut-être pas interrompu. Toutefois, lorsque la limite de quota par défaut est illimitée, l'API Compute Engine renvoie une valeur pour le champ limit
qui se situe en dehors de la plage définie par le type int
. Votre processus automatisé ne peut pas consommer la valeur renvoyée par la méthode API et échoue en conséquence.
Comment contourner ce problème
Vous pouvez contourner ce problème et continuer à générer vos rapports automatisés comme suit :
Recommandé : Suivez la documentation de référence de l'API Compute Engine et utilisez les types de données appropriés pour les définitions de la méthode API. Plus précisément, utilisez le type
number
pour définir les champsitems[].quotas[].limit
etquotas[].limit
de vos méthodes d'API.Diminuez votre limite de quota à une valeur inférieure à 9 223 372 036 854 775 807. Vous devez définir des limites de quota pour tous les projets comportant des engagements basés sur les ressources, dans toutes les régions. Pour ce faire, procédez de l'une des façons suivantes :
- Suivez la même procédure que pour demander un ajustement de quota, mais demandez une limite de quota inférieure.
- Créez un remplacement de quota.
Problèmes connus pour les instances Bare Metal
Les instances C4D bare metal ne peuvent pas exécuter l'OS SUSE Linux Enterprise Server (SLES) version 15 SP6.
Solution
Utilisez plutôt SLES 15 SP5.
Problèmes liés à l'utilisation des interfaces réseau dynamiques
Cette section décrit les problèmes connus liés à l'utilisation de plusieurs interfaces réseau et d'interfaces réseau dynamiques.
Perte de paquets avec des tailles MTU personnalisées
Une interface réseau dynamique avec une carte d'interface réseau virtuelle parente peut entraîner une perte de paquets avec des tailles de MTU personnalisées.
Solution
Pour éviter les pertes de paquets, utilisez l'une des tailles de MTU suivantes :
- 1 460 octets (valeur par défaut pour les réseaux VPC)
- 1 500 octets (Ethernet standard)
- 8 896 octets (la valeur maximale possible)
Interactions du pare-feu lors de la réutilisation d'un ID de VLAN avec des cartes d'interface réseau dynamiques
Sur une instance, la réutilisation d'un ID de VLAN pour une nouvelle carte d'interface réseau dynamique a des implications sur le suivi des connexions du pare-feu. Si vous supprimez une carte d'interface réseau dynamique et que vous en créez une de remplacement qui utilise le même ID de VLAN, les entrées de la table de suivi des connexions du pare-feu ne sont pas effacées automatiquement. L'exemple suivant illustre les considérations de sécurité pertinentes :
- Une instance de calcul possède une carte d'interface réseau dynamique avec l'ID de VLAN
4
connectée à un sous-réseau du réseau VPCnetwork-1
. - L'instance envoie des paquets à l'adresse IP de destination 192.0.2.7 et au port de destination 443. Les règles de pare-feu de sortie applicables autorisent la connexion sortante.
- Étant donné que les règles Cloud NGFW sont avec état, la connexion sortante autorisée crée une entrée dans la table de suivi des connexions du pare-feu, ce qui autorise les paquets entrants provenant de l'adresse IP source et du port source 192.0.2.7:443.
- Supprimez l'exemple de carte d'interface réseau dynamique et créez une carte d'interface réseau dynamique de remplacement. L'interface réseau dynamique de remplacement utilise également l'ID de VLAN
4
, mais se connecte à un sous-réseau dans un autre réseau VPC,network-2
. - Toutes les entrées non expirées du tableau de suivi des connexions du pare-feu qui s'appliquaient à la carte d'interface réseau dynamique d'origine s'appliquent à la carte d'interface réseau dynamique de remplacement. Cela signifie qu'une ressource du réseau VPC
network-2
peut envoyer des paquets dont les sources correspondent à 192.0.2.7:443, et que l'instance de calcul les accepte sans avoir besoin d'évaluer les règles de pare-feu d'entrée.
Pour en savoir plus sur le suivi des connexions et les règles de pare-feu, consultez la section Spécifications de la documentation sur le pare-feu Cloud nouvelle génération.
Solution
Si vous devez créer une interface réseau dynamique qui utilise le même ID de VLAN qu'une interface réseau dynamique supprimée de l'instance, procédez comme suit :
- Attendez au moins 10 minutes entre la suppression de l'interface réseau dynamique d'origine et la création de l'interface réseau dynamique de remplacement.
- Arrêtez l'instance, supprimez la carte d'interface réseau dynamique d'origine et créez la carte d'interface réseau dynamique de remplacement, puis démarrez l'instance.
L'interception de paquets peut entraîner la perte de paquets en raison de l'absence de tags VLAN dans les en-têtes Ethernet.
L'interception de paquets lors de l'utilisation d'une carte d'interface réseau dynamique peut entraîner la perte de paquets. Des paquets peuvent être perdus lorsque le pipeline est arrêté prématurément. Ce problème affecte les modes basés sur les sessions et ceux qui ne le sont pas.
Origine du problème
Les paquets supprimés se produisent lors de l'interception de paquets lorsque le pipeline est arrêté prématurément (interception d'entrée et réinjection de sortie). La résiliation anticipée entraîne l'absence d'ID de VLAN dans l'en-tête Ethernet du paquet entrant. Étant donné que le paquet de sortie est dérivé du paquet d'entrée modifié, il ne contient pas non plus d'ID de VLAN. Cela entraîne une sélection incorrecte de l'index du point de terminaison et des pertes de paquets ultérieures.
Solution
N'utilisez pas les fonctionnalités Google Cloud qui s'appuient sur l'interception de paquets, comme les points de terminaison de pare-feu.
Problèmes connus relatifs aux instances de VM Linux
Voici les problèmes connus des VM Linux.
Les VM Ubuntu qui utilisent la version d'image OS v20250530 affichent un FQDN incorrect
Un nom de domaine complet incorrect peut s'afficher avec le suffixe .local
lorsque vous effectuez l'une des actions suivantes :
- Mettez à jour le package
google-compute-engine
vers la version20250328.00
. - Lancez des instances à partir de n'importe quelle image Ubuntu proposée par Canonical avec le suffixe de version
v20250530
. Exemple :projects/ubuntu-os-cloud/global/images/ubuntu-2204-jammy-v20250530
Si vous rencontrez ce problème, un nom de domaine complet semblable à celui-ci peut s'afficher :
[root@ubuntu2204 ~]# apt list --installed | grep google
...
google-compute-engine/noble-updates,now 20250328.00-0ubuntu2~24.04.0 all [installed]
...
[root@ubuntu2204 ~]# curl "http://metadata.google.internal/computeMetadata/v1/instance/image" -H "Metadata-Flavor: Google"
projects/ubuntu-os-cloud/global/images/ubuntu-2204-jammy-v20250530
[root@ubuntu2204 ~]# hostname -f
ubuntu2204.local
Origine du problème
Sur toutes les images Ubuntu de version v20250530
, la version 20250328.00
du package guest-config
ajoute local
au chemin de recherche en raison de l'introduction d'un nouveau fichier de configuration : https://github.com/GoogleCloudPlatform/guest-configs/blob/20250328.00/src/etc/systemd/resolved.conf.d/gce-resolved.conf.
[root@ubuntu2204 ~]# cat /etc/resolv.conf
# This is /run/systemd/resolve/stub-resolv.conf managed by man:systemd-resolved(8).
# Do not edit.
...
nameserver 127.0.0.53
options edns0 trust-ad
search local ... google.internal
La présence de cette entrée local
dans le chemin de recherche du fichier /etc/resolv.conf
entraîne l'ajout d'un élément .local
au nom d'hôte lorsqu'un nom de domaine complet est demandé.
Notez que la version 20250501 de guest-configs
corrige déjà le problème, mais que Canonical n'a pas encore intégré la correction dans ses images.
Solution
- Modifiez le fichier de configuration de la résolution du nom de réseau
/etc/systemd/resolved.conf.d/gce-resolved.conf
en remplaçantDomains=local
parDomains=~local
. - Exécutez la commande suivante pour redémarrer le service systemd-resolved :
systemctl restart systemd-resolved
- Vérifiez que
local
est supprimé du chemin de recherche dans/etc/resolv.conf
. Confirmez le nom de domaine complet à l'aide de la commande
hostname -f
.[root@ubuntu2204 ~]# hostname -f ubuntu2204.us-central1-a.c.my-project.internal
Échec du démarrage de la VM SUSE Enterprise après modification des types d'instances
Après avoir modifié le type d'instance d'une VM SUSE Linux Enterprise, il est possible qu'elle ne démarre pas et que l'erreur suivante se répète dans la console série :
Starting [0;1;39mdracut initqueue hook[0m...
[ 136.146065] dracut-initqueue[377]: Warning: dracut-initqueue: timeout, still waiting for following initqueue hooks:
[ 136.164820] dracut-initqueue[377]: Warning: /lib/dracut/hooks/initqueue/finished/devexists-\x2fdev\x2fdisk\x2fby-uuid\x2fD3E2-0CEB.sh: "[ -e "/dev/disk/by-uuid/D3E2-0CEB" ]"
[ 136.188732] dracut-initqueue[377]: Warning: /lib/dracut/hooks/initqueue/finished/devexists-\x2fdev\x2fdisk\x2fby-uuid\x2fe7b218a9-449d-4477-8200-a7bb61a9ff4d.sh: "if ! grep -q After=remote-fs-pre.target /run/systemd/generator/systemd-cryptsetup@*.service 2>/dev/null; then
[ 136.220738] dracut-initqueue[377]: [ -e "/dev/disk/by-uuid/e7b218a9-449d-4477-8200-a7bb61a9ff4d" ]
[ 136.240713] dracut-initqueue[377]: fi"
Origine du problème
SUSE crée ses images cloud avec un initramfs
(système de fichiers RAM initial) polyvalent qui prend en charge différents types d'instances. Pour ce faire, utilisez les indicateurs --no-hostonly --no-hostonly-cmdline -o multipath
lors de la création initiale de l'image. Toutefois, lorsqu'un nouveau noyau est installé ou que initramfs
est régénéré (ce qui se produit lors des mises à jour du système), ces indicateurs sont omis par défaut.
Cela entraîne la création d'un initramfs
plus petit, spécifiquement adapté au matériel du système actuel, ce qui peut exclure les pilotes nécessaires pour d'autres types d'instances.
Par exemple, les instances C3 utilisent des lecteurs NVMe, qui nécessitent l'inclusion de modules spécifiques dans le initramfs
. Si un système initramfs
sans ces modules NVMe est migré vers une instance C3, le processus de démarrage échoue. Ce problème peut également affecter d'autres types d'instances ayant des exigences matérielles spécifiques.
Solution
Avant de modifier le type de machine, régénérez le fichier initramfs
avec tous les pilotes :
dracut --force --no-hostonly
Si le système est déjà affecté par le problème, créez une VM de secours temporaire. Utilisez la commande chroot
pour accéder au disque de démarrage de la VM concernée, puis régénérez initramfs
à l'aide de la commande suivante :
dracut -f --no-hostonly
Performances IOPS réduites pour les disques SSD locaux sur Z3 avec des images SUSE 12
Les VM Z3 sur les images SUSE Linux Enterprise Server (SLES) 12 présentent des performances d'IOPS sur les disques SSD locaux nettement inférieures aux attentes.
Origine du problème
Il s'agit d'un problème dans le codebase SLES 12.
Solution
Aucun correctif de SUSE n'est disponible ni prévu pour résoudre ce problème. Utilisez plutôt le système d'exploitation SLES 15.
Les VM RHEL 7 et CentOS perdent l'accès au réseau après le redémarrage
Si vos VM CentOS ou RHEL 7 possèdent plusieurs cartes d'interface réseau et que l'une d'entre elles n'utilise pas l'interface VirtIO, l'accès au réseau peut être perdu au redémarrage. En effet, RHEL n'est pas compatible avec la désactivation des noms d'interface réseau prévisibles si au moins une carte d'interface réseau n'utilise pas l'interface VirtIO.
Solution
Vous pouvez restaurer la connectivité réseau en arrêtant et en démarrant la VM jusqu'à ce que le problème soit résolu. Vous pouvez éviter qu'une perte de connectivité réseau ne se reproduise en procédant comme suit :
Modifiez le fichier
/etc/default/grub
et supprimez les paramètres de noyaunet.ifnames=0
etbiosdevname=0
.Générez à nouveau la configuration grub.
Redémarrez la VM.
Résolu : liens symboliques manquants pour les disques SSD locaux sur les VM C3 et C3D exécutant SUSE Linux
Le problème suivant a été résolu le 13 janvier 2025.
Les images SUSE publiques Google Cloud n'incluent pas la configuration udev requise pour créer des liens symboliques pour les disques SSD locaux C3 et C3D.
Solution
Pour ajouter des règles udev pour SUSE et des images personnalisées, consultez la section Liens symboliques non créés C3 et C3D avec un disque SSD local.
Impossible de valider la signature repomd.xml
Sur les systèmes basés sur Red Hat Enterprise Linux (RHEL) ou CentOS 7, le message d'erreur suivant peut s'afficher lorsque vous essayez d'installer ou de mettre à jour un logiciel à l'aide de yum. Cette erreur indique que vous disposez d'une clé GPG de dépôt expirée ou incorrecte.
Exemple de journal :
[root@centos7 ~]# yum update
...
google-cloud-sdk/signature | 1.4 kB 00:00:01 !!!
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Trying other mirror.
...
failure: repodata/repomd.xml from google-cloud-sdk: [Errno 256] No more mirrors to try.
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Solution
Pour résoudre ce problème, désactivez la vérification des clés GPG dans la configuration du dépôt yum en définissant repo_gpgcheck=0
. Dans les images de base Compute Engine compatibles, ce paramètre peut se trouver dans le fichier /etc/yum.repos.d/google-cloud.repo
. Toutefois, sur votre VM, il se peut que ce paramètre soit défini dans différents fichiers de configuration de dépôt ou outils d'automatisation.
Les dépôts yum n'utilisent généralement pas de clés GPG pour la validation du dépôt. Au lieu de cela, le point de terminaison https
est approuvé.
Pour localiser et mettre à jour ce paramètre, procédez comme suit :
Recherchez le paramètre dans votre fichier
/etc/yum.repos.d/google-cloud.repo
.cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Remplacez toutes les lignes qui indiquent
repo_gpgcheck=1
parrepo_gpgcheck=0
.sudo sed -i 's/repo_gpgcheck=1/repo_gpgcheck=0/g' /etc/yum.repos.d/google-cloud.repo
Vérifiez que le paramètre a été mis à jour.
cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Les instances utilisant OS Login renvoient un message d'erreur de connexion après la connexion
Une fois connecté à certaines instances qui utilisent OS Login, vous recevrez peut être le message d'erreur suivant :
/usr/bin/id: cannot find name for group ID 123456789
Solution
Ignorez le message d'erreur.
Problèmes connus pour les instances de VM Windows
- La compatibilité de NVMe sous Windows à l'aide du pilote NVMe de la communauté est en preview. Les performances peuvent ne pas correspondre à celles des instances Linux. Le pilote NVMe de la communauté a été remplacé par le pilote Microsoft StorNVMe dans les images publiques Google Cloud . Nous vous recommandons de remplacer le pilote NVMe sur les VM créées avant mai 2022 et d'utiliser le pilote Microsoft StorNVMe à la place.
- Une fois que vous avez créé une instance, vous ne pouvez pas vous y connecter instantanément. Toutes les nouvelles instances Windows utilisent l'outil de préparation du système (sysprep) pour leur configuration, ce qui peut prendre de 5 à 10 minutes.
- Les images Windows Server ne peuvent pas être activées sans connexion réseau à
kms.windows.googlecloud.com
. De plus, elles cessent de fonctionner si elles ne s'authentifient pas dans les 30 jours suivant leur date de création. Le logiciel activé par le KMS doit être réactivé tous les 180 jours, mais le KMS tente de se réactiver tous les 7 jours. Veillez à configurer vos instances Windows afin qu'elles restent activées. - Les logiciels du noyau qui accèdent à des registres spécifiques au modèle non émulés génèrent des erreurs de protection générales, ce qui peut entraîner un plantage du système en fonction du système d'exploitation invité.
Windows Server 2025 et Windows 11 24h2 : compatibilité avec la suspension et la réactivation
Windows Server 2025 et Windows 11 24h2 ne peuvent pas reprendre leur activité lorsqu'ils sont suspendus. Tant que ce problème n'est pas résolu, la fonctionnalité de suspension et de reprise ne sera pas prise en charge pour Windows Server 2025 et Windows 11 24h2.
Erreurs lors de la mesure de la dérive temporelle NTP à l'aide de w32tm sur des VM Windows
Pour les VM Windows exécutant des cartes d'interface réseau VirtIO sur Compute Engine, il existe un bug connu où la mesure de la dérive NTP génère des erreurs lors de l'utilisation de la commande suivante:
w32tm /stripchart /computer:metadata.google.internal
Les erreurs se présentent comme suit:
Tracking metadata.google.internal [169.254.169.254:123].
The current time is 11/6/2023 6:52:20 PM.
18:52:20, d:+00.0007693s o:+00.0000285s [ * ]
18:52:22, error: 0x80072733
18:52:24, d:+00.0003550s o:-00.0000754s [ * ]
18:52:26, error: 0x80072733
18:52:28, d:+00.0003728s o:-00.0000696s [ * ]
18:52:30, error: 0x80072733
18:52:32, error: 0x80072733
Ce bug ne concerne que les VM Compute Engine dotées de cartes d'interface réseau VirtIO. Les VM qui utilisent gVNIC ne rencontrent pas ce problème.
Pour éviter ce problème, Google recommande d'utiliser d'autres outils de mesure de dérive NTP, tels que l'outil Meinberg Time Server Monitor.
Périphérique de démarrage inaccessible après la mise à jour d'une VM de génération 1 ou 2 vers une VM de génération 3 ou ultérieure
Windows Server associe le lecteur de démarrage à son type d'interface de disque initial lors du premier démarrage. Pour remplacer une VM existante d'une ancienne série de machines utilisant une interface de disque SCSI par une série de machines plus récente utilisant une interface de disque NVMe, effectuez un sysprep du pilote Windows PnP avant d'arrêter la VM. Ce sysprep ne prépare que les pilotes de périphériques et vérifie que tous les types d'interface de disque sont analysés pour le lecteur de démarrage au prochain démarrage.
Pour modifier la série de machines d'une VM, procédez comme suit :
À partir d'une invite PowerShell en tant que Administrator
, exécutez :
PS C:\> start rundll32.exe sppnp.dll,Sysprep_Generalize_Pnp -wait
- Arrêtez la VM.
- Modifiez le type de machine de la VM.
- Démarrez la VM.
Si la nouvelle VM ne démarre pas correctement, rétablissez le type de machine d'origine pour que votre VM fonctionne à nouveau. Il devrait démarrer correctement. Consultez les conditions requises pour la migration afin de vérifier que vous les respectez. Réessayez ensuite de suivre les instructions.
Bande passante limitée avec gVNIC sur les VM Windows
Le pilote gVNIC intégré aux images Windows proposées par Compute Engine peut atteindre jusqu'à 50 Gbit/s de bande passante réseau sur les instances Windows, à la fois pour les performances réseau standards et pour les performances réseau Tier_1 par VM. Une version mise à jour du pilote gVNIC peut offrir des performances à débit maximal (jusqu'à 200 Gbit/s) et la prise en charge des trames Jumbo.
Le pilote mis à jour n'est disponible que pour les séries de machines 3e génération et ultérieures (à l'exception de la série N4). Pour en savoir plus, consultez Mettre à jour la version de gVNIC sur un OS Windows.
Nombre limité de disques pouvant être associés aux séries de machines VM plus récentes
Les VM exécutant Microsoft Windows avec l'interface de disque NVMe, y compris les VM T2A et toutes les VM de troisième génération, sont limitées à 16 disques de rattachement. Cette limite ne s'applique pas aux VM de quatrième génération (c4, m4). Pour éviter les erreurs, regroupez votre stockage Persistent Disk et Hyperdisk sur un maximum de 16 disques par VM. Le stockage SSD local n'est pas concerné par ce problème.
Remplacer le pilote NVME sur les VM créées avant mai 2022
Si vous souhaitez utiliser NVMe sur une VM utilisant Microsoft Windows et que la VM a été créée avant le 1er mai 2022, vous devez mettre à jour le pilote NVMe existant dans le système d'exploitation invité pour utiliser le Pilote Microsoft StorNVMe
Vous devez mettre à jour le pilote NVMe sur votre VM avant de remplacer le type de machine par une machine de la série de machines de troisième génération ou avant de créer un instantané de disque de démarrage qui servira à créer des VM utilisant une machine de la série de machines de troisième génération.
Utilisez les commandes suivantes pour installer le package de pilotes StorNVME et supprimer le pilote de la communauté, s'il est présent dans le système d'exploitation invité.
googet update
googet install google-compute-engine-driver-nvme
Performances inférieures pour les disques SSD locaux sur Microsoft Windows avec des VM C3 et C3D
Les performances des disques SSD locaux sont limitées pour les VM C3 et C3D exécutant Microsoft Windows.
Des améliorations de performances sont en cours.
Débit réseau médiocre lors de l'utilisation de gVNIC
Les VM Windows Server 2022 et Windows 11 qui utilisent le package GooGet du pilote gVNIC version 1.0.0@44
ou antérieure peuvent rencontrer un débit réseau médiocre lors de l'utilisation de la carte d'interface réseau virtuelle Google (gVNIC).
Pour résoudre ce problème, mettez à jour le package GooGet du pilote gVNIC vers la version 1.0.0@45
ou une version ultérieure, en procédant comme suit :
Vérifiez la version du pilote installée sur votre VM en exécutant la commande suivante à partir d'une invite de commande ou d'une session Powershell ouverte avec les autorisations d'administrateur :
googet installed
La sortie ressemble à ceci :
Installed packages: ... google-compute-engine-driver-gvnic.x86_64 VERSION_NUMBER ...
Si la version du pilote
google-compute-engine-driver-gvnic.x86_64
est1.0.0@44
ou une version antérieure, mettez à jour le dépôt du package GooGet en exécutant la commande suivante à partir d'une invite de commande ou d'une session PowerShell ouverte avec les autorisations d'administrateur :googet update
Les types de machines C4, C4D et C3D à grand nombre de vCPU ne sont pas compatibles avec les images d'OS Windows
Les types de machines C4 avec plus de 144 vCPU et les types de machines C4D et C3D avec plus de 180 vCPU ne sont pas compatibles avec les images d'OS Windows Server 2012 et 2016. Les types de machines C4, C4D et C3D de grande taille qui utilisent des images d'OS Windows Server 2012 et 2016 ne démarrent pas. Pour contourner ce problème, sélectionnez un type de machine plus petit ou utilisez une autre image de l'OS.
Les VM C3D créées avec 360 vCPU et des images d'OS Windows ne démarrent pas. Pour contourner ce problème, sélectionnez un type de machine plus petit ou utilisez une autre image de l'OS.
Les VM C4D créées avec plus de 255 vCPU et Windows 2025 ne démarrent pas. Pour contourner ce problème, sélectionnez un type de machine plus petit ou utilisez une autre image de l'OS.
Erreur de disque générique sur Windows Server 2016 et 2012 R2 pour les VM M3, C3, C3D et C4D
La possibilité d'ajouter ou de redimensionner un Hyperdisk ou un Persistent Disk pour une VM M3, C3, C3D ou C4D en cours d'exécution ne fonctionne pas comme prévu pour des invités Windows spécifiques pour le moment. Windows Server 2012 R2 et Windows Server 2016, ainsi que leurs variantes Windows autres que serveur correspondantes, ne répondent pas correctement aux commandes d'installation de disque et de redimensionnement de disque.
Par exemple, la suppression d'un disque d'une VM M3 en cours d'exécution déconnecte le disque d'une instance Windows Server sans que le système d'exploitation Windows ne reconnaisse que le disque n'est plus là. Les écritures suivantes sur le disque renvoient une erreur générique.
Solution
Vous devez redémarrer la VM M3, C3, C3D ou C4D exécutée sous Windows après avoir modifié un Hyperdisk ou un Persistent Disk pour que les modifications apportées au disque soient reconnues par ces invités.