Os clusters do Anthos em bare metal agora são o Google Distributed Cloud (somente software) em bare metal. Para mais informações, consulte a visão geral do produto.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Nesta página, mostramos como configurar volumes locais para clusters do Google Distributed Cloud.
Os clusters do Google Distributed Cloud oferecem duas opções para configurar
PVs locais
no cluster: compartilhamento de LVP e montagens de nós LVP. O compartilhamento de LVP usa diretórios em um
sistema de arquivos compartilhado, enquanto as montagens de nós LVP usam discos dedicados.
Compartilhamento de LVP
Essa classe de armazenamento cria um PV local com backup em subdiretórios em um sistema de arquivos local
compartilhado em cada nó do cluster. Esses subdiretórios são
criados automaticamente durante a criação do cluster. As cargas de trabalho que usam essa classe de armazenamento compartilham capacidade e IOPS, porque os PVs são respaldados pelo mesmo sistema de arquivos
compartilhado. Para um isolamento melhor, recomendamos configurar discos através de montagens de
nós LVP.
Configurar um compartilhamento de LVP
Opcional: antes da criação do cluster, monte um disco usando o caminho configurado
como um ponto de montagem para que os PVs criados compartilhem a nova capacidade do disco e
fiquem isolados do disco de inicialização.
Especifique a seguinte resposta em lvpShare na resposta automática do cluster:
path: o caminho da máquina host em cada host em que os subdiretórios são
criados. Um PV local é criado para cada subdiretório. O caminho padrão
é /mnt/localpv-share.
storageClassName: a classe de armazenamento com a qual os PVs são criados durante
a criação do cluster. O valor padrão é local-shared.
numPVUnderSharedPath: número de subdiretórios a serem criados em path.
O valor padrão é 5.
Os PVs são criados com a classe de armazenamento especificada em storageClassName. O
número total de PVs locais criados no cluster é numPVUnderSharedPath
multiplicado pelo número de nós.
Montagem de nós LVP
Essa classe de armazenamento cria um PV local para cada disco montado no diretório
configurado. Todos os PVs são mapeados para um disco com capacidade igual à capacidade de disco
subjacente. O número total de PVs locais criados no cluster é o número de
discos montados no caminho em todos os nós. Outras montagens poderão ser adicionadas
após a criação do cluster.
Configurar ativações de nó LVP
Em nós que tenham discos extras para PVs, formate e ative todos os discos no
caminho. Isso também pode ser feito antes ou depois da criação do cluster. Veja as
práticas recomendadas.
Liste os discos e encontre aquele que você quer montar:
sudo lsblk
Formate o disco, por exemplo, com um único sistema de arquivos ext4:
Adicione o disco ao arquivo /etc/fstab para que o dispositivo seja montado
automaticamente de novo quando a instância for reiniciada:
# Backup of your current /etc/fstab file
sudo cp /etc/fstab /etc/fstab.backup
# Use the blkid command to find the UUID for the zonal persistent disk
sudo blkid /dev/DEVICE_ID
# Edit /etc/fstab file: create an entry that includes the UUID
UUID=UUID_VALUE /mnt/localpv-disk/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2
Especifique a seguinte resposta em lvpNodeMounts na resposta automática do cluster:
path: o caminho da máquina host para cada montagem em que os discos montados
são descobertos e um PV local é criado. O caminho padrão é
/mnt/localpv-disk.
storageClassName: a classe de armazenamento com a qual os PVs são criados durante
a criação do cluster. O valor padrão é local-disks.
Os PVs são criados com a classe de armazenamento especificada em storageClassName. O
número total de PVs criados é o número de discos montados em path
em todos os nós.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-07-14 UTC."],[],[],null,["# Configure local storage\n\nThis page shows you how to configure local volumes for Google Distributed Cloud\nclusters.\n\nGoogle Distributed Cloud clusters provide two options for configuring\n[local PVs](https://kubernetes.io/docs/concepts/storage/volumes/#local))\nin the cluster: LVP share and LVP node mounts. LVP share uses directories in a\nshared file system, while LVP node mounts uses dedicated disks.\n| **Caution:** Using a local PV binds the Pod to a specific disk and node. If that disk or node becomes unavailable, then the Pod also becomes unavailable. Workloads using local PVs need to be resilient to this kind of failure, and may require additional orchestration to release the Pod's PVCs and find a new, empty disk on another node.\n\nLVP share\n---------\n\nThis storage class creates a local PV backed by subdirectories in a local,\nshared file system on every node in the cluster. These subdirectories are\nautomatically created during cluster creation. Workloads using this storage\nclass will share capacity and IOPS because the PVs are backed by the same shared\nfile system. For better isolation, we recommend configuring disks through LVP\nnode mounts instead.\n\n### Configure an LVP share\n\n1. **Optional**: Before cluster creation, mount a disk using the configured path\n as a mount point so that the created PVs will share the new disk capacity and\n be isolated from the boot disk.\n\n2. Specify the following under `lvpShare` in the cluster CR:\n\n - `path`: The host machine path on each host where subdirectories are created. A local PV is created for each subdirectory. The default path is `/mnt/localpv-share`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-shared`.\n - `numPVUnderSharedPath`: Number of subdirectories to create under `path`. The default value is `5`.\n\n The configuration looks similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpShare:\n path: /mnt/localpv-share\n storageClassName: local-shared\n numPVUnderSharedPath: 5\n\nPVs are created with the storage class specified in `storageClassName`. The\ntotal number of local PVs created in the cluster is `numPVUnderSharedPath`\nmultiplied by the number of nodes.\n\nLVP node mounts\n---------------\n\nThis storage class creates a local PV for each mounted disk in the configured\ndirectory. Each PV maps to a disk with capacity equal to the underlying disk\ncapacity. The total number of local PVs created in the cluster is the number of\ndisks mounted under the path across all nodes. Additional mounts can be added\nafter cluster creation.\n\n### Configure LVP node mounts\n\n1. On nodes that have extra disks for PVs, format and mount each disk under\n path. This can also be done before or after cluster creation. See\n [best practices](https://github.com/kubernetes-sigs/sig-storage-local-static-provisioner/blob/master/docs/best-practices.md).\n\n 1. List disks and find the one you want to mount:\n\n sudo lsblk\n\n 2. Format the disk, for example with single ext4 file system:\n\n sudo mkfs.ext4 -m 0 -E lazy_itable_init=0,lazy_journal_init=0,discard /dev/DEVICE_ID\n\n 3. Under the configured path, create a directory as the mount point for the\n new disk:\n\n sudo mkdir -p /mnt/localpv-disk/MNT_DIR\n\n 4. Mount the disk:\n\n sudo mount -o discard,defaults /dev/DEVICE_ID /mnt/localpv-disk/MNT_DIR &&\n sudo chmod a+w /mnt/localpv-disk/MNT_DIR\n\n 5. Add the disk to the `/etc/fstab` file, so that the device automatically\n mounts again when the instance restarts:\n\n # Backup of your current /etc/fstab file\n sudo cp /etc/fstab /etc/fstab.backup\n\n # Use the blkid command to find the UUID for the zonal persistent disk\n sudo blkid /dev/DEVICE_ID\n\n # Edit /etc/fstab file: create an entry that includes the UUID\n UUID=UUID_VALUE /mnt/localpv-disk/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2\n\n2. Specify the following under `lvpNodeMounts` in cluster CR:\n\n - `path`: The host machine path for each mount where mounted disks are discovered and a local PV is created. The default path is `/mnt/localpv-disk`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-disks`.\n\n The configuration looks something similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpNodeMounts:\n path: /mnt/localpv-disk\n storageClassName: local-disks\n\n PVs are created with the storage class specified in `storageClassName`. The\n total number of PVs created is the number of disks mounted under `path`\n across all nodes.\n\nWhat's next\n-----------\n\n- Learn how to [configure the default storage class](/kubernetes-engine/distributed-cloud/bare-metal/docs/installing/default-storage-class)."]]