Dokumen ini menjelaskan prosedur manual untuk Google Distributed Cloud jika Anda mengalami masalah dengan pemasangan NFS dengan volume atau Pod yang macet dan Anda membuat cluster dengan DataPlane v2 diaktifkan.
Masalah ini telah diperbaiki untuk versi berikut:
- Untuk versi minor 1.16, versi 1.16.4-gke.37 dan yang lebih tinggi.
- Untuk versi minor 1.28, versi 1.28.200-gke.111 dan yang lebih tinggi.
Sebaiknya Anda mengupgrade ke versi yang telah memperbaiki masalah ini. Jika Anda tidak dapat melakukan upgrade, gunakan prosedur yang diuraikan di bagian berikut.
Jika Anda menggunakan versi yang belum memperbaiki masalah ini, Anda mungkin mengalami masalah jika Anda memiliki workload yang menggunakan volume ReadWriteMany
yang didukung oleh driver penyimpanan yang rentan terhadap masalah ini, seperti (tetapi tidak terbatas pada):
- Robin.io
- Portworx (volume layanan
sharedv4
) csi-nfs
Pemasangan NFS pada beberapa arsitektur penyimpanan dapat macet saat terhubung ke endpoint menggunakan Layanan Kubernetes (ClusterIP) dan DataPlane v2. Perilaku ini disebabkan oleh batasan dalam cara kode soket kernel Linux berinteraksi dengan program eBPF Cillium. Container dapat diblokir pada I/O atau bahkan tidak dapat dihentikan, karena pemasangan NFS yang tidak berfungsi tidak dapat dilepas.
Anda mungkin mengalami masalah ini jika menggunakan penyimpanan RWX
yang dihosting di server NFS yang berjalan di node Kubernetes, termasuk solusi penyimpanan yang ditentukan software atau hyperconverged seperti Ondat, Robin.io, atau Portworx.
Meninjau konfigurasi cluster yang ada
Dapatkan beberapa nilai konfigurasi yang ada dari cluster Anda. Anda menggunakan nilai dari langkah-langkah ini untuk membuat manifes kube-proxy
di bagian berikutnya.
Dapatkan
ClusterCIDR
daricm/cilium-config
:kubectl get cm -n kube-system cilium-config -o yaml | grep native-routing-cidr
Contoh output berikut menunjukkan bahwa Anda akan menggunakan
192.168.0.0/16
sebagaiClusterCIDR
:ipv4-native-routing-cidr: 192.168.0.0/16 native-routing-cidr: 192.168.0.0/16
Dapatkan
APIServerAdvertiseAddress
danAPIServerPort
dari DaemonSetanetd
:kubectl get ds -n kube-system anetd -o yaml | grep KUBERNETES -A 1
Contoh output berikut menunjukkan bahwa Anda akan menggunakan
21.1.4.119
sebagaiAPIServerAdvertiseAddress
dan443
sebagaiAPIServerPort
:- name: KUBERNETES_SERVICE_HOST value: 21.1.4.119 - name: KUBERNETES_SERVICE_PORT value: "443"
Dapatkan
RegistryCredentialsSecretName
dari DaemonSetanetd
:kubectl get ds -n kube-system anetd -o yaml | grep imagePullSecrets -A 1
Contoh output berikut menunjukkan bahwa Anda akan menggunakan
private-registry-creds
sebagaiRegistryCredentialsSecretName
:imagePullSecrets: - name: private-registry-creds
Dapatkan
Registry
dari DaemonSetanetd
:kubectl get ds -n kube-system anetd -o yaml | grep image
Contoh output berikut menunjukkan bahwa Anda akan menggunakan
gcr.io/gke-on-prem-release
sebagaiRegistry
:image: gcr.io/gke-on-prem-release/cilium/cilium:v1.12.6-anthos1.15-gke4.2.7
Dapatkan
KubernetesVersion
dari tag image untukkube-apiserver
di namespace cluster dari cluster admin:KUBECONFIG=ADMIN_KUBECONFIG kubectl get sts -n CLUSTER_NAME kube-apiserver -o yaml | grep image
Ganti
ADMIN_KUBECONFIG
dengan file kubeconfig untuk cluster admin danCLUSTER_NAME
dengan nama cluster pengguna Anda.Contoh output berikut menunjukkan bahwa Anda akan menggunakan
v1.26.2-gke.1001
sebagaiKubernetesVersion
:image: gcr.io/gke-on-prem-release/kube-apiserver-amd64:v1.26.2-gke.1001 imagePullPolicy: IfNotPresent
Menyiapkan manifes kube-proxy
Gunakan nilai yang diperoleh di bagian sebelumnya untuk membuat dan menerapkan manifes YAML yang akan men-deploy kube-proxy
ke cluster Anda.
Buat manifes bernama
kube-proxy.yaml
di editor pilihan Anda:nano kube-proxy.yaml
Salin dan tempel definisi YAML berikut:
apiVersion: apps/v1 kind: DaemonSet metadata: labels: k8s-app: kube-proxy name: kube-proxy namespace: kube-system spec: selector: matchLabels: k8s-app: kube-proxy template: metadata: annotations: scheduler.alpha.kubernetes.io/critical-pod: "" labels: k8s-app: kube-proxy spec: containers: - command: - kube-proxy - --v=2 - --profiling=false - --iptables-min-sync-period=10s - --iptables-sync-period=1m - --oom-score-adj=-998 - --ipvs-sync-period=1m - --ipvs-min-sync-period=10s - --cluster-cidr=ClusterCIDR env: - name: KUBERNETES_SERVICE_HOST value:APIServerAdvertiseAddress - name: KUBERNETES_SERVICE_PORT value: "APIServerPort" image: Registry/kube-proxy-amd64:KubernetesVersion imagePullPolicy: IfNotPresent name: kube-proxy resources: requests: cpu: 100m memory: 15Mi securityContext: privileged: true volumeMounts: - mountPath: /run/xtables.lock name: xtables-lock - mountPath: /lib/modules name: lib-modules imagePullSecrets: - name: RegistryCredentialsSecretName nodeSelector: kubernetes.io/os: linux hostNetwork: true priorityClassName: system-node-critical serviceAccount: kube-proxy serviceAccountName: kube-proxy tolerations: - effect: NoExecute operator: Exists - effect: NoSchedule operator: Exists volumes: - hostPath: path: /run/xtables.lock type: FileOrCreate name: xtables-lock - hostPath: path: /lib/modules type: DirectoryOrCreate name: lib-modules --- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: system:kube-proxy roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: system:node-proxier subjects: - kind: ServiceAccount name: kube-proxy namespace: kube-system --- apiVersion: v1 kind: ServiceAccount metadata: name: kube-proxy namespace: kube-system
Dalam manifes YAML ini, tetapkan nilai berikut:
APIServerAdvertiseAddress
: nilaiKUBERNETES_SERVICE_HOST
, seperti21.1.4.119
.APIServerPort
: nilaiKUBERNETES_SERVICE_PORT
, seperti443
.Registry
: awalan image Cilium, sepertigcr.io/gke-on-prem-release
.RegistryCredentialsSecretName
: nama secret penarikan image, sepertiprivate-registry-creds
.
Simpan dan tutup file manifes di editor Anda.
Siapkan patch anetd
Buat dan siapkan update untuk anetd
:
Buat manifes bernama
cilium-config-patch.yaml
di editor pilihan Anda:nano cilium-config-patch.yaml
Salin dan tempel definisi YAML berikut:
data: kube-proxy-replacement: "disabled" kube-proxy-replacement-healthz-bind-address: "" retry-kube-proxy-healthz-binding: "false" enable-host-reachable-services: "false"
Simpan dan tutup file manifes di editor Anda.
Men-deploy kube-proxy
dan mengonfigurasi ulang anetd
Terapkan perubahan konfigurasi ke cluster Anda. Buat cadangan konfigurasi yang ada sebelum Anda menerapkan perubahan.
Cadangkan konfigurasi
anetd
dancilium-config
Anda saat ini:kubectl get ds -n kube-system anetd > anetd-original.yaml kubectl get cm -n kube-system cilium-config > cilium-config-original.yaml
Terapkan
kube-proxy.yaml
menggunakankubectl
:kubectl apply -f kube-proxy.yaml
Pastikan Pod dalam status
Running
:kubectl get pods -n kube-system -o wide | grep kube-proxy
Contoh output ringkas berikut menunjukkan bahwa Pod berjalan dengan benar:
kube-proxy-f8mp9 1/1 Running 1 (4m ago) [...] kube-proxy-kndhv 1/1 Running 1 (5m ago) [...] kube-proxy-sjnwl 1/1 Running 1 (4m ago) [...]
Patch ConfigMap
cilium-config
menggunakankubectl
:kubectl patch cm -n kube-system cilium-config --patch-file cilium-config-patch.yaml
Edit
anetd
menggunakankubectl
:kubectl edit ds -n kube-system anetd
Di editor yang terbuka, edit spesifikasi
anetd
. Masukkan kode berikut sebagai item pertama di bagianinitContainers
:- name: check-kube-proxy-rules image: Image imagePullPolicy: IfNotPresent command: - sh - -ec - | if [ "$KUBE_PROXY_REPLACEMENT" != "strict" ]; then kube_proxy_forward() { iptables -L KUBE-FORWARD; } until kube_proxy_forward; do sleep 2; done fi; env: - name: KUBE_PROXY_REPLACEMENT valueFrom: configMapKeyRef: key: kube-proxy-replacement name: cilium-config optional: true securityContext: privileged: true
Ganti
Image
dengan image yang sama yang digunakan di container Cilium lainnya di DaemonSetanetd
, sepertigcr.io/gke-on-prem-release/cilium/cilium:v1.12.6-anthos1.15-gke4.2.7
.Simpan dan tutup file manifes di editor Anda.
Untuk menerapkan perubahan ini, mulai ulang semua node di cluster Anda. Untuk meminimalkan gangguan, Anda dapat mencoba menguras setiap node sebelum memulai ulang. Namun, Pod yang menggunakan volume RWX dapat terhenti dalam status
Terminating
karena pemasangan NFS yang rusak yang memblokir proses pengosongan.Anda dapat menghapus secara paksa Pod yang diblokir dan mengizinkan Node untuk menguras dengan benar:
kubectl delete pods -–force -–grace-period=0 --namespace POD_NAMESPACE POD_NAME
Ganti
POD_NAME
dengan Pod yang ingin Anda hapus danPOD_NAMESPACE
dengan namespace-nya.
Langkah berikutnya
Jika Anda memerlukan bantuan tambahan, hubungi Cloud Customer Care.
Anda juga dapat melihat bagian Mendapatkan dukungan untuk mengetahui informasi selengkapnya tentang sumber dukungan, termasuk yang berikut:
- Persyaratan untuk membuka kasus dukungan.
- Alat untuk membantu Anda memecahkan masalah, seperti log dan metrik.
- Komponen yang didukung, versi, dan fitur Google Distributed Cloud untuk VMware (khusus software).