Addestra Llama2 con Megatron-LM su macchine virtuali A3 Mega
Panoramica
In questa guida rapida, imparerai a eseguire un carico di lavoro Megatron-LM basato su container PyTorch su A3 Mega. Il codice è disponibile in questo repository GitHub: megatron-gke.
Prima di iniziare
Per abilitare l'API Google Kubernetes Engine (GKE), segui questi passaggi:
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the GKE API.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the GKE API.
-
Make sure that you have the following role or roles on the project: roles/container.admin, roles/compute.networkAdmin, roles/iam.serviceAccountUser
Check for the roles
-
In the Google Cloud console, go to the IAM page.
Go to IAM - Select the project.
-
In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.
- For all rows that specify or include you, check the Role column to see whether the list of roles includes the required roles.
Grant the roles
-
In the Google Cloud console, go to the IAM page.
Vai a IAM - Seleziona il progetto.
- Fai clic su Concedi l'accesso.
-
Nel campo Nuove entità, inserisci il tuo identificatore utente. In genere si tratta dell'indirizzo email di un Account Google.
- Nell'elenco Seleziona un ruolo, seleziona un ruolo.
- Per concedere altri ruoli, fai clic su Aggiungi un altro ruolo e aggiungi ogni ruolo aggiuntivo.
- Fai clic su Salva.
Crea un cluster A3 Mega
Crea un cluster GKE A3 Mega con GPUDirect-TCPXO e networking multiplo. Per ulteriori informazioni, consulta Massimizzare la larghezza di banda di rete della GPU con GPUDirect e il multi-networking.
-
Configura l'ambiente
Crea variabili di ambiente per alcuni parametri comuni
export CLUSTER_NAME=CLUSTER_NAME export REGION=REGION export ZONE=ZONE export PROJECT_ID=PROJECT_ID
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del tuo cluster GKE A3 Mega in cui sono abilitati GPUDirect-TCPXO e il networking multiplo.REGION
: la regione in cui hai creato il cluster.ZONE
: la zona in cui hai creato il cluster.PROJECT_ID
: il tuo ID progetto Google Cloud .
Configura Google Cloud CLI in modo da utilizzare le credenziali Google Cloud per l'autenticazione:
gcloud auth login
Per ulteriori informazioni, consulta la pagina Autenticarsi per utilizzare Google Cloud CLI.
Installa
kubectl
e il plug-in gcloud CLI per GKE:sudo apt-get install kubectl sudo apt-get install google-cloud-sdk-gke-gcloud-auth-plugin
Recupera le credenziali per il tuo cluster GKE:
gcloud container clusters get-credentials ${CLUSTER_NAME} \ --zone=${ZONE} \ --project=${PROJECT_ID}
Se non è già installato, installa Helm:
curl -fsSL -o get_helm.sh https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 chmod 700 get_helm.sh ./get_helm.sh && rm get_helm.sh sudo chmod +x /usr/local/bin/helm
Utilizzare lo scheduler con riconoscimento della topologia per eseguire il deployment dei pod
Puoi utilizzare lo scheduler topologia per eseguire il deployment dei pod GKE sui nodi con una topologia GPU specificata.
Nei seguenti comandi kubectl
utilizzerai i file direttamente da un repository. In alternativa, puoi clonare il repository localmente e i comandi kubectl
possono fare riferimento ai file locali.
Per saperne di più, consulta Pianificatore della topologia.
Configura il account di servizio:
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/container-engine-accelerators/master/gpudirect-tcpxo/topology-scheduler/service-account.yaml
Installa gli script dello scheduler della topologia in un configmap:
curl -OL https://raw.githubusercontent.com/GoogleCloudPlatform/container-engine-accelerators/master/gpudirect-tcpxo/topology-scheduler/schedule-daemon.py curl -OL https://raw.githubusercontent.com/GoogleCloudPlatform/container-engine-accelerators/master/gpudirect-tcpxo/topology-scheduler/label-nodes-daemon.py kubectl -n kube-system create configmap topology-scheduler-scripts \ --from-file=schedule-daemon.py=schedule-daemon.py \ --from-file=label-nodes-daemon.py=label-nodes-daemon.py
Installa il daemonset dell'etichetta della topologia e il pod dello scheduler della topologia:
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/container-engine-accelerators/master/gpudirect-tcpxo/topology-scheduler/label-nodes-daemon.yaml $ kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/container-engine-accelerators/master/gpudirect-tcpxo/topology-scheduler/schedule-daemon.yaml
Osserva le azioni dello scheduler della topologia:
kubectl -n kube-system logs topology-scheduler-pod
Esegui il workload
Crea il Dockerfile ed eseguine il push in Google Cloud Artifact Registry
Crea un bucket Cloud Storage e un repository Docker. In
scripts/setup-and-configure-resources.sh script
, sostituisci i nomi del bucket e del repository con quelli che hai creato, quindi esegui lo script:bash scripts/setup-and-configure-resources.sh
Crea ed esegui il push dell'immagine
pytorch-megatron:23.11-py3
nel repository. Assicurati che il nome del repository Docker nel filescripts/build-and-push-docker-image.sh
corrisponda al nome del repository utilizzato nello scriptscripts/setup-and-configure-resources.sh
. Puoi anche modificare il nome del tag dell'immagine Docker prima di eseguire il push.bash scripts/build-and-push-docker-image.sh
Avviare il benchmark Megatron-LM Llama2
Modifica il file
helm/values.yaml
per specificare il bucket Cloud Storage e l'immagine Docker creati nelle sezioni precedenti. Per alcune configurazioni di esempio, vedi sample-configurations.(Facoltativo) Puoi anche modificare il file
selected-configuration.sh
per specificare eventuali modifiche apportate alla configurazione Helm predefinita.helm install HELM_EXPERIMENT_NAME helm/ --values helm/values.yaml
Sostituisci
HELM_EXPERIMENT_NAME
con un nome arbitrario per l'esperimento.
L'esperimento scrive le metriche dello strumento di profilazione Nsight Systems nel bucket Cloud Storage
specificato nella directory megatron-experiments
.
Esegui la pulizia
Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questa pagina, segui questi passaggi.
Elimina il cluster GKE:
Vai alla pagina Cluster:
- Seleziona la casella di controllo per CLUSTER_NAME.
- Fai clic su Elimina.
- Per confermare l'eliminazione, digita CLUSTER_NAME e fai clic su Elimina.
Elimina il bucket Cloud Storage
Vai alla pagina Bucket:
Seleziona la casella di controllo per il bucket Cloud Storage che hai creato per questa guida rapida.
Fai clic su
Elimina.Per confermare l'eliminazione, digita
DELETE
e fai clic su Elimina.