Llama 3 è un modello linguistico di grandi dimensioni (LLM) open source di Meta. Questa guida mostra come gestire un LLM Llama 3 utilizzando Tensor Processing Units (TPU) multi-host su Vertex AI con Saxml.
In questa guida, scarichi i pesi e il tokenizer del modello Llama 3 70B e li esegui il deployment su Vertex AI che esegue Saxml su TPU.
Prima di iniziare
Ti consigliamo di utilizzare una VM ottimizzato per la memoria M2 per scaricare il modello e convertirlo in Saxml. Questo perché il processo di conversione del modello richiede una quantità significativa di memoria e potrebbe non riuscire se scegli un tipo di macchina che non ha memoria sufficiente.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI and Artifact Registry APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI and Artifact Registry APIs.
-
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
- Segui la documentazione di Artifact Registry per installare Docker.
- Assicurati di avere quote sufficienti per 16 chip TPU v5e per Vertex AI.
-
Install the Google Cloud CLI.
-
If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.
-
To initialize the gcloud CLI, run the following command:
gcloud init
Vai alla pagina del consenso del modello Llama.
Seleziona Llama 3, compila il modulo di consenso e accetta i termini e le condizioni.
Controlla la tua casella di posta per un'email contenente un URL firmato.
Scarica lo script
download.sh
da GitHub eseguendo questo comando:wget https://raw.githubusercontent.com/meta-llama/llama3/main/download.sh chmod +x download.sh
Per scaricare i pesi del modello, esegui lo script
download.sh
che hai scaricato da GitHub.Quando richiesto, inserisci l'URL firmato dell'email che hai ricevuto nella sezione precedente.
Quando ti viene chiesto quali modelli scaricare, inserisci
70B
.Esegui questo comando per scaricare Saxml:
git clone https://github.com/google/saxml.git
Esegui questi comandi per configurare un ambiente virtuale Python:
python -m venv . source bin/activate
Esegui questi comandi per installare le dipendenze:
pip install --upgrade pip pip install paxml pip install praxis pip install torch
Per convertire i pesi del modello nel formato Saxml, esegui questo comando:
python3 saxml/saxml/tools/convert_llama_ckpt.py \ --base PATH_TO_META_LLAMA3 \ --pax PATH_TO_PAX_LLAMA3 \ --model-size llama3_70b
Sostituisci quanto segue:
PATH_TO_META_LLAMA3
: il percorso della directory contenente i pesi del modello scaricatiPATH_TO_PAX_LLAMA3
: il percorso della directory in cui memorizzare i pesi del modello convertito
I modelli convertiti verranno inseriti nella cartella
$PATH_TO_PAX_LLAMA3/checkpoint_00000000
.Copia il file del tokenizer dalla directory originale in una sottocartella denominata
vocabs
come segue:cp $PATH_TO_META_LLAMA3/tokenizer.model $PATH_TO_PAX_LLAMA3/vocabs/tokenizer.model
Aggiungi un file
commit_success.txt
vuoto nella cartella$PATH_TO_PAX_LLAMA3
e le sottocartellemetadata
estate
in questa cartella nel seguente modo:touch $PATH_TO_PAX_LLAMA3/checkpoint_00000000/commit_success.txt touch $PATH_TO_PAX_LLAMA3/checkpoint_00000000/metadata/commit_success.txt touch $PATH_TO_PAX_LLAMA3/checkpoint_00000000/state/commit_success.txt
La cartella
$PATH_TO_PAX_LLAMA3
ora contiene le seguenti cartelle e file:$PATH_TO_PAX_LLAMA3/checkpoint_00000000/commit_success.txt $PATH_TO_PAX_LLAMA3/checkpoint_00000000/metadata/ $PATH_TO_PAX_LLAMA3/checkpoint_00000000/metadata/commit_success.txt $PATH_TO_PAX_LLAMA3/checkpoint_00000000/state/ $PATH_TO_PAX_LLAMA3/checkpoint_00000000/state/commit_success.txt $PATH_TO_PAX_LLAMA3/vocabs/tokenizer.model
In Cloud Shell, esegui i seguenti comandi, sostituendo PROJECT_ID con l'ID progetto:
projectid=PROJECT_ID gcloud config set project ${projectid}
Per creare il bucket, esegui questo comando:
gcloud storage buckets create gs://WEIGHTS_BUCKET_NAME
Sostituisci WEIGHTS_BUCKET_NAME con il nome che vuoi utilizzare per il bucket.
LOCATION
: la regione in cui utilizzi Vertex AI. Tieni presente che le TPU sono disponibili solo inus-west1
.MODEL_DISPLAY_NAME
: il nome visualizzato che vuoi per il modelloPROJECT_ID
: l'ID del tuo Google Cloud progettoRecupera l'ID endpoint per l'endpoint di inferenza online:
ENDPOINT_ID=$(gcloud ai endpoints list \ --region=LOCATION \ --filter=display_name=ENDPOINT_NAME \ --format="value(name)")
Recupera l'ID modello per il tuo modello:
MODEL_ID=$(gcloud ai models list \ --region=LOCATION \ --filter=display_name=DEPLOYED_MODEL_NAME \ --format="value(name)")
Esegui il deployment del modello sull'endpoint:
gcloud ai endpoints deploy-model $ENDPOINT_ID \ --region=LOCATION \ --model=$MODEL_ID \ --display-name=DEPLOYED_MODEL_NAME \ --machine-type=ct5lp-hightpu-4t \ --tpu-topology=4x4 \ --traffic-split=0=100
Sostituisci DEPLOYED_MODEL_NAME con un nome per il deployment. Può essere uguale al nome visualizzato del modello (MODEL_DISPLAY_NAME).
L'operazione di deployment potrebbe andare in timeout.
Il comando
deploy-model
restituisce un ID operazione che può essere utilizzato per verificare quando l'operazione è terminata. Puoi eseguire il polling dello stato dell'operazione finché la risposta non include"done": true
. Utilizza il seguente comando per controllare lo stato:gcloud ai operations describe \ --region=LOCATION \ OPERATION_ID
Sostituisci OPERATION_ID con l'ID operazione restituito dal comando precedente.
Esegui il comando seguente per creare un file
request.json
contenente una richiesta di inferenza di esempio:cat << EOF > request.json {"instances": [{"text_batch": "the distance between Earth and Moon is "}]} EOF
Per inviare la richiesta di inferenza online all'endpoint, esegui questo comando:
gcloud ai endpoints predict $ENDPOINT_ID \ --project=PROJECT_ID \ --region=LOCATION \ --json-request=request.json
Per annullare il deployment del modello dall'endpoint ed eliminare l'endpoint, esegui questi comandi:
ENDPOINT_ID=$(gcloud ai endpoints list \ --region=LOCATION \ --filter=display_name=ENDPOINT_NAME \ --format="value(name)") DEPLOYED_MODEL_ID=$(gcloud ai endpoints describe $ENDPOINT_ID \ --region=LOCATION \ --format="value(deployedModels.id)") gcloud ai endpoints undeploy-model $ENDPOINT_ID \ --region=LOCATION \ --deployed-model-id=$DEPLOYED_MODEL_ID gcloud ai endpoints delete $ENDPOINT_ID \ --region=LOCATION \ --quiet
Per eliminare il modello, esegui questi comandi:
MODEL_ID=$(gcloud ai models list \ --region=LOCATION \ --filter=display_name=DEPLOYED_MODEL_NAME \ --format="value(name)") gcloud ai models delete $MODEL_ID \ --region=LOCATION \ --quiet
Questo tutorial presuppone che tu stia utilizzando Cloud Shell per interagire con Google Cloud. Se vuoi utilizzare una shell diversa da Cloud Shell, esegui la seguente configurazione aggiuntiva:
Se utilizzi una shell diversa da Cloud Shell per il deployment del modello, assicurati che la versione di Google Cloud CLI sia successiva a 475.0.0
. Puoi aggiornare Google Cloud CLI eseguendo il comando
gcloud components update.
Se esegui il deployment del modello utilizzando l'SDK Vertex AI, assicurati di avere la versione 1.50.0
o successive.
Accedere al modello e scaricare i pesi del modello
I passaggi riportati di seguito si riferiscono a un'istanza di Vertex AI Workbench con una VM ottimizzato per la memoria M2. Per informazioni sulla modifica del tipo di macchina di un'istanza di Vertex AI Workbench, consulta Modificare il tipo di macchina di un'istanza di Vertex AI Workbench.
Convertire i pesi del modello nel formato Saxml
Crea un bucket Cloud Storage
Crea un bucket Cloud Storage per archiviare i pesi del modello convertiti.
Copia i pesi del modello nel bucket Cloud Storage
Per copiare i pesi del modello nel bucket, esegui questo comando:
gcloud storage cp PATH_TO_PAX_LLAMA3/* gs://WEIGHTS_BUCKET_NAME/llama3/pax_70b/ --recursive
Carica il modello
Un container Saxml predefinito è disponibile all'indirizzo
us-docker.pkg.dev/vertex-ai/prediction/sax-tpu:latest
.
Per caricare una risorsa Model
su Vertex AI utilizzando il container Saxml predefinito, esegui il comando gcloud ai models upload
come segue:
gcloud ai models upload \
--region=LOCATION \
--display-name=MODEL_DISPLAY_NAME \
--container-image-uri=us-docker.pkg.dev/vertex-ai/prediction/sax-tpu:latest \
--artifact-uri='gs://WEIGHTS_BUCKET_NAME/llama3/pax_70b' \
--container-args='--model_path=saxml.server.pax.lm.params.lm_cloud.LLaMA3_70BFP16x16' \
--container-args='--platform_chip=tpuv5e' \
--container-args='--platform_topology=4x4' \
--container-args='--ckpt_path_suffix=checkpoint_00000000' \
--container-deployment-timeout-seconds=2700 \
--container-ports=8502 \
--project=PROJECT_ID
Effettua le seguenti sostituzioni:
Crea un endpoint di inferenza online
Per creare l'endpoint, esegui questo comando:
gcloud ai endpoints create \
--region=LOCATION \
--display-name=ENDPOINT_DISPLAY_NAME \
--project=PROJECT_ID
Sostituisci ENDPOINT_DISPLAY_NAME
con il nome visualizzato che vuoi per
il tuo endpoint.
Esegui il deployment del modello sull'endpoint
Quando l'endpoint è pronto, esegui il deployment del modello sull'endpoint.
In questo tutorial, esegui il deployment di un modello Llama 3 70B suddiviso in 16 chip Cloud TPU v5e utilizzando la topologia 4x4. Tuttavia, puoi specificare una delle seguenti topologie Cloud TPU multi-host supportate:
Tipo di macchina | Topologia | Numero di chip TPU | Numero di host |
---|---|---|---|
ct5lp-hightpu-4t |
4x4 | 16 | 2 |
ct5lp-hightpu-4t |
4x8 | 32 | 4 |
ct5lp-hightpu-4t |
8x8 | 64 | 8 |
ct5lp-hightpu-4t |
8x16 | 128 | 16 |
ct5lp-hightpu-4t |
16x16 | 256 | 32 |
Se stai eseguendo il deployment di un modello Llama diverso definito nel repository GitHub di Saxml, assicurati che sia partizionato in modo da corrispondere al numero di dispositivi di destinazione e che Cloud TPU abbia memoria sufficiente per caricare il modello.
Per informazioni sul deployment di un modello su Cloud TPU single-host, consulta Esegui il deployment di un modello.
Per saperne di più sui tipi di Cloud TPU v5e, consulta TPU v5e.
Ottenere inferenze online dal modello di cui è stato eseguito il deployment
Per ottenere inferenze online dall'endpoint Vertex AI,
esegui il comando gcloud ai endpoints predict
.
Esegui la pulizia
Per evitare ulteriori addebiti per Vertex AI, elimina le risorse Google Cloud che hai creato durante questo tutorial: