Crea y ejecuta un trabajo que use volúmenes de almacenamiento

En este documento, se explica cómo crear y ejecutar un trabajo por lotes que usa de uno o más volúmenes de almacenamiento externo. Las opciones de almacenamiento externo incluyen discos persistentes nuevos o existentes, SSD locales nuevos, buckets de Cloud Storage existentes y un sistema de archivos de red (NFS) existente, como un archivo compartido de Filestore.

Ya sea que agregues volúmenes de almacenamiento externo, cada La VM de Compute Engine para un trabajo tiene un disco de arranque, que proporciona almacenamiento para la imagen del sistema operativo (SO) del trabajo y las instrucciones. Si quieres obtener información sobre cómo configurar el disco de arranque para un trabajo, consulta Descripción general del entorno del SO de la VM.

Antes de comenzar

  1. Si nunca usaste Batch, consulta Cómo comenzar a usar Batch y habilita Batch completando los requisitos previos para proyectos y usuarios.
  2. A fin de obtener los permisos que necesitas para crear un trabajo, solicita a tu administrador que te otorgue el los siguientes roles de IAM:

    Para obtener más información sobre cómo otorgar roles, consulta Administra el acceso a proyectos, carpetas y organizaciones.

    También puedes obtener los permisos necesarios mediante roles personalizados o cualquier otro rol predefinido.

Crea un trabajo que use volúmenes de almacenamiento

Un trabajo puede usar uno o más de los siguientes tipos los volúmenes de almacenamiento externo. Para obtener más información sobre todos los tipos de volúmenes de almacenamiento y las diferencias y restricciones de cada uno, consulta la documentación de Opciones de almacenamiento de las VMs de Compute Engine.

Puedes permitir que un trabajo use cada volumen de almacenamiento si lo incluyes en la definición de tu trabajo y especificar su ruta de activación (mountPath) en tus ejecutables. Para obtener información sobre cómo crear un trabajo que use volúmenes de almacenamiento, consulta una o más de las siguientes secciones:

Usa un disco persistente

Un trabajo que usa discos persistentes tiene las siguientes restricciones:

  • Todos los discos persistentes: Revisa las restricciones para todos los discos persistentes.

  • Discos persistentes nuevos frente a discos existentes: Cada disco persistente en un trabajo se puede ya sea nuevo (definido y creado con el trabajo) o existente (ya sea creados en tu proyecto y especificados en el trabajo). Para usar un disco persistente, tiene que ser formatear y activar en la las VMs del trabajo, que deben estar en la misma ubicación que el disco persistente. Batch activa los discos persistentes que incluyas en un trabajo formatea cualquier disco persistente nuevo, pero debes formatear y desactivar cualquier discos persistentes existentes que quieres que use un trabajo.

    Las opciones de ubicación compatibles. opciones de formato y opciones de montaje varían entre discos persistentes nuevos y existentes como se describe a continuación: tabla:

    Discos persistentes nuevos Discos persistentes existentes
    Opciones de formato

    El disco persistente se formatea automáticamente con una Sistema de archivos ext4.

    Debes formatear el disco persistente para usar una Sistema de archivos ext4 antes de usarla para un trabajo.

    Opciones de activación

    Se admiten todas las opciones.

    Se admiten todas las opciones, excepto la escritura. Esto se debe a restricciones de modo de multiescritura.

    Debes desvincula el disco persistente desde cualquier VM a la que esté conectado antes de usarlo en un trabajo.

    Opciones de ubicación

    Solo puedes crear discos persistentes zonales.

    Puedes seleccionar cualquier ubicación para tu trabajo. Los discos persistentes se crean en la zona en la que se ejecuta tu proyecto.

    Puedes seleccionar discos persistentes zonales y regionales.


    Debes configurar la ubicación del trabajo (o, si se especifica, solo las ubicaciones permitidas) en solo las ubicaciones que contengan todos los discos persistentes del trabajo. Por ejemplo, para un disco persistente zonal, la dirección del trabajo la ubicación debe ser la zona del disco; para un disco persistente regional, la ubicación del trabajo debe ser la región del disco o, si especificar zonas, una o ambas de las zonas específicas donde la el disco persistente regional.

  • Plantillas de instancias: si deseas usar una plantilla de instancias de VM mientras creas este trabajo, debes conectar cualquier disco persistente para este trabajo en la instancia plantilla. De lo contrario, si no quieres usar una plantilla de instancias, conectar cualquier disco persistente directamente en la definición del trabajo.

Puedes crear un trabajo que use un disco persistente con el comando La consola de Google Cloud, gcloud CLI, API de Batch, C++, Go, Java, Node.js o Python.

Console

En el siguiente ejemplo, se usa la consola de Google Cloud para crear un trabajo que ejecuta una secuencia de comandos para leer un archivo de un disco persistente zonal existente que se encuentra en la zona us-central1-a. La secuencia de comandos de ejemplo supone que el trabajo tiene un disco persistente zonal existente que contiene un archivo de texto llamado example.txt en el directorio raíz.

Opcional: Crea un disco persistente zonal de ejemplo

Si quieres crear un disco persistente zonal que puedas usar para ejecuta la secuencia de comandos de ejemplo, haz lo siguiente antes de crear el trabajo:

  1. Conecta un nuevo disco persistente en blanco llamado example-disk a una VM de Linux en la zona us-central1-a y, luego, ejecuta comandos en la VM para formatear y activar el disco. Para obtener instrucciones, consulta Agrega un disco persistente a tu VM.

    Aún no te desconectes de la VM.

  2. Para crear example.txt en el disco persistente, ejecuta el siguiente comando: en la VM:

    1. Para cambiar el directorio de trabajo actual al directorio raíz de la disco persistente, escribe el siguiente comando:

      cd VM_MOUNT_PATH
      

      Reemplaza VM_MOUNT_PATH por la ruta de acceso a El directorio donde se activó el disco persistente en esta VM del paso anterior, por ejemplo, /mnt/disks/example-disk.

    2. Presiona Enter.

    3. Para crear y definir un archivo llamado example.txt, haz lo siguiente: escribe el siguiente comando:

      cat > example.txt
      
    4. Presiona Enter.

    5. Escribe el contenido del archivo. Por ejemplo, escribe Hello world!.

    6. Para guardar el archivo, presiona Ctrl+D (o Command+D en macOS).

    Cuando hayas terminado, podrás desconectarte de la VM.

  3. Desconectarás el disco persistente de la VM.

    • Si ya no necesitas la VM, puedes borrar la VM, que desconecta automáticamente el disco persistente.

    • De lo contrario, desconecta el disco persistente. Para obtener instrucciones, consulta Desconecta y vuelve a conectar discos de arranque y desconectar el disco persistente example-disk en lugar del disco el disco de arranque de la VM.

Crea un trabajo que use el disco persistente zonal existente

Para crear un trabajo que use discos persistentes zonales existentes con el La consola de Google Cloud, haz lo siguiente:

  1. En la consola de Google Cloud, ve a la página Lista de trabajos.

    Ir a la lista de trabajos

  2. Haz clic en Crear. El Se abrirá la página Crear trabajo por lotes. En el panel izquierdo, se selecciona la página Detalles del trabajo.

  3. Configura la página Detalles del trabajo:

    1. Opcional: En el campo Nombre del trabajo, personaliza el nombre del trabajo.

      Por ejemplo, ingresa example-disk-job.

    2. Configura la sección Detalles de la tarea:

      1. En la ventana Nuevo ejecutable, agrega al menos una secuencia de comandos o para que se ejecute este trabajo.

        Por ejemplo, ejecutar una secuencia de comandos que imprima el contenido de un archivo que se llame example.txt y se encuentre en el directorio raíz del disco persistente que usa este trabajo, haz lo siguiente:

        1. Selecciona la casilla de verificación Secuencia de comandos. Aparecerá un cuadro de texto.

        2. En el cuadro de texto, ingresa la siguiente secuencia de comandos:

          echo "Here is the content of the example.txt file in the persistent disk."
          cat MOUNT_PATH/example.txt
          

          Reemplaza MOUNT_PATH por la ruta de acceso a en la que planeas activar el disco persistente en las VMs para este trabajo, por ejemplo, /mnt/disks/example-disk.

        3. Haz clic en Listo.

      2. En el campo Cantidad de tareas, ingresa la cantidad de tareas de este trabajo.

        Por ejemplo, ingresa 1 (predeterminada).

      3. En el campo Paralelismo, ingresa la cantidad de tareas que se van a se ejecutan al mismo tiempo.

        Por ejemplo, ingresa 1 (valor predeterminado).

  4. Configura la página Especificaciones de recursos:

    1. En el panel izquierdo, haz clic en Especificaciones de recursos. Se abrirá la página Especificaciones de recursos.

    2. Selecciona la ubicación de este trabajo. Para usar un disco persistente zonal existente, las VMs de un trabajo deben estar ubicadas en la misma zona.

      1. En el campo Región, selecciona una región.

        Para usar el disco persistente zonal de ejemplo, Selecciona us-central1 (Iowa) (predeterminada).

      2. En el campo Zona, selecciona una zona.

        Por ejemplo, selecciona us-central1-a (Iowa).

  5. Configura la página Configuraciones adicionales:

    1. En el panel izquierdo, haz clic en Configuración adicional. Se abrirá la página Configuraciones adicionales.

    2. Para cada disco persistente zonal existente en el que quieras activar este trabajo, haz lo siguiente:

      1. En la sección Volumen de almacenamiento, haz clic en Agregar volumen nuevo. Aparecerá la ventana Volumen nuevo.

      2. En la ventana Volumen nuevo, haz lo siguiente:

        1. En la sección Tipo de volumen, selecciona Disco persistente (predeterminado).

        2. En la lista Disco, selecciona un disco persistente zonal existente que quieras activar en esta tarea. El disco debe estar ubicado en la misma que este trabajo.

          Por ejemplo, selecciona el disco persistente zonal existente que preparaste, que se encuentra en la us-central1-a y contiene el archivo example.txt.

        3. Opcional: Si quieres cambiar el nombre de este disco persistente zonal, haz lo siguiente:

          1. Selecciona Personalizar el nombre del dispositivo.

          2. En el campo Nombre del dispositivo, ingresa el nombre nuevo para tu disco.

        4. En el campo Ruta de activación, ingresa la ruta de activación. (MOUNT_PATH) para esto disco persistente:

          Por ejemplo, ingresa lo siguiente:

          /mnt/disks/EXISTING_PERSISTENT_DISK_NAME
          

          Reemplazar EXISTING_PERSISTENT_DISK_NAME con el nombre del disco. Si cambiaste el nombre del disco persistente zonal, usa el nombre nuevo.

          Por ejemplo, reemplazar EXISTING_PERSISTENT_DISK_NAME con example-disk

        5. Haz clic en Listo.

  6. Opcional: Configura el otros campos para este trabajo.

  7. Opcional: Para revisar la configuración del trabajo, en el panel izquierdo, haz clic en Obtener vista previa.

  8. Haz clic en Crear.

En la página Detalles del trabajo, se muestra el trabajo que creaste.

gcloud

En el siguiente ejemplo, se usa la CLI de gcloud para crear una tarea que conecta y activa un disco persistente existente y uno nuevo. El trabajo tiene 3 tareas, cada una de las cuales ejecuta una secuencia de comandos para crear un archivo en el disco persistente llamado output_task_TASK_INDEX.txt en el que TASK_INDEX es el índice de cada tarea: 0, 1 y 2)

Para crear un trabajo que use discos persistentes mediante gcloud CLI, usa el Comando gcloud batch jobs submit En el archivo de configuración JSON del trabajo, especifica los discos persistentes en el campo instances y activa el disco persistente en el campo volumes.

  1. Crea un archivo JSON.

    • Si no usas una plantilla de instancia para esta tarea, crea un archivo JSON con el siguiente contenido:

      {
          "allocationPolicy": {
              "instances": [
                  {
                      "policy": {
                          "disks": [
                              {
                                  "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                                  "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME"
                              },
                              {
                                  "newDisk": {
                                      "sizeGb": NEW_PERSISTENT_DISK_SIZE,
                                      "type": "NEW_PERSISTENT_DISK_TYPE"
                                  },
                                  "deviceName": "NEW_PERSISTENT_DISK_NAME"
                              }
                          ]
                      }
                  }
              ],
              "location": {
                  "allowedLocations": [
                      "EXISTING_PERSISTENT_DISK_LOCATION"
                  ]
              }
          },
          "taskGroups": [
              {
                  "taskSpec": {
                      "runnables": [
                          {
                              "script": {
                                  "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                              }
                          }
                      ],
                      "volumes": [
                          {
                              "deviceName": "NEW_PERSISTENT_DISK_NAME",
                              "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME",
                              "mountOptions": "rw,async"
                          },
                          {
      
                              "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                              "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME"
                          }
                      ]
                  },
                  "taskCount":3
              }
          ],
          "logsPolicy": {
              "destination": "CLOUD_LOGGING"
          }
      }
      

      Reemplaza lo siguiente:

      • PROJECT_ID: el ID del proyecto de tu proyecto.
      • EXISTING_PERSISTENT_DISK_NAME: Es el nombre. de un disco persistente existente.
      • EXISTING_PERSISTENT_DISK_LOCATION: Es la ubicación de un disco persistente existente. Para cada zona existente disco persistente, la ubicación del trabajo debe ser la zona del disco; para cada disco persistente regional existente, la ubicación del trabajo puede ser la región del disco o, si se especifican zonas, una o en ambas zonas específicas donde el disco persistente regional el código fuente. Si no especificas ningún disco persistente existente, puedes seleccionar cualquier ubicación. Obtén más información sobre la Campo allowedLocations.
      • NEW_PERSISTENT_DISK_SIZE: Es el tamaño de la un disco persistente nuevo en GB. El tamaños permitidos dependen del tipo de disco persistente, pero el mínimo suele ser 10 GB (10) y el máximo suele ser 64 TB (64000).
      • NEW_PERSISTENT_DISK_TYPE: Es el tipo de disco del nuevo disco persistente, ya sea pd-standard, pd-balanced, pd-ssd o pd-extreme. El tipo de disco predeterminado para los que no son de arranque discos persistentes es pd-standard.
      • NEW_PERSISTENT_DISK_NAME: Es el nombre. del disco persistente nuevo.
    • Si usas una plantilla de instancia de VM para esta tarea, crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el campo instances por lo siguiente:

      "instances": [
          {
              "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
          }
      ],
      

      donde INSTANCE_TEMPLATE_NAME es el nombre. de la plantilla de instancias para este trabajo. Para un trabajo que use discos persistentes, esta plantilla de instancia debe definir y adjuntar los discos persistentes que deseas que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un nuevo disco persistente llamado NEW_PERSISTENT_DISK_NAME y conectar un disco persistente existente llamado EXISTING_PERSISTENT_DISK_NAME.

  2. Ejecuta el siguiente comando:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Reemplaza lo siguiente:

    • JOB_NAME: Es el nombre del trabajo.

    • LOCATION: Es la ubicación. del trabajo.

    • JSON_CONFIGURATION_FILE: Es la ruta de acceso para un JSON. con los detalles de configuración del trabajo.

API

Con la API de Batch, en el siguiente ejemplo, se crea un trabajo que conecta y activa un disco persistente existente y un disco persistente nuevo un disco persistente SSD. El trabajo tiene 3 tareas, cada una de las cuales ejecuta una secuencia de comandos para crear un archivo en el un disco persistente llamado output_task_TASK_INDEX.txt donde TASK_INDEX es el índice de cada tarea: 0, 1 y 2.

Para crear un trabajo que use discos persistentes mediante Batch, usa el Método jobs.create. En la solicitud, especifica los discos persistentes en la instances y activa el disco persistente en el campo volumes.

  • Si no usas una plantilla de instancias para este trabajo, haz lo siguiente: solicitud:

    POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
    
    {
        "allocationPolicy": {
            "instances": [
                {
                    "policy": {
                        "disks": [
                            {
                                "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                                "existingDisk": "projects/PROJECT_ID/EXISTING_PERSISTENT_DISK_LOCATION/disks/EXISTING_PERSISTENT_DISK_NAME"
                            },
                            {
                                "newDisk": {
                                    "sizeGb": NEW_PERSISTENT_DISK_SIZE,
                                    "type": "NEW_PERSISTENT_DISK_TYPE"
                                },
                                "deviceName": "NEW_PERSISTENT_DISK_NAME"
                            }
                        ]
                    }
                }
            ],
            "location": {
                "allowedLocations": [
                    "EXISTING_PERSISTENT_DISK_LOCATION"
                ]
            }
        },
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "deviceName": "NEW_PERSISTENT_DISK_NAME",
                            "mountPath": "/mnt/disks/NEW_PERSISTENT_DISK_NAME",
                            "mountOptions": "rw,async"
                        },
                        {
    
                            "deviceName": "EXISTING_PERSISTENT_DISK_NAME",
                            "mountPath": "/mnt/disks/EXISTING_PERSISTENT_DISK_NAME"
                        }
                    ]
                },
                "taskCount":3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Reemplaza lo siguiente:

    • PROJECT_ID: el ID del proyecto de tu proyecto.
    • LOCATION: Es la ubicación. del trabajo.
    • JOB_NAME: Es el nombre del trabajo.
    • EXISTING_PERSISTENT_DISK_NAME: Es el nombre. de un disco persistente existente.
    • EXISTING_PERSISTENT_DISK_LOCATION: el de un disco persistente existente. Para cada zona existente disco persistente, la ubicación del trabajo debe ser la zona del disco; para cada disco persistente regional existente, la ubicación del trabajo puede ser la región del disco o, si se especifican zonas, una o en ambas zonas específicas donde el disco persistente regional el código fuente. Si no especificas ningún campo discos persistentes, puedes seleccionar cualquier ubicación. Obtén más información sobre el campo allowedLocations.
    • NEW_PERSISTENT_DISK_SIZE: Es el tamaño de la un disco persistente nuevo en GB. Los tamaños permitidos dependen del tipo de disco persistente, pero el mínimo suele ser de 10 GB (10) y el máximo suele ser de 64 TB (64000).
    • NEW_PERSISTENT_DISK_TYPE: el Tipo de disco del disco persistente nuevo, ya sea pd-standard, pd-balanced, pd-ssd o pd-extreme. El tipo de disco predeterminado para los que no son de arranque discos persistentes es pd-standard.
    • NEW_PERSISTENT_DISK_NAME: Es el nombre. del disco persistente nuevo.
  • Si eres Usar una plantilla de instancias de VM para este trabajo crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el Campo instances con lo siguiente:

    "instances": [
        {
            "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
        }
    ],
    ...
    

    En el que INSTANCE_TEMPLATE_NAME es el nombre de la plantilla de instancias para este trabajo. Para un trabajo que use discos persistentes, esta plantilla de instancia debe definir y adjuntar los discos persistentes que deseas que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un nuevo disco persistente llamado NEW_PERSISTENT_DISK_NAME y y conectar un disco persistente existente llamado EXISTING_PERSISTENT_DISK_NAME

C++

Para crear un trabajo por lotes que use datos nuevos o existentes de Compute Engine con las bibliotecas cliente de Cloud para C++, usa el Función CreateJob e incluye lo siguiente:

  • Para conectar discos persistentes a las VMs de un trabajo, incluir una de las siguientes opciones:
    • Si no estás utilizando una plantilla de instancias de VM para este trabajo, usa el método set_remote_path.
    • Si usas una plantilla de instancias de VM para este trabajo, usa el set_instance_template.
  • Para activar los discos persistentes en el trabajo, usa el campo volumes con los campos deviceName y mountPath. Para los discos persistentes nuevos, también usa el campo mountOptions para habilitar la escritura.

Para ver una muestra de código de un caso de uso similar, consulta Cómo usar un bucket de Cloud Storage.

Go

Para crear un trabajo por lotes que use datos nuevos o existentes de Compute Engine con las bibliotecas cliente de Cloud para Go, usa el Función CreateJob e incluye lo siguiente:

Para ver una muestra de código de un caso de uso similar, consulta Cómo usar un bucket de Cloud Storage.

Java

Para crear un trabajo de Batch que use discos persistentes nuevos o existentes con las bibliotecas cliente de Cloud para Java, usa la clase CreateJobRequest y, luego, incluye lo siguiente:

Por ejemplo, usa la siguiente muestra de código:


import com.google.cloud.batch.v1.AllocationPolicy;
import com.google.cloud.batch.v1.AllocationPolicy.AttachedDisk;
import com.google.cloud.batch.v1.AllocationPolicy.Disk;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicyOrTemplate;
import com.google.cloud.batch.v1.AllocationPolicy.LocationPolicy;
import com.google.cloud.batch.v1.BatchServiceClient;
import com.google.cloud.batch.v1.CreateJobRequest;
import com.google.cloud.batch.v1.Job;
import com.google.cloud.batch.v1.LogsPolicy;
import com.google.cloud.batch.v1.Runnable;
import com.google.cloud.batch.v1.Runnable.Script;
import com.google.cloud.batch.v1.TaskGroup;
import com.google.cloud.batch.v1.TaskSpec;
import com.google.cloud.batch.v1.Volume;
import com.google.common.collect.Lists;
import com.google.protobuf.Duration;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreatePersistentDiskJob {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Google Cloud project you want to use.
    String projectId = "YOUR_PROJECT_ID";
    // Name of the region you want to use to run the job. Regions that are
    // available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
    String region = "europe-central2";
    // The name of the job that will be created.
    // It needs to be unique for each project and region pair.
    String jobName = "JOB_NAME";
    // The size of the new persistent disk in GB.
    // The allowed sizes depend on the type of persistent disk,
    // but the minimum is often 10 GB (10) and the maximum is often 64 TB (64000).
    int diskSize = 10;
    // The name of the new persistent disk.
    String newPersistentDiskName = "DISK-NAME";
    // The name of an existing persistent disk.
    String existingPersistentDiskName = "EXISTING-DISK-NAME";
    // The location of an existing persistent disk. For more info :
    // https://cloud.google.com/batch/docs/create-run-job-storage#gcloud
    String location = "regions/us-central1";
    // The disk type of the new persistent disk, either pd-standard,
    // pd-balanced, pd-ssd, or pd-extreme. For Batch jobs, the default is pd-balanced.
    String newDiskType = "pd-balanced";

    createPersistentDiskJob(projectId, region, jobName, newPersistentDiskName,
            diskSize, existingPersistentDiskName, location, newDiskType);
  }

  // Creates a job that attaches and mounts an existing persistent disk and a new persistent disk
  public static Job createPersistentDiskJob(String projectId, String region, String jobName,
                                            String newPersistentDiskName, int diskSize,
                                            String existingPersistentDiskName,
                                            String location, String newDiskType)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests.
    try (BatchServiceClient batchServiceClient = BatchServiceClient.create()) {
      // Define what will be done as part of the job.
      String text = "echo Hello world from task ${BATCH_TASK_INDEX}. "
              + ">> /mnt/disks/NEW_PERSISTENT_DISK_NAME/output_task_${BATCH_TASK_INDEX}.txt";
      Runnable runnable =
          Runnable.newBuilder()
              .setScript(
                  Script.newBuilder()
                      .setText(text)
                      // You can also run a script from a file. Just remember, that needs to be a
                      // script that's already on the VM that will be running the job.
                      // Using setText() and setPath() is mutually exclusive.
                      // .setPath("/tmp/test.sh")
                      .build())
              .build();

      TaskSpec task = TaskSpec.newBuilder()
              // Jobs can be divided into tasks. In this case, we have only one task.
              .addAllVolumes(volumes(newPersistentDiskName, existingPersistentDiskName))
              .addRunnables(runnable)
              .setMaxRetryCount(2)
              .setMaxRunDuration(Duration.newBuilder().setSeconds(3600).build())
              .build();

      // Tasks are grouped inside a job using TaskGroups.
      // Currently, it's possible to have only one task group.
      TaskGroup taskGroup = TaskGroup.newBuilder()
          .setTaskCount(3)
          .setParallelism(1)
          .setTaskSpec(task)
          .build();

      // Policies are used to define the type of virtual machines the tasks will run on.
      InstancePolicy policy = InstancePolicy.newBuilder()
              .addAllDisks(attachedDisks(newPersistentDiskName, diskSize, newDiskType,
                  projectId, location, existingPersistentDiskName))
              .build();

      AllocationPolicy allocationPolicy =
          AllocationPolicy.newBuilder()
              .addInstances(
                  InstancePolicyOrTemplate.newBuilder()
                      .setPolicy(policy))
                  .setLocation(LocationPolicy.newBuilder().addAllowedLocations(location))
              .build();

      Job job =
          Job.newBuilder()
              .addTaskGroups(taskGroup)
              .setAllocationPolicy(allocationPolicy)
              .putLabels("env", "testing")
              .putLabels("type", "script")
              // We use Cloud Logging as it's an out-of-the-box option.
              .setLogsPolicy(
                  LogsPolicy.newBuilder().setDestination(LogsPolicy.Destination.CLOUD_LOGGING))
              .build();

      CreateJobRequest createJobRequest =
          CreateJobRequest.newBuilder()
              // The job's parent is the region in which the job will run.
              .setParent(String.format("projects/%s/locations/%s", projectId, region))
              .setJob(job)
              .setJobId(jobName)
              .build();

      Job result =
          batchServiceClient
              .createJobCallable()
              .futureCall(createJobRequest)
              .get(5, TimeUnit.MINUTES);

      System.out.printf("Successfully created the job: %s", result.getName());

      return result;
    }
  }

  // Creates link to existing disk and creates configuration for new disk
  private static Iterable<AttachedDisk> attachedDisks(String newPersistentDiskName, int diskSize,
                                                      String newDiskType, String projectId,
                                                      String existingPersistentDiskLocation,
                                                      String existingPersistentDiskName) {
    AttachedDisk newDisk = AttachedDisk.newBuilder()
            .setDeviceName(newPersistentDiskName)
            .setNewDisk(Disk.newBuilder().setSizeGb(diskSize).setType(newDiskType))
            .build();

    String diskPath = String.format("projects/%s/%s/disks/%s", projectId,
            existingPersistentDiskLocation, existingPersistentDiskName);

    AttachedDisk existingDisk = AttachedDisk.newBuilder()
            .setDeviceName(existingPersistentDiskName)
            .setExistingDisk(diskPath)
            .build();

    return Lists.newArrayList(existingDisk, newDisk);
  }

  // Describes a volume and parameters for it to be mounted to a VM.
  private static Iterable<Volume> volumes(String newPersistentDiskName,
                                          String existingPersistentDiskName) {
    Volume newVolume = Volume.newBuilder()
            .setDeviceName(newPersistentDiskName)
            .setMountPath("/mnt/disks/" + newPersistentDiskName)
            .addMountOptions("rw")
            .addMountOptions("async")
            .build();

    Volume existingVolume = Volume.newBuilder()
            .setDeviceName(existingPersistentDiskName)
            .setMountPath("/mnt/disks/" + existingPersistentDiskName)
            .build();

    return Lists.newArrayList(newVolume, existingVolume);
  }
}

Node.js

Para crear un trabajo por lotes que use datos nuevos o existentes de Compute Engine con las bibliotecas cliente de Cloud para Node.js, Método createJob e incluye lo siguiente:

Para ver una muestra de código de un caso de uso similar, consulta Usa un bucket de Cloud Storage.

Python

Para crear un trabajo por lotes que use datos nuevos o existentes de Compute Engine con las bibliotecas cliente de Cloud para Python, usa el Función CreateJob e incluye lo siguiente:

  • Para conectar discos persistentes a las VMs de un trabajo, incluir una de las siguientes opciones:
    • Si no estás utilizando una plantilla de instancias de VM para este trabajo, Incluye la clase AttachedDisk.
    • Si usas una plantilla de instancias de VM Incluye el atributo instance_template.
  • Para activar los discos persistentes en el trabajo, usa el Clase Volume con el atributo device_name y el atributo mount_path. En el caso de los discos persistentes nuevos, también usa el atributo mount_options para habilitar la escritura.

Por ejemplo, usa el siguiente código de muestra:

from google.cloud import batch_v1


def create_with_pd_job(
    project_id: str,
    region: str,
    job_name: str,
    disk_name: str,
    zone: str,
    existing_disk_name=None,
) -> batch_v1.Job:
    """
    This method shows how to create a sample Batch Job that will run
    a simple command on Cloud Compute instances with mounted persistent disk.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        region: name of the region you want to use to run the job. Regions that are
            available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
        job_name: the name of the job that will be created.
            It needs to be unique for each project and region pair.
        disk_name: name of the disk to be mounted for your Job.
        existing_disk_name(optional): existing disk name, which you want to attach to a job

    Returns:
        A job object representing the job created.
    """
    client = batch_v1.BatchServiceClient()

    # Define what will be done as part of the job.
    task = batch_v1.TaskSpec()
    runnable = batch_v1.Runnable()
    runnable.script = batch_v1.Runnable.Script()
    runnable.script.text = (
        "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/"
        + disk_name
        + "/output_task_${BATCH_TASK_INDEX}.txt"
    )
    task.runnables = [runnable]
    task.max_retry_count = 2
    task.max_run_duration = "3600s"

    volume = batch_v1.Volume()
    volume.device_name = disk_name
    volume.mount_path = f"/mnt/disks/{disk_name}"
    task.volumes = [volume]

    if existing_disk_name:
        volume2 = batch_v1.Volume()
        volume2.device_name = existing_disk_name
        volume2.mount_path = f"/mnt/disks/{existing_disk_name}"
        task.volumes.append(volume2)

    # Tasks are grouped inside a job using TaskGroups.
    # Currently, it's possible to have only one task group.
    group = batch_v1.TaskGroup()
    group.task_count = 4
    group.task_spec = task

    disk = batch_v1.AllocationPolicy.Disk()
    # The disk type of the new persistent disk, either pd-standard,
    # pd-balanced, pd-ssd, or pd-extreme. For Batch jobs, the default is pd-balanced
    disk.type_ = "pd-balanced"
    disk.size_gb = 10

    # Policies are used to define on what kind of virtual machines the tasks will run on.
    # Read more about local disks here: https://cloud.google.com/compute/docs/disks/persistent-disks
    policy = batch_v1.AllocationPolicy.InstancePolicy()
    policy.machine_type = "n1-standard-1"

    attached_disk = batch_v1.AllocationPolicy.AttachedDisk()
    attached_disk.new_disk = disk
    attached_disk.device_name = disk_name
    policy.disks = [attached_disk]

    if existing_disk_name:
        attached_disk2 = batch_v1.AllocationPolicy.AttachedDisk()
        attached_disk2.existing_disk = (
            f"projects/{project_id}/zones/{zone}/disks/{existing_disk_name}"
        )
        attached_disk2.device_name = existing_disk_name
        policy.disks.append(attached_disk2)

    instances = batch_v1.AllocationPolicy.InstancePolicyOrTemplate()
    instances.policy = policy

    allocation_policy = batch_v1.AllocationPolicy()
    allocation_policy.instances = [instances]

    location = batch_v1.AllocationPolicy.LocationPolicy()
    location.allowed_locations = [f"zones/{zone}"]
    allocation_policy.location = location

    job = batch_v1.Job()
    job.task_groups = [group]
    job.allocation_policy = allocation_policy
    job.labels = {"env": "testing", "type": "script"}

    create_request = batch_v1.CreateJobRequest()
    create_request.job = job
    create_request.job_id = job_name
    # The job's parent is the region in which the job will run
    create_request.parent = f"projects/{project_id}/locations/{region}"

    return client.create_job(create_request)

Usa una SSD local

Un trabajo que usa SSD locales tiene las siguientes restricciones:

Puedes crear un trabajo que use una SSD local con el gcloud CLI, API de Batch, Java o Python. En el siguiente ejemplo, se describe cómo crear un trabajo que cree, conecte y se activa un SSD local. La tarea también tiene 3 tareas que ejecutan una secuencia de comandos para crear un archivo en el SSD local llamado output_task_TASK_INDEX.txt, en el que TASK_INDEX es el índice de cada tarea: 0, 1 y 2.

gcloud

Para crear un trabajo que use SSD locales con la gcloud CLI, usa el Comando gcloud batch jobs submit En el archivo de configuración JSON del trabajo, crea y adjunta las SSD locales en el campo instances y actívalas en el campo volumes.

  1. Crea un archivo JSON.

    • Si no usas una plantilla de instancia para esta tarea, crea un archivo JSON con el siguiente contenido:

      {
          "allocationPolicy": {
              "instances": [
                  {
                      "policy": {
                          "machineType": MACHINE_TYPE,
                          "disks": [
                              {
                                  "newDisk": {
                                      "sizeGb": LOCAL_SSD_SIZE,
                                      "type": "local-ssd"
                                  },
                                  "deviceName": "LOCAL_SSD_NAME"
                              }
                          ]
                      }
                  }
              ]
          },
          "taskGroups": [
              {
                  "taskSpec": {
                      "runnables": [
                          {
                              "script": {
                                  "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                              }
                          }
                      ],
                      "volumes": [
                          {
                              "deviceName": "LOCAL_SSD_NAME",
                              "mountPath": "/mnt/disks/LOCAL_SSD_NAME",
                              "mountOptions": "rw,async"
                          }
                      ]
                  },
                  "taskCount":3
              }
          ],
          "logsPolicy": {
              "destination": "CLOUD_LOGGING"
          }
      }
      

      Reemplaza lo siguiente:

      • MACHINE_TYPE: el de tipo de máquina, que puede ser predefinido o personalizado, de las VMs del trabajo. El cantidad permitida de SSD locales depende del tipo de máquina de las VMs de tu trabajo.
      • LOCAL_SSD_NAME: Es el nombre de una SSD local creada para esta tarea.
      • LOCAL_SSD_SIZE: el tamaño de todos los SSD locales en GB. Cada SSD local es de 375 GB, por lo que este valor debe ser un múltiplo de 375 GB. Para Por ejemplo, para 2 SSD locales, establece este valor en 750 GB.
    • Si usas una plantilla de instancia de VM para esta tarea, crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el campo instances por lo siguiente:

      "instances": [
          {
              "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
          }
      ],
      

      donde INSTANCE_TEMPLATE_NAME es el nombre. de la plantilla de instancias para este trabajo. Para un trabajo que utiliza SSD locales, esta plantilla de instancias debe definir y adjuntar el o SSD locales que quieres que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un SSD local llamado LOCAL_SSD_NAME

  2. Ejecuta el siguiente comando:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Reemplaza lo siguiente:

    • JOB_NAME: Es el nombre del trabajo.
    • LOCATION: Es la ubicación. del trabajo.
    • JSON_CONFIGURATION_FILE: Es la ruta de acceso para un JSON. con los detalles de configuración del trabajo.

API

Para crear un trabajo que use SSD locales con la Batch, usa el Método jobs.create. En la solicitud, crea y adjunta los SSD locales en la instances y activa los SSD locales en el campo volumes.

  • Si no usas una plantilla de instancias para este trabajo, realiza la siguiente solicitud:

    POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
    
    {
        "allocationPolicy": {
            "instances": [
                {
                    "policy": {
                        "machineType": MACHINE_TYPE,
                        "disks": [
                            {
                                "newDisk": {
                                    "sizeGb": LOCAL_SSD_SIZE,
                                    "type": "local-ssd"
                                },
                                "deviceName": "LOCAL_SSD_NAME"
                            }
                        ]
                    }
                }
            ]
        },
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/disks/LOCAL_SSD_NAME/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "deviceName": "LOCAL_SSD_NAME",
                            "mountPath": "/mnt/disks/LOCAL_SSD_NAME",
                            "mountOptions": "rw,async"
                        }
                    ]
                },
                "taskCount":3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Reemplaza lo siguiente:

    • PROJECT_ID: el ID del proyecto de tu proyecto.
    • LOCATION: Es la ubicación. del trabajo.
    • JOB_NAME: Es el nombre del trabajo.
    • MACHINE_TYPE: el de tipo de máquina, que puede ser predefinido o personalizado, de las VMs del trabajo. La cantidad permitida de SSD locales depende del tipo de máquina de las VMs de tu trabajo.
    • LOCAL_SSD_NAME: Es el nombre de una SSD local creada para esta tarea.
    • LOCAL_SSD_SIZE: el tamaño de todos los SSD locales en GB. Cada SSD local es de 375 GB, por lo que este valor debe ser un múltiplo de 375 GB. Para Por ejemplo, para 2 SSD locales, establece este valor en 750 GB.
  • Si eres Usar una plantilla de instancias de VM para este trabajo crea un archivo JSON como se mostró anteriormente, excepto que debes reemplazar el Campo instances con lo siguiente:

    "instances": [
        {
            "instanceTemplate": "INSTANCE_TEMPLATE_NAME"
        }
    ],
    ...
    

    Donde INSTANCE_TEMPLATE_NAME es el nombre de la plantilla de instancias para este trabajo. Para un trabajo que utiliza SSD locales, esta plantilla de instancias debe definir y adjuntar el o SSD locales que quieres que use el trabajo. En este ejemplo, la plantilla debe definir y conectar un SSD local llamado LOCAL_SSD_NAME.

Java


import com.google.cloud.batch.v1.AllocationPolicy;
import com.google.cloud.batch.v1.AllocationPolicy.AttachedDisk;
import com.google.cloud.batch.v1.AllocationPolicy.Disk;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicyOrTemplate;
import com.google.cloud.batch.v1.BatchServiceClient;
import com.google.cloud.batch.v1.CreateJobRequest;
import com.google.cloud.batch.v1.Job;
import com.google.cloud.batch.v1.LogsPolicy;
import com.google.cloud.batch.v1.Runnable;
import com.google.cloud.batch.v1.Runnable.Script;
import com.google.cloud.batch.v1.TaskGroup;
import com.google.cloud.batch.v1.TaskSpec;
import com.google.cloud.batch.v1.Volume;
import com.google.protobuf.Duration;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateLocalSsdJob {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Google Cloud project you want to use.
    String projectId = "YOUR_PROJECT_ID";
    // Name of the region you want to use to run the job. Regions that are
    // available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
    String region = "europe-central2";
    // The name of the job that will be created.
    // It needs to be unique for each project and region pair.
    String jobName = "JOB_NAME";
    // The name of a local SSD created for this job.
    String localSsdName = "SSD-NAME";
    // The machine type, which can be predefined or custom, of the job's VMs.
    // The allowed number of local SSDs depends on the machine type
    // for your job's VMs are listed on: https://cloud.google.com/compute/docs/disks#localssds
    String machineType = "c3d-standard-8-lssd";
    // The size of all the local SSDs in GB. Each local SSD is 375 GB,
    // so this value must be a multiple of 375 GB.
    // For example, for 2 local SSDs, set this value to 750 GB.
    int ssdSize = 375;

    createLocalSsdJob(projectId, region, jobName, localSsdName, ssdSize, machineType);
  }

  // Create a job that uses local SSDs
  public static Job createLocalSsdJob(String projectId, String region, String jobName,
                                      String localSsdName, int ssdSize, String machineType)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests.
    try (BatchServiceClient batchServiceClient = BatchServiceClient.create()) {
      // Define what will be done as part of the job.
      Runnable runnable =
          Runnable.newBuilder()
              .setScript(
                  Script.newBuilder()
                      .setText(
                          "echo Hello world! This is task ${BATCH_TASK_INDEX}. "
                                  + "This job has a total of ${BATCH_TASK_COUNT} tasks.")
                      // You can also run a script from a file. Just remember, that needs to be a
                      // script that's already on the VM that will be running the job.
                      // Using setText() and setPath() is mutually exclusive.
                      // .setPath("/tmp/test.sh")
                      .build())
              .build();

      Volume volume = Volume.newBuilder()
          .setDeviceName(localSsdName)
          .setMountPath("/mnt/disks/" + localSsdName)
          .addMountOptions("rw")
          .addMountOptions("async")
          .build();

      TaskSpec task = TaskSpec.newBuilder()
          // Jobs can be divided into tasks. In this case, we have only one task.
          .addVolumes(volume)
          .addRunnables(runnable)
          .setMaxRetryCount(2)
          .setMaxRunDuration(Duration.newBuilder().setSeconds(3600).build())
          .build();

      // Tasks are grouped inside a job using TaskGroups.
      // Currently, it's possible to have only one task group.
      TaskGroup taskGroup = TaskGroup.newBuilder()
          .setTaskCount(3)
          .setParallelism(1)
          .setTaskSpec(task)
          .build();

      // Policies are used to define on what kind of virtual machines the tasks will run on.
      InstancePolicy policy = InstancePolicy.newBuilder()
          .setMachineType(machineType)
          .addDisks(AttachedDisk.newBuilder()
              .setDeviceName(localSsdName)
              // For example, local SSD uses type "local-ssd".
              // Persistent disks and boot disks use "pd-balanced", "pd-extreme", "pd-ssd"
              // or "pd-standard".
              .setNewDisk(Disk.newBuilder().setSizeGb(ssdSize).setType("local-ssd")))
          .build();

      AllocationPolicy allocationPolicy =
          AllocationPolicy.newBuilder()
              .addInstances(
                  InstancePolicyOrTemplate.newBuilder()
                      .setPolicy(policy)
                      .build())
              .build();

      Job job =
          Job.newBuilder()
              .addTaskGroups(taskGroup)
              .setAllocationPolicy(allocationPolicy)
              .putLabels("env", "testing")
              .putLabels("type", "script")
              // We use Cloud Logging as it's an out of the box available option.
              .setLogsPolicy(
                  LogsPolicy.newBuilder().setDestination(LogsPolicy.Destination.CLOUD_LOGGING))
              .build();

      CreateJobRequest createJobRequest =
          CreateJobRequest.newBuilder()
              // The job's parent is the region in which the job will run.
              .setParent(String.format("projects/%s/locations/%s", projectId, region))
              .setJob(job)
              .setJobId(jobName)
              .build();

      Job result =
          batchServiceClient
              .createJobCallable()
              .futureCall(createJobRequest)
              .get(5, TimeUnit.MINUTES);

      System.out.printf("Successfully created the job: %s", result.getName());

      return result;
    }
  }
}

Python

from google.cloud import batch_v1


def create_local_ssd_job(
    project_id: str, region: str, job_name: str, ssd_name: str
) -> batch_v1.Job:
    """
    This method shows how to create a sample Batch Job that will run
    a simple command on Cloud Compute instances with mounted local SSD.
    Note: local SSD does not guarantee Local SSD data persistence.
    More details here: https://cloud.google.com/compute/docs/disks/local-ssd#data_persistence

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        region: name of the region you want to use to run the job. Regions that are
            available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
        job_name: the name of the job that will be created.
            It needs to be unique for each project and region pair.
        ssd_name: name of the local ssd to be mounted for your Job.

    Returns:
        A job object representing the job created.
    """
    client = batch_v1.BatchServiceClient()

    # Define what will be done as part of the job.
    task = batch_v1.TaskSpec()
    runnable = batch_v1.Runnable()
    runnable.script = batch_v1.Runnable.Script()
    runnable.script.text = "echo Hello world! This is task ${BATCH_TASK_INDEX}. This job has a total of ${BATCH_TASK_COUNT} tasks."
    task.runnables = [runnable]
    task.max_retry_count = 2
    task.max_run_duration = "3600s"

    volume = batch_v1.Volume()
    volume.device_name = ssd_name
    volume.mount_path = f"/mnt/disks/{ssd_name}"
    task.volumes = [volume]

    # Tasks are grouped inside a job using TaskGroups.
    # Currently, it's possible to have only one task group.
    group = batch_v1.TaskGroup()
    group.task_count = 4
    group.task_spec = task

    disk = batch_v1.AllocationPolicy.Disk()
    disk.type_ = "local-ssd"
    # The size of all the local SSDs in GB. Each local SSD is 375 GB,
    # so this value must be a multiple of 375 GB.
    # For example, for 2 local SSDs, set this value to 750 GB.
    disk.size_gb = 375
    assert disk.size_gb % 375 == 0

    # Policies are used to define on what kind of virtual machines the tasks will run on.
    # The allowed number of local SSDs depends on the machine type for your job's VMs.
    # In this case, we tell the system to use "n1-standard-1" machine type, which require to attach local ssd manually.
    # Read more about local disks here: https://cloud.google.com/compute/docs/disks/local-ssd#lssd_disk_options
    policy = batch_v1.AllocationPolicy.InstancePolicy()
    policy.machine_type = "n1-standard-1"

    attached_disk = batch_v1.AllocationPolicy.AttachedDisk()
    attached_disk.new_disk = disk
    attached_disk.device_name = ssd_name
    policy.disks = [attached_disk]

    instances = batch_v1.AllocationPolicy.InstancePolicyOrTemplate()
    instances.policy = policy

    allocation_policy = batch_v1.AllocationPolicy()
    allocation_policy.instances = [instances]

    job = batch_v1.Job()
    job.task_groups = [group]
    job.allocation_policy = allocation_policy
    job.labels = {"env": "testing", "type": "script"}
    # We use Cloud Logging as it's an out of the box available option
    job.logs_policy = batch_v1.LogsPolicy()
    job.logs_policy.destination = batch_v1.LogsPolicy.Destination.CLOUD_LOGGING

    create_request = batch_v1.CreateJobRequest()
    create_request.job = job
    create_request.job_id = job_name
    # The job's parent is the region in which the job will run
    create_request.parent = f"projects/{project_id}/locations/{region}"

    return client.create_job(create_request)

Usa un bucket de Cloud Storage

Para crear un trabajo que use un bucket de Cloud Storage existente, sigue estos pasos: selecciona uno de los siguientes métodos:

  • Recomendado: Activa un bucket directamente en las VMs de tu trabajo especificando el bucket en la definición del trabajo, como se muestra en esta sección. Cuando se ejecuta el trabajo, el bucket se activa automáticamente en las VMs de tu trabajo con Cloud Storage FUSE.
  • Crear un trabajo con tareas que accedan directamente a de bucket de Cloud Storage con gcloud CLI o las bibliotecas cliente para la API de Cloud Storage. Para aprender a acceder a una Bucket de Cloud Storage directamente desde una VM, consulta la documentación de Compute Engine Escribe y lee datos de buckets de Cloud Storage.

Antes de crear un trabajo que use un bucket, crea un bucket o identifica un bucket existente. Para obtener más información, consulta Crea buckets y Crea una lista de buckets.

Puedes crear un trabajo que utilice un bucket de Cloud Storage con el La consola de Google Cloud, gcloud CLI, API de Batch, C++, Go, Java, Node.js o Python.

En el siguiente ejemplo, se describe cómo crear un trabajo que active un bucket de Cloud Storage. El trabajo también tiene 3 tareas, cada una de las cuales se ejecuta una secuencia de comandos para crear un archivo en el bucket llamado output_task_TASK_INDEX.txt donde TASK_INDEX es el índice de cada tarea: 0, 1 y 2.

Console

Para crear un trabajo que use un bucket de Cloud Storage con el La consola de Google Cloud, haz lo siguiente:

  1. En la consola de Google Cloud, ve a la página Lista de trabajos.

    Ir a Lista de trabajos

  2. Haz clic en Crear. El Se abrirá la página Crear trabajo por lotes. En el panel izquierdo, La página Detalles del trabajo está seleccionada.

  3. Configura la página Detalles del trabajo:

    1. Opcional: En el campo Nombre del trabajo, personaliza el nombre del trabajo.

      Por ejemplo, ingresa example-bucket-job.

    2. Configura la sección Detalles de la tarea:

      1. En la ventana Nuevo ejecutable, agrega al menos una secuencia de comandos o para que se ejecute este trabajo.

        Por ejemplo, haz lo siguiente:

        1. Selecciona la casilla de verificación Script (Secuencia de comandos). Aparecerá un cuadro de texto.

        2. En el cuadro de texto, ingresa la siguiente secuencia de comandos:

          echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
          

          Reemplaza MOUNT_PATH por el la ruta de activación que usan los ejecutables de este trabajo para acceder a bucket de Cloud Storage existente. La ruta de acceso debe comenzar con /mnt/disks/ seguido de un directorio o ruta de acceso que que elijas. Por ejemplo, si quieres representar esta con un directorio llamado my-bucket, establece la la ruta de activación a /mnt/disks/my-bucket.

        3. Haz clic en Listo.

      2. En el campo Cantidad de tareas, ingresa la cantidad de tareas de este trabajo.

        Por ejemplo, ingresa 3.

      3. En el campo Paralelismo, ingresa la cantidad de tareas que se van a se ejecutan al mismo tiempo.

        Por ejemplo, ingresa 1 (predeterminada).

  4. Configura la página Configuraciones adicionales:

    1. En el panel izquierdo, haz clic en Configuración adicional. Se abrirá la página Configuraciones adicionales.

    2. Para cada bucket de Cloud Storage que quieras activar este trabajo, haz lo siguiente:

      1. En la sección Volumen de almacenamiento, haz clic en Agregar volumen nuevo. Aparecerá la ventana Volumen nuevo.

      2. En la ventana Volumen nuevo, haz lo siguiente:

        1. En la sección Tipo de volumen, selecciona Bucket de Cloud Storage.

        2. En el campo Nombre del bucket de almacenamiento, ingresa el nombre de un bucket existente.

          Por ejemplo, ingresa el bucket que especificaste en el ejecutable de esta tarea.

        3. En el campo Ruta de activación, ingresa la ruta de activación de bucket (MOUNT_PATH), que se especificadas en el ejecutable.

        4. Haz clic en Listo.

  5. Opcional: Configura el otros campos para este trabajo.

  6. Opcional: Para revisar la configuración del trabajo, en el panel izquierdo, haz clic en Obtener vista previa.

  7. Haz clic en Crear.

En la página Detalles del trabajo, se muestra el trabajo que creaste.

gcloud

Para crear un trabajo que use un bucket de Cloud Storage con el gcloud CLI, usa el Comando gcloud batch jobs submit En el archivo de configuración JSON del trabajo, activa el bucket en la volumes.

Por ejemplo, para crear un trabajo que genere archivos en Cloud Storage, sigue estos pasos:

  1. Crea un archivo JSON con el siguiente contenido:

    {
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "gcs": {
                                "remotePath": "BUCKET_PATH"
                            },
                            "mountPath": "MOUNT_PATH"
                        }
                    ]
                },
                "taskCount": 3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Reemplaza lo siguiente:

    • BUCKET_PATH: Es la ruta de acceso del directorio del bucket. a las que quieres que acceda este trabajo, que debe comenzar con el nombre del en el bucket. Por ejemplo, para un bucket llamado BUCKET_NAME, la ruta de acceso BUCKET_NAME representa el directorio raíz del bucket y la ruta de acceso BUCKET_NAME/subdirectory representa el subdirectorio subdirectory.
    • MOUNT_PATH: Es la ruta de activación de la que el trabajo que los ejecutables usan para acceder a este bucket. La ruta debe comenzar con /mnt/disks/ seguido de un directorio o ruta de acceso que elijas. Para por ejemplo, si quieres representar este bucket con un directorio llamado my-bucket, establece la ruta de activación en /mnt/disks/my-bucket.
  2. Ejecuta el siguiente comando:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Reemplaza lo siguiente:

    • JOB_NAME: Es el nombre del trabajo.
    • LOCATION: Es la ubicación. del trabajo.
    • JSON_CONFIGURATION_FILE: Es la ruta de acceso para un JSON. con los detalles de configuración del trabajo.

API

Para crear un trabajo que use un bucket de Cloud Storage con la API de Batch, usa el método jobs.create y activa el bucket en el campo volumes.

POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME

{
    "taskGroups": [
        {
            "taskSpec": {
                "runnables": [
                    {
                        "script": {
                            "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                        }
                    }
                ],
                "volumes": [
                    {
                        "gcs": {
                            "remotePath": "BUCKET_PATH"
                        },
                        "mountPath": "MOUNT_PATH"
                    }
                ]
            },
            "taskCount": 3
        }
    ],
    "logsPolicy": {
            "destination": "CLOUD_LOGGING"
    }
}

Reemplaza lo siguiente:

  • PROJECT_ID: Es el ID del proyecto.
  • LOCATION: Es la ubicación. del trabajo.
  • JOB_NAME: Es el nombre del trabajo.
  • BUCKET_PATH: Es la ruta de acceso del directorio del bucket. a las que quieres que acceda este trabajo, que debe comenzar con el nombre del bucket. Por ejemplo, para un bucket llamado BUCKET_NAME, la ruta BUCKET_NAME representa la raíz. del bucket y la ruta de acceso BUCKET_NAME/subdirectory representa el subdirectorio subdirectory.
  • MOUNT_PATH: Es la ruta de acceso de activación que usan los elementos ejecutables del trabajo para acceder a este bucket. La ruta debe comenzar con /mnt/disks/ seguido de un directorio o ruta de acceso que elijas. Por ejemplo, si quieres representar este bucket con un con el nombre my-bucket, establece la ruta de activación en /mnt/disks/my-bucket

C++

C++

Para obtener más información, consulta la API de C++ por lotes documentación de referencia.

Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

#include "google/cloud/batch/v1/batch_client.h"

  [](std::string const& project_id, std::string const& location_id,
     std::string const& job_id, std::string const& bucket_name) {
    // Initialize the request; start with the fields that depend on the sample
    // input.
    google::cloud::batch::v1::CreateJobRequest request;
    request.set_parent("projects/" + project_id + "/locations/" + location_id);
    request.set_job_id(job_id);
    // Most of the job description is fixed in this example; use a string to
    // initialize it, and then override the GCS remote path.
    auto constexpr kText = R"pb(
      task_groups {
        task_count: 4
        task_spec {
          compute_resource { cpu_milli: 500 memory_mib: 16 }
          max_retry_count: 2
          max_run_duration { seconds: 3600 }
          runnables {
            script {
              text: "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt"
            }
          }
          volumes { mount_path: "/mnt/share" }
        }
      }
      allocation_policy {
        instances {
          policy { machine_type: "e2-standard-4" provisioning_model: STANDARD }
        }
      }
      labels { key: "env" value: "testing" }
      labels { key: "type" value: "script" }
      logs_policy { destination: CLOUD_LOGGING }
    )pb";
    auto* job = request.mutable_job();
    if (!google::protobuf::TextFormat::ParseFromString(kText, job)) {
      throw std::runtime_error("Error parsing Job description");
    }
    job->mutable_task_groups(0)
        ->mutable_task_spec()
        ->mutable_volumes(0)
        ->mutable_gcs()
        ->set_remote_path(bucket_name);
    // Create a client and issue the request.
    auto client = google::cloud::batch_v1::BatchServiceClient(
        google::cloud::batch_v1::MakeBatchServiceConnection());
    auto response = client.CreateJob(request);
    if (!response) throw std::move(response).status();
    std::cout << "Job : " << response->DebugString() << "\n";
  }

Go

Go

Para obtener más información, consulta la API de Go por lotes documentación de referencia.

Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

import (
	"context"
	"fmt"
	"io"

	batch "cloud.google.com/go/batch/apiv1"
	"cloud.google.com/go/batch/apiv1/batchpb"
	durationpb "google.golang.org/protobuf/types/known/durationpb"
)

// Creates and runs a job that executes the specified script
func createScriptJobWithBucket(w io.Writer, projectID, region, jobName, bucketName string) error {
	// projectID := "your_project_id"
	// region := "us-central1"
	// jobName := "some-job"
	// jobName := "some-bucket"

	ctx := context.Background()
	batchClient, err := batch.NewClient(ctx)
	if err != nil {
		return fmt.Errorf("NewClient: %w", err)
	}
	defer batchClient.Close()

	// Define what will be done as part of the job.
	command := &batchpb.Runnable_Script_Text{
		Text: "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt",
	}

	// Specify the Google Cloud Storage bucket to mount
	volume := &batchpb.Volume{
		Source: &batchpb.Volume_Gcs{
			Gcs: &batchpb.GCS{
				RemotePath: bucketName,
			},
		},
		MountPath:    "/mnt/share",
		MountOptions: []string{},
	}

	// We can specify what resources are requested by each task.
	resources := &batchpb.ComputeResource{
		// CpuMilli is milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
		CpuMilli:  500,
		MemoryMib: 16,
	}

	taskSpec := &batchpb.TaskSpec{
		Runnables: []*batchpb.Runnable{{
			Executable: &batchpb.Runnable_Script_{
				Script: &batchpb.Runnable_Script{Command: command},
			},
		}},
		ComputeResource: resources,
		MaxRunDuration: &durationpb.Duration{
			Seconds: 3600,
		},
		MaxRetryCount: 2,
		Volumes:       []*batchpb.Volume{volume},
	}

	// Tasks are grouped inside a job using TaskGroups.
	taskGroups := []*batchpb.TaskGroup{
		{
			TaskCount: 4,
			TaskSpec:  taskSpec,
		},
	}

	// Policies are used to define on what kind of virtual machines the tasks will run on.
	// In this case, we tell the system to use "e2-standard-4" machine type.
	// Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
	allocationPolicy := &batchpb.AllocationPolicy{
		Instances: []*batchpb.AllocationPolicy_InstancePolicyOrTemplate{{
			PolicyTemplate: &batchpb.AllocationPolicy_InstancePolicyOrTemplate_Policy{
				Policy: &batchpb.AllocationPolicy_InstancePolicy{
					MachineType: "e2-standard-4",
				},
			},
		}},
	}

	// We use Cloud Logging as it's an out of the box available option
	logsPolicy := &batchpb.LogsPolicy{
		Destination: batchpb.LogsPolicy_CLOUD_LOGGING,
	}

	jobLabels := map[string]string{"env": "testing", "type": "script"}

	// The job's parent is the region in which the job will run
	parent := fmt.Sprintf("projects/%s/locations/%s", projectID, region)

	job := batchpb.Job{
		TaskGroups:       taskGroups,
		AllocationPolicy: allocationPolicy,
		Labels:           jobLabels,
		LogsPolicy:       logsPolicy,
	}

	req := &batchpb.CreateJobRequest{
		Parent: parent,
		JobId:  jobName,
		Job:    &job,
	}

	created_job, err := batchClient.CreateJob(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create job: %w", err)
	}

	fmt.Fprintf(w, "Job created: %v\n", created_job)

	return nil
}

Java

Java

Para obtener más información, consulta la API de Java por lotes documentación de referencia.

Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

import com.google.cloud.batch.v1.AllocationPolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicy;
import com.google.cloud.batch.v1.AllocationPolicy.InstancePolicyOrTemplate;
import com.google.cloud.batch.v1.BatchServiceClient;
import com.google.cloud.batch.v1.ComputeResource;
import com.google.cloud.batch.v1.CreateJobRequest;
import com.google.cloud.batch.v1.GCS;
import com.google.cloud.batch.v1.Job;
import com.google.cloud.batch.v1.LogsPolicy;
import com.google.cloud.batch.v1.LogsPolicy.Destination;
import com.google.cloud.batch.v1.Runnable;
import com.google.cloud.batch.v1.Runnable.Script;
import com.google.cloud.batch.v1.TaskGroup;
import com.google.cloud.batch.v1.TaskSpec;
import com.google.cloud.batch.v1.Volume;
import com.google.protobuf.Duration;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateWithMountedBucket {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Cloud project you want to use.
    String projectId = "YOUR_PROJECT_ID";

    // Name of the region you want to use to run the job. Regions that are
    // available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
    String region = "europe-central2";

    // The name of the job that will be created.
    // It needs to be unique for each project and region pair.
    String jobName = "JOB_NAME";

    // Name of the bucket to be mounted for your Job.
    String bucketName = "BUCKET_NAME";

    createScriptJobWithBucket(projectId, region, jobName, bucketName);
  }

  // This method shows how to create a sample Batch Job that will run
  // a simple command on Cloud Compute instances.
  public static void createScriptJobWithBucket(String projectId, String region, String jobName,
      String bucketName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `batchServiceClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (BatchServiceClient batchServiceClient = BatchServiceClient.create()) {

      // Define what will be done as part of the job.
      Runnable runnable =
          Runnable.newBuilder()
              .setScript(
                  Script.newBuilder()
                      .setText(
                          "echo Hello world from task ${BATCH_TASK_INDEX}. >> "
                              + "/mnt/share/output_task_${BATCH_TASK_INDEX}.txt")
                      // You can also run a script from a file. Just remember, that needs to be a
                      // script that's already on the VM that will be running the job.
                      // Using setText() and setPath() is mutually exclusive.
                      // .setPath("/tmp/test.sh")
                      .build())
              .build();

      Volume volume = Volume.newBuilder()
          .setGcs(GCS.newBuilder()
              .setRemotePath(bucketName)
              .build())
          .setMountPath("/mnt/share")
          .build();

      // We can specify what resources are requested by each task.
      ComputeResource computeResource =
          ComputeResource.newBuilder()
              // In milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
              .setCpuMilli(500)
              // In MiB.
              .setMemoryMib(16)
              .build();

      TaskSpec task =
          TaskSpec.newBuilder()
              // Jobs can be divided into tasks. In this case, we have only one task.
              .addRunnables(runnable)
              .addVolumes(volume)
              .setComputeResource(computeResource)
              .setMaxRetryCount(2)
              .setMaxRunDuration(Duration.newBuilder().setSeconds(3600).build())
              .build();

      // Tasks are grouped inside a job using TaskGroups.
      // Currently, it's possible to have only one task group.
      TaskGroup taskGroup = TaskGroup.newBuilder().setTaskCount(4).setTaskSpec(task).build();

      // Policies are used to define on what kind of virtual machines the tasks will run on.
      // In this case, we tell the system to use "e2-standard-4" machine type.
      // Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
      InstancePolicy instancePolicy =
          InstancePolicy.newBuilder().setMachineType("e2-standard-4").build();

      AllocationPolicy allocationPolicy =
          AllocationPolicy.newBuilder()
              .addInstances(InstancePolicyOrTemplate.newBuilder().setPolicy(instancePolicy).build())
              .build();

      Job job =
          Job.newBuilder()
              .addTaskGroups(taskGroup)
              .setAllocationPolicy(allocationPolicy)
              .putLabels("env", "testing")
              .putLabels("type", "script")
              .putLabels("mount", "bucket")
              // We use Cloud Logging as it's an out of the box available option.
              .setLogsPolicy(
                  LogsPolicy.newBuilder().setDestination(Destination.CLOUD_LOGGING).build())
              .build();

      CreateJobRequest createJobRequest =
          CreateJobRequest.newBuilder()
              // The job's parent is the region in which the job will run.
              .setParent(String.format("projects/%s/locations/%s", projectId, region))
              .setJob(job)
              .setJobId(jobName)
              .build();

      Job result =
          batchServiceClient
              .createJobCallable()
              .futureCall(createJobRequest)
              .get(5, TimeUnit.MINUTES);

      System.out.printf("Successfully created the job: %s", result.getName());
    }
  }
}

Node.js

Node.js

Para obtener más información, consulta la API de Node.js por lotes documentación de referencia.

Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

/**
 * TODO(developer): Uncomment and replace these variables before running the sample.
 */
// const projectId = 'YOUR_PROJECT_ID';
/**
 * The region you want to the job to run in. The regions that support Batch are listed here:
 * https://cloud.google.com/batch/docs/get-started#locations
 */
// const region = 'us-central-1';
/**
 * The name of the job that will be created.
 * It needs to be unique for each project and region pair.
 */
// const jobName = 'YOUR_JOB_NAME';
/**
 * The name of the bucket to be mounted.
 */
// const bucketName = 'YOUR_BUCKET_NAME';

// Imports the Batch library
const batchLib = require('@google-cloud/batch');
const batch = batchLib.protos.google.cloud.batch.v1;

// Instantiates a client
const batchClient = new batchLib.v1.BatchServiceClient();

// Define what will be done as part of the job.
const task = new batch.TaskSpec();
const runnable = new batch.Runnable();
runnable.script = new batch.Runnable.Script();
runnable.script.text =
  'echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt';
// You can also run a script from a file. Just remember, that needs to be a script that's
// already on the VM that will be running the job. Using runnable.script.text and runnable.script.path is mutually
// exclusive.
// runnable.script.path = '/tmp/test.sh'
task.runnables = [runnable];

const gcsBucket = new batch.GCS();
gcsBucket.remotePath = bucketName;
const gcsVolume = new batch.Volume();
gcsVolume.gcs = gcsBucket;
gcsVolume.mountPath = '/mnt/share';
task.volumes = [gcsVolume];

// We can specify what resources are requested by each task.
const resources = new batch.ComputeResource();
resources.cpuMilli = 2000; // in milliseconds per cpu-second. This means the task requires 2 whole CPUs.
resources.memoryMib = 16;
task.computeResource = resources;

task.maxRetryCount = 2;
task.maxRunDuration = {seconds: 3600};

// Tasks are grouped inside a job using TaskGroups.
const group = new batch.TaskGroup();
group.taskCount = 4;
group.taskSpec = task;

// Policies are used to define on what kind of virtual machines the tasks will run on.
// In this case, we tell the system to use "e2-standard-4" machine type.
// Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
const allocationPolicy = new batch.AllocationPolicy();
const policy = new batch.AllocationPolicy.InstancePolicy();
policy.machineType = 'e2-standard-4';
const instances = new batch.AllocationPolicy.InstancePolicyOrTemplate();
instances.policy = policy;
allocationPolicy.instances = [instances];

const job = new batch.Job();
job.name = jobName;
job.taskGroups = [group];
job.allocationPolicy = allocationPolicy;
job.labels = {env: 'testing', type: 'script'};
// We use Cloud Logging as it's an option available out of the box
job.logsPolicy = new batch.LogsPolicy();
job.logsPolicy.destination = batch.LogsPolicy.Destination.CLOUD_LOGGING;

// The job's parent is the project and region in which the job will run
const parent = `projects/${projectId}/locations/${region}`;

async function callCreateJob() {
  // Construct request
  const request = {
    parent,
    jobId: jobName,
    job,
  };

  // Run request
  const response = await batchClient.createJob(request);
  console.log(response);
}

await callCreateJob();

Python

Python

Para obtener más información, consulta la API de Python por lotes documentación de referencia.

Para autenticarte en Batch, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

from google.cloud import batch_v1


def create_script_job_with_bucket(
    project_id: str, region: str, job_name: str, bucket_name: str
) -> batch_v1.Job:
    """
    This method shows how to create a sample Batch Job that will run
    a simple command on Cloud Compute instances.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        region: name of the region you want to use to run the job. Regions that are
            available for Batch are listed on: https://cloud.google.com/batch/docs/get-started#locations
        job_name: the name of the job that will be created.
            It needs to be unique for each project and region pair.
        bucket_name: name of the bucket to be mounted for your Job.

    Returns:
        A job object representing the job created.
    """
    client = batch_v1.BatchServiceClient()

    # Define what will be done as part of the job.
    task = batch_v1.TaskSpec()
    runnable = batch_v1.Runnable()
    runnable.script = batch_v1.Runnable.Script()
    runnable.script.text = "echo Hello world from task ${BATCH_TASK_INDEX}. >> /mnt/share/output_task_${BATCH_TASK_INDEX}.txt"
    task.runnables = [runnable]

    gcs_bucket = batch_v1.GCS()
    gcs_bucket.remote_path = bucket_name
    gcs_volume = batch_v1.Volume()
    gcs_volume.gcs = gcs_bucket
    gcs_volume.mount_path = "/mnt/share"
    task.volumes = [gcs_volume]

    # We can specify what resources are requested by each task.
    resources = batch_v1.ComputeResource()
    resources.cpu_milli = 500  # in milliseconds per cpu-second. This means the task requires 50% of a single CPUs.
    resources.memory_mib = 16
    task.compute_resource = resources

    task.max_retry_count = 2
    task.max_run_duration = "3600s"

    # Tasks are grouped inside a job using TaskGroups.
    # Currently, it's possible to have only one task group.
    group = batch_v1.TaskGroup()
    group.task_count = 4
    group.task_spec = task

    # Policies are used to define on what kind of virtual machines the tasks will run on.
    # In this case, we tell the system to use "e2-standard-4" machine type.
    # Read more about machine types here: https://cloud.google.com/compute/docs/machine-types
    allocation_policy = batch_v1.AllocationPolicy()
    policy = batch_v1.AllocationPolicy.InstancePolicy()
    policy.machine_type = "e2-standard-4"
    instances = batch_v1.AllocationPolicy.InstancePolicyOrTemplate()
    instances.policy = policy
    allocation_policy.instances = [instances]

    job = batch_v1.Job()
    job.task_groups = [group]
    job.allocation_policy = allocation_policy
    job.labels = {"env": "testing", "type": "script", "mount": "bucket"}
    # We use Cloud Logging as it's an out of the box available option
    job.logs_policy = batch_v1.LogsPolicy()
    job.logs_policy.destination = batch_v1.LogsPolicy.Destination.CLOUD_LOGGING

    create_request = batch_v1.CreateJobRequest()
    create_request.job = job
    create_request.job_id = job_name
    # The job's parent is the region in which the job will run
    create_request.parent = f"projects/{project_id}/locations/{region}"

    return client.create_job(create_request)

Usa un sistema de archivos de red

Puedes crear un trabajo que use un sistema de archivos de red (NFS) existente como un Archivos compartidos de Filestore con la consola de Google Cloud, gcloud CLI o API de Batch.

Antes de crear un trabajo que use un NFS, asegúrate de que tu el firewall de la red esté configurado correctamente para permitir el tráfico entre las VMs y el NFS de tu trabajo. Para obtener más información, consulta Configurar reglas de firewall para Filestore

En el siguiente ejemplo, se describe cómo crear un trabajo que especifica y activa un NFS. El trabajo también incluye 3 que ejecutan una secuencia de comandos para crear un archivo en el NFS llamado output_task_TASK_INDEX.txt donde TASK_INDEX es el índice de cada tarea: 0, 1 y 2.

Console

Para crear un trabajo que use un NFS con la consola de Google Cloud, sigue estos pasos: haz lo siguiente:

  1. En la consola de Google Cloud, ve a la página Lista de trabajos.

    Ir a Lista de trabajos

  2. Haz clic en Crear. El Se abrirá la página Crear trabajo por lotes. En el panel izquierdo, La página Detalles del trabajo está seleccionada.

  3. Configura la página Detalles del trabajo:

    1. Opcional: En el campo Nombre del trabajo, personaliza el nombre del trabajo.

      Por ejemplo, ingresa example-nfs-job.

    2. Configura la sección Detalles de la tarea:

      1. En la ventana Nuevo ejecutable, agrega al menos una secuencia de comandos o para que se ejecute este trabajo.

        Por ejemplo, haz lo siguiente:

        1. Selecciona la casilla de verificación Script (Secuencia de comandos). Aparecerá un cuadro de texto.

        2. En el cuadro de texto, ingresa la siguiente secuencia de comandos:

          echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt
          

          Reemplaza MOUNT_PATH por el la ruta de activación que usa el ejecutable del trabajo para acceder a este NFS. La ruta de acceso debe comenzar con /mnt/disks/ seguida de un del directorio o la ruta que elijas. Por ejemplo, si representar este NFS con un directorio llamado my-nfs, establece la ruta de activación en /mnt/disks/my-nfs.

        3. Haz clic en Listo.

      2. En el campo Cantidad de tareas, ingresa la cantidad de tareas de este trabajo.

        Por ejemplo, ingresa 3.

      3. En el campo Paralelismo, ingresa la cantidad de tareas que se van a se ejecutan al mismo tiempo.

        Por ejemplo, ingresa 1 (predeterminada).

  4. Configura la página Configuraciones adicionales:

    1. En el panel izquierdo, haz clic en Configuración adicional. Se abrirá la página Configuraciones adicionales.

    2. Para cada bucket de Cloud Storage que quieras activar este trabajo, haz lo siguiente:

      1. En la sección Volumen de almacenamiento, haz clic en Agregar volumen nuevo. Aparecerá la ventana Volumen nuevo.

      2. En la ventana Volumen nuevo, haz lo siguiente:

        1. En la sección Tipo de volumen, Selecciona Sistema de archivos de red.

        2. En el campo Servidor de archivos, ingresa la dirección IP del en el que el NFS especificado en la configuración el código fuente.

          Por ejemplo, si tu NFS es un archivo compartido de Filestore, especifica la dirección IP de la instancia de Filestore, que puedes obtener describing the Filestore instance.

        3. En el campo Ruta de acceso remota, ingresa una ruta de acceso que pueda acceder al NFS que especificaste en el paso anterior.

          La ruta de acceso del directorio NFS debe comenzar con un / seguido del directorio raíz del NFS.

        4. En el campo Ruta de activación, ingresa la ruta de activación al NFS. (MOUNT_PATH), que especificaste en del paso anterior.

    3. Haz clic en Listo.

  5. Opcional: Configura el otros campos para este trabajo.

  6. Opcional: Para revisar la configuración del trabajo, en el panel izquierdo, Haz clic en Vista previa.

  7. Haz clic en Crear.

En la página Detalles del trabajo, se muestra el trabajo que creaste.

gcloud

Para crear un trabajo que use un NFS con la CLI de gcloud, usa el comando gcloud batch jobs submit. En el archivo de configuración JSON del trabajo, activa el NFS en la volumes.

  1. Crea un archivo JSON con el siguiente contenido:

    {
        "taskGroups": [
            {
                "taskSpec": {
                    "runnables": [
                        {
                            "script": {
                                "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                            }
                        }
                    ],
                    "volumes": [
                        {
                            "nfs": {
                                "server": "NFS_IP_ADDRESS",
                                "remotePath": "NFS_PATH"
                            },
                            "mountPath": "MOUNT_PATH"
                        }
                    ]
                },
                "taskCount": 3
            }
        ],
        "logsPolicy": {
            "destination": "CLOUD_LOGGING"
        }
    }
    

    Reemplaza lo siguiente:

    • NFS_IP_ADDRESS: el Dirección IP del NFS. Por ejemplo, si tu NFS es un recurso compartido de Filestore, entonces especificar la dirección IP del Filestore que puedes obtener describir la instancia de Filestore
    • NFS_PATH: Es la ruta de acceso del directorio de NFS. a las que quieres que acceda este trabajo, que debe comenzar con un / seguido del directorio raíz del NFS. Por ejemplo, para un archivo compartido de Filestore llamado FILE_SHARE_NAME, la ruta de acceso /FILE_SHARE_NAME representa el directorio raíz del archivo compartido y la ruta de acceso /FILE_SHARE_NAME/subdirectory representa el subdirectorio subdirectory.
    • MOUNT_PATH: Es la ruta de activación de la que el trabajo ejecutables usan para acceder a este NFS. La ruta debe comenzar con /mnt/disks/ seguido de un directorio o ruta de acceso que elijas. Por ejemplo, si quieres representar este NFS con un con el nombre my-nfs, establece la ruta de activación en /mnt/disks/my-nfs.
  2. Ejecuta el siguiente comando:

    gcloud batch jobs submit JOB_NAME \
      --location LOCATION \
      --config JSON_CONFIGURATION_FILE
    

    Reemplaza lo siguiente:

    • JOB_NAME: Es el nombre del trabajo.
    • LOCATION: Es la ubicación. del trabajo.
    • JSON_CONFIGURATION_FILE: Es la ruta de acceso para un JSON. con los detalles de configuración del trabajo.

API

Para crear un trabajo que use un NFS Batch, usa el Método jobs.create y activa el NFS en el campo volumes.

POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME

   {
    "taskGroups": [
        {
            "taskSpec": {
                "runnables": [
                    {
                        "script": {
                            "text": "echo Hello world from task ${BATCH_TASK_INDEX}. >> MOUNT_PATH/output_task_${BATCH_TASK_INDEX}.txt"
                        }
                    }
                ],
                "volumes": [
                    {
                        "nfs": {
                            "server": "NFS_IP_ADDRESS",
                            "remotePath": "NFS_PATH"
                        },
                        "mountPath": "MOUNT_PATH"
                    }
                ]
            },
            "taskCount": 3
        }
    ],
    "logsPolicy": {
        "destination": "CLOUD_LOGGING"
    }
}

Reemplaza lo siguiente:

  • PROJECT_ID: el ID del proyecto de tu proyecto.
  • LOCATION: Es la ubicación. del trabajo.
  • JOB_NAME: Es el nombre del trabajo.
  • NFS_IP_ADDRESS: el Dirección IP del sistema de archivos de red. Por ejemplo, si tu NFS es un recurso compartido de Filestore, entonces especificar la dirección IP del Filestore que puedes obtener describir la instancia de Filestore
  • NFS_PATH: Es la ruta de acceso del directorio de NFS. a las que quieres que acceda este trabajo, que debe comenzar con un / seguido del directorio raíz del NFS. Por ejemplo, para un Archivos compartidos de Filestore nombrados FILE_SHARE_NAME, la ruta /FILE_SHARE_NAME representa la raíz. de los archivos compartidos y la ruta de acceso /FILE_SHARE_NAME/subdirectory representa un subdirectorio.
  • MOUNT_PATH: Es la ruta de activación que usan los elementos ejecutables de la tarea para acceder a este NFS. La ruta debe comenzar con /mnt/disks/ seguido de un directorio o ruta de acceso que elijas. Por ejemplo, si quieres representar este NFS con un con el nombre my-nfs, establece la ruta de activación en /mnt/disks/my-nfs.

¿Qué sigue?