Plantilla de Cloud Storage a Elasticsearch

La plantilla de Cloud Storage a Elasticsearch es una canalización por lotes que lee datos de archivos CSV almacenados en un bucket de Cloud Storage y los escribe en Elasticsearch como documentos de JSON.

Requisitos de la canalización

  • El bucket de Cloud Storage debe existir.
  • Debe existir un host de Elasticsearch en una instancia de Google Cloud o en Elasticsearch Cloud al que se pueda acceder desde Dataflow.
  • Debe existir una tabla de BigQuery para el resultado del error.

Esquema CSV

Si los archivos CSV contienen encabezados, establece el parámetro de plantilla containsHeaders en true.

De lo contrario, crea un archivo de esquema JSON que describa los datos. Especifica el URI de Cloud Storage del archivo de esquema en el parámetro de plantilla jsonSchemaPath. En el siguiente ejemplo, se muestra un esquema JSON:

[{"name":"id", "type":"text"}, {"name":"age", "type":"integer"}]

Como alternativa, puedes proporcionar una función definida por el usuario (UDF) que analice el texto CSV y genere documentos de Elasticsearch.

Parámetros de la plantilla

Parámetros obligatorios

  • deadletterTable: la tabla de mensajes no entregados de BigQuery a la que se enviarán las inserciones con errores. (Ejemplo: your-project:your-dataset.your-table-name).
  • inputFileSpec: el patrón del archivo de Cloud Storage para buscar archivos CSV. Ejemplo: gs://mybucket/test-*.csv.
  • connectionUrl: URL de Elasticsearch en el formato https://hostname:[port]. Si usas Elastic Cloud, especifica el CloudID. (Ejemplo: https://elasticsearch-host:9200).
  • apiKey: la clave de API codificada en Base64 que se usará para la autenticación.
  • index: el índice de Elasticsearch al que se emiten las solicitudes, como my-index. (Ejemplo: my-index).

Parámetros opcionales

  • inputFormat: Formato de archivo de entrada. La opción predeterminada es CSV.
  • containsHeaders: Los archivos CSV de entrada contienen un registro de encabezado (verdadero/falso) Solo se requiere si se leen los archivos CSV. La configuración predeterminada es "false".
  • delimiter: El delimitador de columnas de los archivos de texto de entrada. Predeterminado: usa el delimitador proporcionado en csvFormat (ejemplo: ,).
  • csvFormat: Especificación de formato CSV para usar en el análisis de registros. El valor predeterminado es “default”. Consulta https://commons.apache.org/proper/commons-csv/apidocs/org/apache/commons/csv/CSVFormat.html para obtener más detalles. Debe coincidir exactamente con los nombres de formato que se encuentran en: https://commons.apache.org/proper/commons-csv/apidocs/org/apache/commons/csv/CSVFormat.Predefined.html.
  • jsonSchemaPath: la ruta al esquema JSON. Configuración predeterminada: nula. (Ejemplo: gs://path/to/schema).
  • largeNumFiles: Configurado como verdadero si el número de archivos está en las decenas de miles. La configuración predeterminada es "false".
  • csvFileEncoding: formato de codificación de caracteres de archivo CSV. Los valores permitidos son US-ASCII, ISO-8859-1, UTF-8 y UTF-16. Valor predeterminado: UTF-8.
  • logDetailedCsvConversionErrors: Se configura como verdadero para habilitar el registro de errores detallado cuando el análisis de CSV falla. Ten en cuenta que esto puede exponer datos sensibles en los registros (p. ej., si el archivo CSV contiene contraseñas). Valor predeterminado: false.
  • elasticsearchUsername: El nombre de usuario de Elasticsearch con el que se autenticará. Si se especifica, se ignora el valor de “apiKey”.
  • elasticsearchPassword: La contraseña de Elasticsearch con la que se realizará la autenticación. Si se especifica, se ignora el valor de “apiKey”.
  • batchSize: el tamaño del lote en cantidad de documentos. Valor predeterminado: 1000.
  • batchSizeBytes: el tamaño del lote en cantidad de bytes. Valor predeterminado: 5242880 (5 MB).
  • maxRetryAttempts: la cantidad máxima de intentos reiterados. Debe ser mayor que cero. Configuración predeterminada: sin reintentos.
  • maxRetryDuration: la duración máxima del reintento en milisegundos. Debe ser mayor que cero. Configuración predeterminada: sin reintentos.
  • propertyAsIndex: la propiedad del documento que se indexa, cuyo valor especifica metadatos _index que se incluirán con el documento en las solicitudes masivas. Tiene prioridad sobre una UDF _index. Configuración predeterminada: ninguna.
  • javaScriptIndexFnGcsPath: la ruta de Cloud Storage a la fuente de UDF de JavaScript para una función que especifica metadatos _index que se incluirán con el documento en solicitudes masivas. Configuración predeterminada: ninguna.
  • javaScriptIndexFnName: el nombre de la función de JavaScript de UDF que especifica los metadatos _index que se incluirán con el documento en las solicitudes masivas. Configuración predeterminada: ninguna.
  • propertyAsId: una propiedad del documento que se indexa, cuyo valor especifica metadatos _id que se incluirán con el documento en las solicitudes masivas. Tiene prioridad sobre una UDF _id. Configuración predeterminada: ninguna.
  • javaScriptIdFnGcsPath: la ruta de Cloud Storage a la fuente de UDF de JavaScript para la función que especifica metadatos _id que se incluirán con el documento en solicitudes masivas. Configuración predeterminada: ninguna.
  • javaScriptIdFnName: el nombre de la función de JavaScript de UDF que especifica los metadatos _id que se incluirán con el documento en las solicitudes masivas. Configuración predeterminada: ninguna.
  • javaScriptTypeFnGcsPath: la ruta de Cloud Storage a la fuente de UDF de JavaScript para una función que especifica metadatos _type que se incluirán en documentos en solicitudes masivas. Valor predeterminado: none.
  • javaScriptTypeFnName: el nombre de la función de JavaScript de UDF que especifica los metadatos _type que se incluirán con el documento en las solicitudes masivas. Configuración predeterminada: ninguna.
  • javaScriptIsDeleteFnGcsPath: la ruta de Cloud Storage a la fuente de UDF de JavaScript para la función que determina si se debe borrar el documento en lugar de insertarlo o actualizarlo. La función devuelve un valor de cadena de true o false. Configuración predeterminada: ninguna.
  • javaScriptIsDeleteFnName: el nombre de la función de JavaScript de UDF que determina si se borra el documento en lugar de insertarlo o actualizarlo. La función devuelve un valor de cadena de true o false. Configuración predeterminada: ninguna.
  • usePartialUpdate: Indica si se deben usar actualizaciones parciales (actualizar en lugar de crear o indexar, que permite documentos parciales), con solicitudes de Elasticsearch. La configuración predeterminada es "false".
  • bulkInsertMethod: si se debe usar INDEX (índice, permite inserción) o CREATE (creación, errores en duplicate _id) con solicitudes masivas de Elasticsearch. Configuración predeterminada: CREATE.
  • trustSelfSignedCerts : Indica si se debe confiar o no en el certificado autofirmado. Es posible que una instancia de Elasticsearch instalada tenga un certificado autofirmado. Habilítalo como verdadero para omitir la validación en el certificado SSL. (el valor predeterminado es False).
  • disableCertificateValidation : si es “true”, confía en el certificado SSL autofirmado. Una instancia de Elasticsearch puede tener un certificado SSL autofirmado. Para omitir la validación del certificado, establece este parámetro como “true”. Valor predeterminado: false.
  • apiKeyKMSEncryptionKey: La clave de Cloud KMS para desencriptar la clave de API. Este parámetro se debe proporcionar si apiKeySource se configura como KMS. Si se proporciona este parámetro, la cadena apiKey debe pasarse encriptada. Encripta parámetros con el extremo de encriptación de la API de KMS. La clave debe tener el formato proyectos/{proyecto_gcp}/ubicaciones/{región-de-la-clave}/llaveros-de-clave/{llavero-de-claves}/cryptoKeys/{nombre_de_la_clave_kms}. Consulta: https://cloud.google.com/kms/docs/reference/rest/v1/projects.locations.keyRings.cryptoKeys/encrypt (Ejemplo: proyectos/id-de-tu-proyecto/ubicaciones/global/llaveros-de-claves/tu-llavero-de-claves/cryptoKeys/nombre-de-tu-clave).
  • apiKeySecretId : El ID del secreto de Secret Manager para la apiKey. Este parámetro se debe proporcionar si apiKeySource está configurado como SECRET_MANAGER. Debe tener el formato proyectos/{proyecto}/secrets/{secret}/versiones/{versión-del-secret}. (Ejemplo: proyectos/id-de-tu-proyecto/secrets/tu-secret/versiones/versión-de-tu-secret).
  • apiKeySource : Fuente de la clave de API. Puede ser PLAINTEXT, KMS o SECRET_MANAGER. Este parámetro se debe proporcionar si se usa Secret Manager o KMS. Si apiKeySource se configura como KMS, se deben proporcionar apiKeyKMSEncryptionKey y la apiKey encriptada. Si apiKeySource se configura como SECRET_MANAGER, se debe proporcionar apiKeySecretId. Si apiKeySource se configura como PLAINTEXT, se debe proporcionar apiKey. La configuración predeterminada es: PLAINTEXT.
  • javascriptTextTransformGcsPath: el URI de Cloud Storage del archivo .js que define la función definida por el usuario (UDF) de JavaScript que se usará. (Ejemplo: gs://my-bucket/my-udfs/my_file.js).
  • javascriptTextTransformFunctionName: el nombre de la función definida por el usuario (UDF) de JavaScript que se usará. Por ejemplo, si el código de tu función de JavaScript es myTransform(inJson) { /*...do stuff...*/ }, el nombre de la función es myTransform. Para ver ejemplos de UDF de JavaScript, consulta Ejemplos de UDF (https://github.com/GoogleCloudPlatform/DataflowTemplates#udf-examples).

Funciones definidas por el usuario

Esta plantilla admite funciones definidas por el usuario (UDF) en varios puntos de la canalización, que se describen a continuación. Para obtener más información, consulta Crea funciones definidas por el usuario para plantillas de Dataflow.

Función de transformación de texto

Transforma los datos de CSV en un documento de Elasticsearch.

Parámetros de la plantilla:

  • javascriptTextTransformGcsPath: Es el URI de Cloud Storage del archivo JavaScript.
  • javascriptTextTransformFunctionName: Es el nombre de la función de JavaScript.

Especificación de la función:

  • Entrada: una sola línea de un archivo CSV de entrada.
  • Resultado: Un documento JSON en string para insertar en Elasticsearch.

Función de índice

Muestra el índice al que pertenece el documento.

Parámetros de la plantilla:

  • javaScriptIndexFnGcsPath: Es el URI de Cloud Storage del archivo JavaScript.
  • javaScriptIndexFnName: Es el nombre de la función de JavaScript.

Especificación de la función:

  • Entrada: el documento de Elasticsearch, serializado como una string JSON.
  • Resultado: El valor del campo de metadatos _index del documento.

Función de ID de documento

Muestra el ID del documento.

Parámetros de la plantilla:

  • javaScriptIdFnGcsPath: Es el URI de Cloud Storage del archivo JavaScript.
  • javaScriptIdFnName: Es el nombre de la función de JavaScript.

Especificación de la función:

  • Entrada: el documento de Elasticsearch, serializado como una cadena JSON.
  • Resultado: El valor del campo de metadatos _id del documento.

Función de eliminación de documentos

Especifica si se debe borrar un documento. Para usar esta función, establece el modo de inserción masiva en INDEX y proporciona una función de ID de documento.

Parámetros de la plantilla:

  • javaScriptIsDeleteFnGcsPath: Es el URI de Cloud Storage del archivo JavaScript.
  • javaScriptIsDeleteFnName: Es el nombre de la función de JavaScript.

Especificación de la función:

  • Entrada: el documento de Elasticsearch, serializado como una cadena JSON.
  • Resultado: Muestra la cadena "true" para borrar el documento o "false" a fin de actualizar el documento.

Función de tipo de asignación

Muestra el tipo de asignación del documento.

Parámetros de la plantilla:

  • javaScriptTypeFnGcsPath: Es el URI de Cloud Storage del archivo JavaScript.
  • javaScriptTypeFnName: Es el nombre de la función de JavaScript.

Especificación de la función:

  • Entrada: el documento de Elasticsearch, serializado como una cadena JSON.
  • Resultado: El valor del campo de metadatos _type del documento.

Ejecuta la plantilla

Console

  1. Ve a la página Crear un trabajo a partir de una plantilla de Dataflow.
  2. Ir a Crear un trabajo a partir de una plantilla
  3. En el campo Nombre del trabajo, ingresa un nombre de trabajo único.
  4. Opcional: Para Extremo regional, selecciona un valor del menú desplegable. La región predeterminada es us-central1.

    Para obtener una lista de regiones en las que puedes ejecutar un trabajo de Dataflow, consulta Ubicaciones de Dataflow.

  5. En el menú desplegable Plantilla de Dataflow, selecciona the Cloud Storage to Elasticsearch template.
  6. En los campos de parámetros proporcionados, ingresa los valores de tus parámetros.
  7. Haga clic en Ejecutar trabajo.

gcloud

En tu shell o terminal, ejecuta la plantilla:

gcloud dataflow flex-template run JOB_NAME \
    --project=PROJECT_ID\
    --region=REGION_NAME \
    --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/GCS_to_Elasticsearch \
    --parameters \
inputFileSpec=INPUT_FILE_SPEC,\
connectionUrl=CONNECTION_URL,\
apiKey=APIKEY,\
index=INDEX,\
deadletterTable=DEADLETTER_TABLE,\

Reemplaza lo siguiente:

  • PROJECT_ID: El ID del proyecto de Google Cloud en el que deseas ejecutar el trabajo de Dataflow.
  • JOB_NAME: Es el nombre del trabajo que elijas
  • VERSION: Es la versión de la plantilla que deseas usar.

    Puedes usar los siguientes valores:

    • latest para usar la última versión de la plantilla, que está disponible en la carpeta superior non-dated en el bucket gs://dataflow-templates-REGION_NAME/latest/
    • el nombre de la versión, como 2023-09-12-00_RC00, para usar una versión específica de la plantilla, que se puede encontrar anidada en la carpeta superior con fecha correspondiente en el bucket gs://dataflow-templates-REGION_NAME/
  • REGION_NAME: La región en la que deseas implementar tu trabajo de Dataflow, por ejemplo, us-central1
  • INPUT_FILE_SPEC: Es el patrón de archivo de Cloud Storage.
  • CONNECTION_URL: Es tu URL de Elasticsearch
  • APIKEY: Es tu clave de API codificada en Base64 para la autenticación
  • INDEX: Es el índice de Elasticsearch.
  • DEADLETTER_TABLE: Es tu tabla de BigQuery.

API

Para ejecutar la plantilla con la API de REST, envía una solicitud POST HTTP. Para obtener más información de la API y sus permisos de autorización, consulta projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch
{
   "launch_parameter": {
      "jobName": "JOB_NAME",
      "parameters": {
          "inputFileSpec": "INPUT_FILE_SPEC",
          "connectionUrl": "CONNECTION_URL",
          "apiKey": "APIKEY",
          "index": "INDEX",
          "deadletterTable": "DEADLETTER_TABLE"
      },
      "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/GCS_to_Elasticsearch",
   }
}

Reemplaza lo siguiente:

  • PROJECT_ID: El ID del proyecto de Google Cloud en el que deseas ejecutar el trabajo de Dataflow.
  • JOB_NAME: Es el nombre del trabajo que elijas
  • VERSION: Es la versión de la plantilla que deseas usar.

    Puedes usar los siguientes valores:

    • latest para usar la última versión de la plantilla, que está disponible en la carpeta superior non-dated en el bucket gs://dataflow-templates-REGION_NAME/latest/
    • el nombre de la versión, como 2023-09-12-00_RC00, para usar una versión específica de la plantilla, que se puede encontrar anidada en la carpeta superior con fecha correspondiente en el bucket gs://dataflow-templates-REGION_NAME/
  • LOCATION: La región en la que deseas implementar tu trabajo de Dataflow, por ejemplo, us-central1
  • INPUT_FILE_SPEC: Es el patrón de archivo de Cloud Storage.
  • CONNECTION_URL: Es tu URL de Elasticsearch
  • APIKEY: Es tu clave de API codificada en Base64 para la autenticación
  • INDEX: Es el índice de Elasticsearch.
  • DEADLETTER_TABLE: Es tu tabla de BigQuery.

¿Qué sigue?