Configurar o Cloud Logging
O conector de mainframe pode enviar mensagens de registro formatadas em JSON que contêm informações de contexto para o Cloud Logging. O contexto inclui nome, ID, data, nome da etapa e outras variáveis fornecidas pelo z/OS.
Isso ajuda você a encontrar registros para jobs específicos e criar alertas. Além disso, ao implantar o conector de mainframe no Cloud Run, no Google Kubernetes Engine ou no Compute Engine, os registros são coletados pelo agente do Cloud Logging e aparecem no Logs Explorer.
Para configurar o Conector de mainframe para gravar no Cloud Logging, defina o
Variáveis de ambiente LOG_PROJECT
e LOG_ID
na
JCL que inicia o job. Por exemplo, LOG_PROJECT=mainframe-connector-proj
.
e LOG_ID=my-mfc
. O nome do registro LOG_NAME
é derivado
de LOG_PROJECT
e LOG_ID
. Neste exemplo, será
projects/mainframe-connector-proj/logs/my-mfc
.
O tipo de recurso é sempre global, porque o registro é criado pelo usuário, e não pelo serviço de nuvem. Durante a inicialização, o Mainframe Connector mostra uma mensagem indicando se o Cloud Logging está configurado.
Ativar estatísticas de carregamento
O recurso de estatísticas de carga registra todos os comandos executados usando o Mainframe Connector em uma tabela SQL. Para ativar o recurso de estatísticas de carga, crie uma tabela usando o comando a seguir e adicione a flag --stats_table TABLE_NAME
ao comando cp
, em que TABLE_NAME é o nome da tabela SQL.
CREATE TABLE
`[PROJECT_ID].[DATASET_NAME].[TABLE_NAME]` (
timestamp TIMESTAMP,
job_id STRING,
job_name STRING,
job_date DATE,
job_time TIME,
job_step_name STRING,
job_type STRING,
source STRING,
destination STRING,
job_json STRING,
rows_read INT64,
rows_written INT64,
rows_affected INT64,
rows_inserted INT64,
rows_deleted INT64,
rows_updated INT64,
rows_unmodified INT64,
rows_before_merge INT64,
rows_loaded INT64,
bq_job_id STRING,
bq_job_project STRING,
bq_job_location STRING,
statement_type STRING,
query STRING,
execution_ms INT64,
queued_ms INT64,
bytes_processed INT64,
slot_ms INT64,
slot_utilization_rate FLOAT64,
slot_ms_to_total_bytes_ratio FLOAT64,
shuffle_bytes FLOAT64,
shuffle_bytes_to_total_bytes_ratio FLOAT64,
shuffle_spill_bytes FLOAT64,
shuffle_spill_bytes_to_shuffle_bytes_ratio FLOAT64,
shuffle_spill_bytes_to_total_bytes_ratio FLOAT64,
shuffle_spill_gb FLOAT64,
bq_stage_count INT64,
bq_step_count INT64,
bq_sub_step_count INT64,
bq_stage_summary STRING)
PARTITION BY job_date
CLUSTER BY job_name, job_id, job_step_name
OPTIONS (
partition_expiration_days=1000,
description="Log table for mainframe jobs",
require_partition_filter=true)
Substitua:
PROJECT_NAME
: o nome do projeto em que você quer executar o comando.DATASET_NAME
: o nome do arquivo do conjunto de dados.TABLE_NAME
: o nome da tabela SQL em que você para registrar os detalhes.
Nomes de conjuntos de dados
Você pode usar os seguintes arquivos de definição de conjunto de dados (DD) no seu JCL do BQSH. ou o procedimento anterior. Verifique se todos os conjuntos de dados MVS referenciados por um arquivo DD usam o formato de registro bloco fixo (FB).
Nome do DD | Descrição |
---|---|
COPYBOOK | Um conjunto de dados MVS que contém um copybook COBOL para o conjunto de dados referenciado por um DD INFILE. É possível usar o DD de cópia com algumas restrições. Para mais mais informações, consulte Restrições de uso do COPYBOOK DD. |
ENTRAR ARQUIVO | Um conjunto de dados MVS contendo um conjunto de dados COBOL a ser enviado para o Cloud Storage. |
KEYFILE | Um conjunto de dados do MVS que contém um arquivo-chave JSON da conta de serviço do IAM do Google Cloud. |
SAÍDA | Um conjunto de dados MVS que contém um conjunto de dados COBOL a ser carregado do BigQuery. |
CONSULTA DD | Um conjunto de dados MVS que contém uma consulta SQL padrão do BigQuery. O A QUERY DD é um arquivo do FB com um tamanho de registro lógico (LRECL) de 80. Isso significa que cada registro no arquivo tenha 80 bytes. |
STDIN | Entrada de fluxo usada para fornecer comandos do shell. |