Comandos
bq export
Exportar uma tabela do BigQuery.
Sinopse
bq export [options]
Sinalizações e argumentos
Para executar esse comando, você precisa fornecer uma consulta SQL (consulte as flags --sql
e query_dsn
) e um copybook (consulte a flag cobDsn
). É possível executar esse comando no modo local, remoto e independente. Para o modo remoto, consulte as flags --bucket
, --remoteHost
, --remotePort
e --remoteUrl
.
O comando bq export
usa as seguintes flags e argumentos:
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
- (Opcional) Use tamanhos grandes de tabela de destino para consultas SQL legadas.
--batch
- (Opcional) Execute a consulta no modo em lote.
--bucket
=BUCKET- (Opcional) Grave a saída do comando em um local dentro de um bucket do Cloud Storage. Os arquivos de saída são gravados no caminho de destino
gs://BUCKET/EXPORT/
. Esse argumento é obrigatório para o modo remoto. --cobDsn
=DSN- (Opcional) Especifique o DSN do copybook que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler de DD COPYBOOK.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] não estiver presente, o projeto padrão será usado.
--destination_table
=TABLE- (Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
- (Opcional) Valide a consulta sem executá-la.
--encoding
=ENCODING- (opcional) Especifique o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando fornecido, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --exporter_thread_count
=COUNT- (Opcional) Defina o número de linhas de execução do exportador. O valor padrão é 4.
--help
ou-h
- Mostra este texto de ajuda.
--keepAliveTimeInSeconds
=SECONDS- (Opcional) Especifique o tempo limite de atividade em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location
=LOCATION- (Opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_read_queue
=NUMBER- (Opcional) Defina o tamanho máximo da fila de registros Avro. O valor padrão é o dobro do número de linhas de execução.
--max_read_streams
=NUMBER- (Opcional) Defina o número máximo de linhas de execução de streams de leitura. O valor padrão é 4.
--maximum_bytes_billed
=BYTES- (Opcional) Limite os bytes faturados para a consulta.
--order_response
- (Opcional) Mantenha a resposta ordenada conforme retornado do BigQuery.
--outDD
=OUTPUT- (Opcional) Grave os registros de saída no conjunto de dados especificado no z/OS. O valor padrão é DD OUTFILE.
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor padrão éauto
. --query_dsn
=DSN- (Opcional) Leia uma consulta do conjunto de dados especificado no z/OS. Use o formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se você não fornecer um valor, o Mainframe Connector vai ler de DD QUERY.
--remoteHost
=HOST- (Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --remotePort
=PORT- (Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --run_mode
=MODE- (Opcional) Selecione a implementação da exportação. Use uma das seguintes opções:
directstorage
: o arquivo binário é salvo localmente (padrão).gcsoutput
: o arquivo binário é salvo no Cloud Storage.
--sql
=SQL- (Opcional) Especifique a consulta SQL do BigQuery a ser executada.
--stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--timeOutMinutes
=MINUTES- (Opcional) Defina o tempo limite em minutos para a chamada grpc remota. O valor padrão é 90 minutos.
--transcoding_buffer
=BUFFER- (Opcional) Define o tamanho do buffer de transcodificação por linha de execução, em MB. O valor padrão é 20.
--use_cache
={true|false}- (Opcional) Para armazenar os resultados da consulta em cache, defina como "true".
--use_legacy_sql
- (Opcional) Use o SQL legado em vez do SQL padrão.
bq load
Carregar dados em uma tabela do BigQuery.
Sinopse
bq load [options] tablespec path
Sinalizações e argumentos
O comando bq load
usa as seguintes sinalizações e argumentos:
- path
- Especifique uma lista separada por vírgulas de URIs de arquivos de origem. O formato compatível é
gs://bucket/path
. Exemplo:gs://my-bucket/data.orc,gs://my-bucket/more-data.orc
. - tablespec
- Especifique a tabela de destino dos dados. O formato compatível é [PROJECT]:[DATASET].[TABLE]
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--allow_jagged_rows
- (Opcional) Permite a falta de colunas opcionais à direita nos dados CSV.
--allow_quoted_newlines
- (Opcional) Permite novas linhas entre aspas em dados CSV.
--append_table
- (Opcional) Anexe os dados carregados aos dados atuais na tabela de destino.
--autodetect
- (Opcional) Ative a detecção automática de esquema para dados CSV e JSON.
--clustering_fields
=FIELDS- (Opcional) Se especificada, uma lista de colunas separada por vírgulas é usada para agrupar a tabela de destino em uma consulta. Essa flag precisa ser usada com as flags de particionamento de tempo para criar uma tabela particionada por tempo de processamento ou uma tabela particionada em uma coluna
DATE
ouTIMESTAMP
. Quando especificada, a tabela é particionada e, em seguida, armazenada em cluster usando as colunas fornecidas. --dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] não estiver presente, o projeto padrão será usado.
--debug_mode
={true|false}- (Opcional) Defina o nível de geração de registros como "debug".
--destination_kms_key
=KEY- (Opcional) A chave do Cloud KMS para criptografia dos dados da tabela de destino.
--encoding
ou-E
=ENCODING- (opcional) Especifique o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --field_delimiter
ou-F
=FIELD- (Opcional) Especifique o delimitador de coluna nos dados CSV. Use
\t
outab
para delimitadores de tabulação. --help
ou-h
- Mostra este texto de ajuda.
--ignore_unknown_values
=VALUES- (Opcional) Ignora valores extras não reconhecidos em dados CSV ou JSON.
--location
=LOCATION- (Opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_bad_records
=RECORDS- (Opcional) Defina o número máximo de registros inválidos permitidos antes da falha do job. No máximo, cinco erros de qualquer tipo são retornados, seja qual for o valor de
--max_bad_records
. Essa flag se aplica apenas ao carregamento de dados CSV, JSON e Google Sheets. O valor padrão é 0. --max_polling_interval_ms
=MILLISECONDS- (Opcional) O tempo máximo de espera de um job do BigQuery.
--null_marker
=MARKER- (Opcional) Especifique uma string personalizada que represente um valor
NULL
nos dados CSV. --projection_fields
=FIELDS- (Opcional) Se você definir
--source_format
comoDATASTORE_BACKUP
, essa flag vai indicar as propriedades da entidade a serem carregadas de uma exportação do Datastore. Especifique os nomes das propriedades em uma lista separada por vírgulas. Nomes de propriedades diferenciam maiúsculas e minúsculas e precisam se referir às propriedades de nível superior. Também é possível usar essa flag com exportações do Firestore. --quote
=QUOTE- (Opcional) Especifique um caractere de aspas ao redor dos campos nos dados CSV. É possível especificar qualquer caractere de um byte como argumento. O valor padrão é uma aspa dupla ("). Para especificar que não há caracteres de aspas, use uma string vazia.
--replace
- (Opcional) Substitua os dados atuais na tabela de destino pelos dados carregados.
--require_partition_filter
={true|false}- (Opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento só se aplica a tabelas particionadas e se a flag
--time_partitioning_field
estiver definida como "true". O valor padrão é falso. --schema
=SCHEMA- (Opcional) Defina o esquema da tabela de destino. Especifique o valor como uma lista separada por vírgulas de definições de coluna no formato [FIELD]:[DATA_TYPE]. Exemplo:
name:STRING,age:INTEGER,city:STRING
--schema_update_option
=OPTION- (Opcional) Ao anexar dados a uma tabela (em um job de carregamento ou de consulta) ou ao substituir uma partição de tabela, especifique como atualizar o esquema da tabela de destino. Use um dos seguintes valores:
ALLOW_FIELD_ADDITION
: permite que novos campos sejam adicionados.ALLOW_FIELD_RELAXATION
: permite o relaxamento de camposREQUIRED
paraNULLABLE
.
--skip_leading_rows
=NUMBER- (Opcional) Especifique o número de linhas a serem ignoradas no início do arquivo de origem. O valor padrão é 0.
--source_format
=FORMAT- (Opcional) Especifique o formato dos dados de origem. É possível usar um dos seguintes valores:
CSV
,NEWLINE_DELIMITED_JSON
,AVRO
,DATASTORE_BACKUP
(use esse valor para o Filestore),PARQUET
,ORC
. O valor padrão éORC
. --stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifique quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você fornecer um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field
=FIELD- (opcional): especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type
=TYPE- (Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando o seguinte valor:
DAY
. --use_avro_logical_types
={true|false}- (Opcional) Se
--source_format
estiver definido comoAVRO
, defina essa flag como "true" para converter os tipos lógicos nos tipos correspondentes (comoTIMESTAMP
), em vez de usar apenas os tipos brutos (comoINTEGER
). O valor padrão é "false".
bq mk
Crie recursos do BigQuery, como tabelas integradas ou externas, que precisam de particionamento e clustering. Também é possível usar o comando bq mk
para gerar uma tabela do BigQuery diretamente da análise de copybooks COBOL usando a flag --schema_from_copybook
.
Sinopse
bq mk [options]
Sinalizações e argumentos
O comando bq mk
usa as seguintes sinalizações e argumentos:
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--tablespec
=TABLE- Especifique a tabela de destino dos dados. O formato compatível é [PROJECT]:[DATASET].[TABLE].
--clustering_fields
=FIELDS- (Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o clustering de tabelas.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] não estiver presente, o projeto padrão será usado.
--description
=DESCRIPTION- (Opcional) Forneça uma descrição para o conjunto de dados ou a tabela.
--dry_run
- (Opcional) Imprima a instrução de linguagem de definição de dados (DDL) da tabela.
--encoding
=ENCODING- (opcional) Especifique o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --expiration
=EXPIRATION- (Opcional) Especifique a vida útil da tabela. Se você não especificar um valor, o BigQuery criará a tabela com a vida útil padrão do conjunto de dados ou ela não vai expirar.
--external_table_definition
ou-e
=TABLE- (Opcional) Especifique um nome e uma definição de esquema para criar uma tabela externa. Exemplo:
ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help
ou-h
- Mostra este texto de ajuda.
--location
=LOCATION- (Opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor padrão éauto
. --require_partition_filter
={true|false}- (Opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento só se aplica a tabelas particionadas e se a flag
--time_partitioning_field
estiver definida como "true". O valor padrão é "true". --schema
=SCHEMA- (Opcional) Especifique o caminho para um arquivo de esquema JSON local ou uma lista separada por vírgulas de definições de coluna no formato FIELD:DATA_TYPE, FIELD:DATA_TYPE e assim por diante.
--schema_from_copybook
=SCHEMA- (Opcional) Gere o esquema de um copybook.
--table
ou-t
=TABLE- (Opcional) Crie uma tabela.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifique quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você fornecer um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field
=FIELD- (opcional): especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--view
- (Opcional) Crie uma visualização.
bq query
Execute uma consulta do BigQuery.
Sinopse
bq query [options]
Sinalizações e argumentos
É possível executar esse comando nos modos local e remoto. Para o modo remoto, consulte as flags --remoteHost
, --remotePort
e --remoteUrl
e a variável de ambiente BQ_QUERY_REMOTE_EXECUTION
.
O comando bq query
usa as seguintes flags e argumentos:
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
- (Opcional) Use tamanhos grandes de tabela de destino para consultas SQL legadas.
--append_table
- (Opcional) Anexe os dados carregados aos dados atuais na tabela de destino.
--batch
- (Opcional) Execute a consulta no modo em lote.
--clustering_fields
=FIELDS- (Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o clustering de tabelas. Se você especificar esse valor com particionamento, a tabela será particionada e, em seguida, cada partição será agrupada usando as colunas fornecidas.
--create_if_needed
- (Opcional) Crie a tabela de destino se ela não existir.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] não estiver presente, o projeto padrão será usado.
--destination_table
=TABLE- (Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
- (Opcional) Valide a consulta sem executá-la.
--follow
={true|false}- (Opcional) Para rastrear etapas de consulta individuais ou o script como um todo, defina como "true". O valor padrão é falso.
--help
ou-h
- Mostra este texto de ajuda.
--location
=LOCATION- (Opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--maximum_bytes_billed
=BYTES- (Opcional) Especifique o limite de bytes faturados para a consulta.
--parameters
=PARAMETERS- (Opcional) Especifique parâmetros de consulta separados por vírgulas no formato [NAME]:[TYPE]:[VALUE]. Um nome vazio gera um parâmetro de posição. É possível omitir [TYPE] para pressupor um valor
STRING
no formato name::value ou ::value.NULL
produz um valor nulo. --query_dsn
=DSN- (Opcional) Especifique o DSN para ler a consulta, no formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se
query_dsn
não for fornecido, QUERY DD será usado. --remoteHost
=HOST- (Opcional) Especifique o endereço IP do host remoto. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remotePort
=PORT- (Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --replace
- (Opcional) Substitua a tabela de destino pelos resultados da consulta.
--report_row_limit
=LIMIT- (Opcional) Especifique o número máximo de linhas a serem impressas no relatório de auditoria. O valor padrão é 30.
--require_partition_filter
={true|false}- (Opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". O valor padrão é "true".
--schema_update_option
=OPTION- (Opcional) Atualize o esquema da tabela de destino ao anexar dados. Use os valores a seguir:
ALLOW_FIELD_ADDITION
: permite que novos campos sejam adicionados.ALLOW_FIELD_RELAXATION
: permite o relaxamento de camposREQUIRED
paraNULLABLE
.
--split_sql
={true|false}- (Opcional) Defina como "true" para dividir o script SQL de entrada em consultas individuais. O valor padrão é "true".
--stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--sync
={true|false}- (Opcional) Execute o comando no modo síncrono.
--synchronous_mode
={true|false}- (Opcional) Uma alternativa para
--sync
. --timeOutMinutes
=MINUTES- (Opcional) Especifique o tempo limite em minutos para uma resposta de job do BigQuery. O valor padrão é de 240 minutos.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifique quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você fornecer um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field
=FIELD- (opcional): especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type
=TYPE- (Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando um dos seguintes valores:
DAY
,HOUR
,MONTH
,YEAR
. --use_cache
={true|false}- (Opcional) Para armazenar os resultados da consulta em cache, defina como "true". O valor padrão é "true".
--use_legacy_sql
- (Opcional) Use o SQL legado em vez do SQL padrão.
cloud run job cancel
Cancela uma execução de job específica.
Sinopse
cloud run job cancel [-h] --project=PROJECT --region=REGION EXECUTION
Sinalizações e argumentos
O comando cloud run job cancel
usa as seguintes sinalizações e argumentos:
- EXECUTION
- Especifique o nome do ID de execução do job do Cloud Run.
--help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
--project
=PROJECT- Especifique o ID do projeto.
--region
=REGION- : especifique a região em que o recurso pode ser encontrado.
cloud run job execute
Executar um job específico.
Sinopse
cloud run job execute [-h] [--async] [--tail-logs] [--wait] [--dump-execution-id=EXECUTION-ID] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--task-timeout=TIMEOUT] [--args=ARGS]... [--update-env-vars=ENVVARS]... JOB
Sinalizações e argumentos
O comando cloud run job execute
usa as seguintes sinalizações e argumentos:
- JOB
- Especifique o nome do job do Cloud Run a ser executado.
--args
=ARGS- (opcional): argumentos separados por vírgula transmitidos ao comando executado pela imagem do contêiner. Se fornecidos, uma execução será criada com os valores de entrada.
--async
- (Opcional) Especifique essa flag se quiser retornar imediatamente, sem aguardar a conclusão da operação em andamento.
--dump-execution-id
=EXECUTION-ID : DataPath- (Opcional) Especifique o arquivo em que o ID de execução será gravado.
--help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
--polling-interval
=POLLINGINTERVAL- (Opcional) Define o intervalo de polling para mostrar registros quando
--tail_logs
está ativado. O valor padrão é 60 segundos. --project
=PROJECT- Especifique o ID do projeto.
--region
=REGION- Especifique a região em que o recurso pode ser encontrado.
--tail-logs
- (Opcional) Se você executar o comando no modo síncrono especificando a flag
--tail_logs
, o Mainframe Connector vai mostrar os registros de progresso na tela. Se você especificar as flags--tail_logs
e--async
, uma mensagem de erro será exibida. Como o Cloud Logging não oferece suporte ao registro em tempo real, o comando só mostra os registros que já foram gravados. Por isso, alguns registros podem estar faltando quando você usa a flag--tail_logs
. Para conferir os registros completos do job, use o comandocloud run job log
depois que o job for concluído. --task-timeout
=TIMEOUT- (Opcional) Mostra o tempo máximo (prazo) que uma tentativa de tarefa de job pode ser executada. Se não for especificado, o padrão do job será usado.
--update-env-vars
=ENVVARS- (Opcional) Lista de pares de chave-valor a serem definidos como substituições de variáveis de ambiente para a execução de um job.
--wait
- (Opcional) Especifique essa flag se quiser que o comando aguarde até que a execução seja concluída antes de sair.
cloud run job log
Mostrar registros do Cloud Run
Sinopse
cloud run job log [-h] [--tail] [--log-filter=FILTER] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--timeout=TIMEOUT] EXECUTION_ID
Sinalizações e argumentos
O comando cloud run job log
usa as seguintes sinalizações e argumentos:
- EXECUTION_ID
- O nome do ID de execução do job do Cloud Run.
--help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
--log-filter
=FILTER- (Opcional) Expressão de filtro que especifica as entradas de registro a serem retornadas.
--polling-interval
=POLLINGINTERVAL- (Opcional) Define o intervalo de polling para mostrar registros quando
--tail_logs
está ativado. O valor padrão é 60 segundos. --project
=PROJECT- Especifique o ID do projeto.
--region
=REGION- Especifique a região em que o recurso pode ser encontrado.
--tail
- (Opcional) Mostra apenas os novos registros a partir de agora quando definido. Se não for definido, todos os registros de jobs serão mostrados.
--timeout
=TIMEOUT- (Opcional) Tempo limite após o qual o comando será encerrado. Se não for definido, o comando vai atingir o tempo limite quando a execução for encerrada.
copy text
Copie o conjunto de dados de texto.
Sinopse
copy text [-h] [--buffer-size=BUFFERSIZE] INPUT OUTPUT
Sinalizações e argumentos
O comando copy text
usa as seguintes sinalizações e argumentos:
- INPUT : DataPath
- Especifique o caminho dos dados do arquivo de entrada que você quer copiar.
- OUTPUT : DataPath
- Especifique o caminho dos dados do arquivo de saída que você quer copiar e codificar.
--buffer-size
=BUFFERSIZE : DataSize- (Opcional) Indique o tamanho da leitura de memória para cada lote. O valor padrão é 64 MiB.
--help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
gsutil cp
Transcodifique os dados do mainframe para um bucket do Cloud Storage.
Sinopse
gsutil cp [options] gcsUri [dest]
Sinalizações e argumentos
É possível usar esse comando para as seguintes finalidades:
- Copiar e transcodificar um arquivo de um mainframe ou um ambiente Linux para o Cloud Storage.
- Origem:
--inDSN
. Se não for fornecido, será especificado por DD INFILE. - Destino:
gcsUri
- Copiar e transcodificar um arquivo no Cloud Storage
- Origem:
gcsUri
- Destino:
--destPath
- Copie um arquivo do Cloud Storage para um mainframe.
- Origem:
gcsUri
- Destino:
--destDSN
- Flags relevantes:
--lrecl
,--blksize
,--recfm
,--noseek
. - Copie um arquivo do Cloud Storage para um ambiente Linux.
- Origem:
gcsUri
- Destino:
--destPath
--remote
, --remoteHost
, --remotePort
e --remoteUrl
.
O comando gsutil cp
usa as seguintes flags e argumentos:
- dest
- (Opcional) O caminho local ou o nome da fonte de dados (DSN). Exemplos de formatos:
/path/to/file
, DATASET.MEMBER - gcsUri
- O URI do Cloud Storage no formato
gs://bucket/path
. Pode representar o local de origem e de destino, dependendo do uso. --batchSize
=SIZE- (Opcional) Especifique os blocos a serem usados por lote. O valor padrão é 1000.
--blksize
=SIZE- (Opcional) Especifique o tamanho do bloco do arquivo a ser copiado para o mainframe. Se
blksize=0
erecfm
não forem U, o sistema de mainframe vai determinar o tamanho ideal do bloco para o arquivo. --cobDsn
=DSN- (Opcional) Especifique o DSN do copybook que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler de DD COPYBOOK.
--connections
=NUMBER- (Opcional) Especifique o número de conexões que podem ser feitas com o receptor remoto. O valor padrão é 10.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] não estiver presente, o projeto padrão será usado.
--destDSN
=OUTPUT- (Opcional) Especifique o DSN de destino.
--destPath
=OUTPUT- (Opcional) Especifique o caminho de destino.
--dry_run
- (Opcional) Teste a análise e a decodificação do copybook do arquivo QSAM.
--encoding
=ENCODING- (opcional) Especifique o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --help
ou-h
- Mostra este texto de ajuda.
--inDsn
=DSN- (Opcional) Especifique o DSN de entrada que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler de DD INFILE.
--keepAliveTimeInSeconds
=SECONDS- (Opcional) Especifique o tempo limite de atividade em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location
=LOCATION- (Opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--lowerCaseColumnNames
- (Opcional) Crie nomes de colunas em minúsculas para campos de copybook.
--lrecl
=LRECL- (Opcional) Especifique o comprimento do registro lógico (lrecl) do arquivo que você quer copiar para o mainframe.
--maxChunkSize
=SIZE- (Opcional) Especifique o tamanho máximo do bloco por lote. Use K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB ou TB para descrever o tamanho. O valor padrão é 128 MiB.
--max_error_pct
=PCT- (Opcional) Especifique o limite de falha do job para erros de decodificação de linha. Os valores válidos estão no intervalo [0,0, 1,0]. O valor padrão é 0.
--noseek
- (Opcional) Melhore o desempenho do download do Cloud Storage para o mainframe.
--parallel
ou-m
- (Opcional) Defina o número de gravadores simultâneos como 4.
--parallelism
ou-p
=NUMBER- (Opcional) Especifique o número de gravadores simultâneos. O valor padrão é 4.
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor padrão éauto
. --preload_chunk_count
=NUMBER- (Opcional) Especifique o número de partes a serem pré-carregadas dos discos enquanto todos os workers estão ocupados. O valor padrão é 2.
--project_id
=ID- (Opcional) Especifique o projeto a ser usado para executar esse comando.
--recfm
=REFCM- (Opcional) Especifique o recfm do arquivo que você quer copiar para o mainframe. Você pode usar um dos seguintes valores: F, FB, V, VB, U. O valor padrão é FB.
--remote
- (Opcional) Use um decodificador remoto.
--remoteHost
=HOST- (Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --remotePort
=PORT- (Opcional) Especifique a porta remota a ser usada. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --replace
- (Opcional) Exclua o destino de forma recursiva antes de fazer o upload.
--stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--tfDSN
=DSN- (Opcional) Especifique as transformações de um DSN, DATASET.MEMBER ou PDS(MBR).
--tfGCS
=GCS- (Opcional) Especifique o arquivo de transformações do Cloud Storage.
--timeOutMinutes
=MINUTES- (Opcional) Especifique o tempo limite em minutos para uma chamada grpc remota. O valor padrão é de 90 minutos para o Cloud Storage e 50 minutos para um mainframe.
gsutil rm
Remova objetos do Cloud Storage.
Sinopse
gsutil rm [-hR] URL...
Sinalizações e argumentos
O comando gsutil rm
usa as seguintes sinalizações e argumentos:
- URL
- Especifique o local do Cloud Storage no formato
gs://bucket/prefix
. --help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
-R
ou-r
- (Opcional) Exclua recursivamente o conteúdo de diretórios ou objetos que correspondem à expressão de caminho. Não gera um erro se o diretório ou objeto não existir.
pubsub topics publish
Publicar uma mensagem em um tópico do Pub/Sub.
Esse comando permite enviar dados de mensagens diretamente usando a flag --data
ou por um arquivo usando a flag --data-path
. Também é possível incluir atributos, uma chave de ordenação e aplicar propriedades de mensagem. Além disso, é possível aplicar substituições dinâmicas de strings ao conteúdo da mensagem.
Sinopse
pubsub topics publish [-h] [--data=DATA] [--data-path=DATAPATH] [--ordering-key=ORDERING-KEY] [--attributes=NAME=VALUE[, NAME=VALUE...]]... [--message-property=KEY=VALUE]... [--substitution=KEY=VALUE]... TOPIC
Sinalizações e argumentos
O comando pubsub topics publish
usa as seguintes sinalizações e argumentos:
- TOPIC
- Especifique o nome do tópico no formato
projects/{project}/topics/{topic}
. --attributes
=NAME=VALUE- (Opcional) Especifique uma lista de atributos separados por vírgulas. Cada ATTRIBUTE tem o formato
name=value
. É possível especificar até 100 atributos. Para uma lista completa de diretrizes de atributos, consulte Usar atributos para publicar uma mensagem. --data-path
=DATAPATH : DataPath- (Opcional) Especifique o caminho para o arquivo que contém os dados da mensagem. É necessário definir uma das flags
--data
ou--data-path
, mas não ambas. Para mais informações sobre formatação de mensagens e limites de tamanho, consulte Publicar mensagens em tópicos. --data
=DATA- (Opcional) Especifique o corpo da mensagem que você quer publicar no nome do tópico. É necessário definir uma das flags
--data
ou--data-path
, mas não ambas. Para mais informações sobre formatação de mensagens e limites de tamanho, consulte Publicar mensagens em tópicos. --help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
--message-property
=KEY=VALUE- (Opcional) Especifique as propriedades a serem aplicadas à mensagem. Uma chave de propriedade válida é
encoding
. Essa chave de propriedade especifica a codificação de caracteres a ser usada na string de mensagem. A string de mensagem é convertida em bytes usando essa codificação antes de ser enviada ao tópico do Pub/Sub. Para uma lista de valores de codificação compatíveis, consulte codificações compatíveis. O padrão éUTF-8
. --ordering-key
=ORDERING-KEY- (Opcional) Especifique a chave para a entrega ordenada de mensagens aos assinantes. Todas as mensagens com a mesma chave de ordenação são enviadas aos assinantes na ordem em que o Pub/Sub as recebe.
--substitution
=KEY=VALUE(Opcional) Usando
--data
ou--data-path
, especifique os pares de chave-valor que serão usados para a substituição dinâmica nos dados de mensagens do Pub/Sub. O Mainframe Connector verifica os dados da mensagem em busca de marcadores de posição e os substitui pelos valores correspondentes. Defina os marcadores de posição nos dados usando a sintaxe ${KEY}, por exemplo, ${NAME}. Especifique cada substituição como um par de chave-valor usando o formatoKEY=VALUE
. É possível especificar várias substituições repetindo a opção:--substitution key1=value1 --substitution key2=value2
.Por exemplo, se os dados de entrada forem:
Hello, ${username}!
e você usar--substitution username=World
, a mensagem enviada ao Pub/Sub será:Hello, World!
.
qsam decode
Decodifica dados do QSAM.
Esse comando decodifica registros de um arquivo QSAM para o formato especificado usando o argumento --output-format
. O arquivo QSAM original é dividido em partes com base no valor especificado com o argumento --max-chunk-size
. A saída transcodificada é salva no caminho de destino como arquivos classificados lexicograficamente.
Sinopse
qsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE] --copybook=COPYBOOK [--max-error-percent=MAX_ERROR_PERCENT] [--output-format=FORMAT] [--parallelism=COUNT] [--preload-chunk-count=PRELOAD_CHUNK_COUNT] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Sinalizações e argumentos
O comando qsam decode
usa as seguintes sinalizações e argumentos:
- INPUT : DataPath
- Especifique o caminho de dados do arquivo QSAM que você quer decodificar.
- OUTPUT : DataPath
- Especifique o caminho de dados do prefixo de saída. Toda a saída é armazenada nesse prefixo.
--chunk-size
=CHUNK-SIZE : DataSize- (Opcional) Especifique a quantidade de dados de entrada a serem incluídos em cada arquivo de saída. O arquivo de saída pode ser maior ou menor. O tamanho do bloco é arredondado para baixo até o múltiplo mais próximo do comprimento do registro lógico. O valor padrão é 128 MiB.
--copybook
=COPYBOOK : DataPath- Especifique o caminho de dados do arquivo que contém o copybook.
--help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
--input-parameter
=KEY=VALUE(Opcional) Especifique parâmetros para configurar a entrada. Cada parâmetro é definido como
KEY=VALUE
. Estas são as chaves de parâmetro de entrada compatíveis:csv-dialect
: configura a análise de CSV. O valor é umDataPath
que aponta para um arquivo de configuração CSV.json-dialect
: configura a análise de JSON. O valor é umDataPath
que aponta para um arquivo de configuração JSON.pubsub-publish-configuration
: configura as mensagens enviadas ao Pub/Sub. O valor é umDataPath
que aponta para um arquivo de configuração do Pub/Sub.output-prefix
: adiciona um prefixo aos arquivos de saída.
--max-error-percent
=MAX_ERROR_PERCENT(Opcional) Especifique a porcentagem de registros processados que podem ter erros antes da falha do processo de transcodificação. O valor pode variar entre 0,0 (falha se houver erros de transcodificação) e 1,0 (não falha se houver erros de transcodificação). O valor padrão é 0.
--output-format
=FORMAT : TranscodeFormat(Opcional) Especifique o formato do arquivo de saída. Se você fornecer o
DataPath
de um tópico do Pub/Sub como o valor deOUTPUT
, o formato de saída padrão seráJSONL
. Para todos os outrosDataPaths
, o formato de saída padrão éORC
.--parallelism
=COUNT(Opcional) Especifique o número de linhas de execução de processamento. O valor precisa ser igual ou menor que o número de núcleos disponíveis. O valor padrão é 1.
--preload-chunk-count
=PRELOAD_CHUNK_COUNT(Opcional) Especifique o número de partes de dados a serem pré-carregadas quando todas as linhas de execução estiverem em processamento. O valor padrão é 1.
--replace
(Opcional) Se especificado, exclui o caminho de saída de forma recursiva antes de gravar os resultados da decodificação.
--transcode-configuration
=CONFIG : DataPath(Opcional) Especifique o arquivo que contém a configuração de transcodificação. Para mais informações sobre o formato de configuração do transcodificador, consulte Configuração do transcodificador.
qsam encode
Codifique os dados do QSAM.
Esse comando extrai dados de uma fonte externa e os converte em um arquivo QSAM. A entrada é definida pelo valor especificado usando o argumento --input-format
.
Sinopse
qsam encode [-h] --copybook=COPYBOOK --input-format=FORMAT [--input-stream-count=COUNT] [--parallelism=COUNT] [--spillover=SPILLOVER] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Sinalizações e argumentos
O comando qsam encode
usa as seguintes sinalizações e argumentos:
- INPUT : DataPath
- Especifique o caminho dos dados do arquivo de entrada que você quer codificar em um arquivo QSAM.
- OUTPUT : DataPath
- Especifique o caminho dos dados do arquivo QSAM que você quer codificar.
--copybook
=COPYBOOK : DataPath- Especifique o caminho de dados do arquivo que contém o copybook.
--help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
--input-format
=FORMAT : TranscodeInputFormat- Especifique o formato da entrada.
--input-parameter
=KEY=VALUE(Opcional) Especifique parâmetros para configurar a entrada. Cada parâmetro é definido como
KEY=VALUE
. Estas são as chaves de parâmetro de entrada compatíveis:csv-dialect
: configura a análise de CSV. O valor é umDataPath
que aponta para um arquivo de configuração CSV.json-dialect
: configura a análise de JSON. O valor é umDataPath
que aponta para um arquivo de configuração JSON.
--input-stream-count
=COUNT(Opcional) Especifique o número de fluxos de entrada. Esse é um valor máximo. Na realidade, menos streams podem ser usados. O valor padrão é 1.
--parallelism
=COUNT(Opcional) Especifique o número de linhas de execução de processamento. O valor precisa ser igual ou menor que o número de núcleos disponíveis. O valor padrão é 1.
--spillover
=SPILLOVER : DataPath(Opcional) Especifique um caminho de dados para o conjunto de dados de transbordamento. Se você não especificar essas informações, os detalhes do erro serão descartados.
--transcode-configuration
=CONFIG : DataPath(Opcional) Especifique o arquivo que contém a configuração de transcodificação. Para mais informações sobre o formato de configuração do transcodificador, consulte Configuração do transcodificador.
scp
Copie os arquivos para o Cloud Storage.
Sinopse
scp [options] [input] [output]
Sinalizações e argumentos
Para usar esse comando, verifique o seguinte:
- Defina um valor de entrada exclusivo usando
input
,--inDD
ou--inDsn
. - Defina um valor de saída exclusivo usando a saída ou
--gcsOutUri
.
O comando scp
usa as seguintes sinalizações e argumentos:
- input
- (Opcional) Especifique o DD ou DSN a ser copiado. Use
--inDD
ou--inDsn
. - output
- (Opcional) Especifique o URI da saída usando o formato gs://[BUCKET]/[PREFIX]. Use
--gcsOutUri
, em vez disso. --compress
- (Opcional) Compacte a saída com gzip.
--count
ou-n
=RECORDS- (Opcional) Especifique o número de registros a serem copiados. O padrão é ilimitado.
--encoding
=ENCODING- (Opcional) Especifique a codificação de caracteres de entrada. O valor padrão é CP037.
--gcsOutUri
=URI- (Opcional) Especifique o URI de destino do Cloud Storage da cópia do arquivo.
--help
ou-h
- Mostra este texto de ajuda.
--inDD
=INPUT- (Opcional) Especifique o arquivo DD a ser copiado. O valor padrão é DD INFILE.
--inDsn
=INPUT- (Opcional) Especifique o DSN a ser copiado.
--noConvert
- (Opcional) Desativa a conversão da entrada de caracteres para ASCII. A conversão de caracteres é ativada por padrão.
systemreport
Forneça um relatório do sistema.
Sinopse
systemreport [-h] [--available_security_providers] [--supported_ciphers]
Sinalizações e argumentos
O comando systemreport
usa as seguintes sinalizações e argumentos:
--available_security_providers
- (Opcional) Imprima os provedores de segurança compatíveis.
--help
ou-h
- (Opcional) Mostra esta mensagem de ajuda.
--supported_ciphers
- (Opcional) Imprima as cifras compatíveis.
Tipos de parâmetros
Esses tipos comuns são usados em comandos do Mainframe Connector.
DataPath
DataPath
é uma string que representa uma entrada ou uma saída. Cada tipo de DataPath
tem um prefixo e argumentos próprios, conforme a seguir:
DD:
: caminhos de dados com esse prefixo apontam para uma instrução de definição de dados (DD) ao serem executados em um job da linguagem de controle de jobs (JCL). Para mudar a codificação de DD, adicioneencoding=
ao DD. Por exemplo,DD:DDNAME
ouDD:DDNAME?encoding=UTF-8
. A codificação padrão do DD é a do SO.DSN:
: os caminhos de dados com esse prefixo apontam para um nome da fonte de dados (DSN) ao serem executados em um mainframe. Para mudar a codificação do DSN, adicioneencoding=
ao DSN. Por exemplo,DSN:HQ.FOO.BAR
ouDSN:HQ.FOO.BAR?encoding=cp037
.file:
: os caminhos de dados com esse prefixo apontam para um arquivo Unix. É possível especificar o seguinte no arquivo Unix:- O comprimento do registro lógico (LRECL) adicionando
#lrecl
antes de:
. - O formato de registro (RECFM) adicionando
&recfm
antes de:
. O RECFM padrão éF
. - A codificação adicionando
&encoding
antes de:
. A codificação padrão éUTF-8
.
Por exemplo,
file:/path/to/file
,file?80:/path/to/file
,file?80&recfm=FB:/path/to/file
oufile?80&recfm=FB&encoding=cp037:/path/to/file
.- O comprimento do registro lógico (LRECL) adicionando
gs://
: caminhos de dados com esse prefixo apontam para um arquivo no Cloud Storage. É possível especificar o seguinte no arquivo:- O LRECL adicionando
?lrecl=lrecl
após o prefixo do bucket. - O RECFM adicionando
?recfm=recfm
após o prefixo do bucket. O RECFM padrão éF
. - A codificação adicionando
?encoding=
após o prefixo do bucket. A codificação padrão éUTF-8
.
Por exemplo,
gs://my_bucket/my/file.txt
,gs://my_bucket/my/file.txt?encoding=cp037
,gs://my_bucket/my/file.txt?recfm=fb&encoding=cp037
ougs://my_bucket/my/file.txt?lrecl=80&recfm=fb&encoding=recfm
.- O LRECL adicionando
pubsub:
: caminhos de dados com esse prefixo apontam para um recurso do Pub/Sub. Por exemplo,pubsub:projects/projectId/topics/topicId
.
Para arquivos do Cloud Storage ou do Unix, se o RECFM estiver definido como V
, o Mainframe Connector vai ler e gravar os arquivos no formato zzLL da seguinte maneira:
- Os dois primeiros bytes são sempre 0x0000.
- Os dois bytes subsequentes representam o tamanho dos dados.
- Os bytes restantes constituem os dados reais do registro.
DataSize
DataSize
representa um tamanho na forma de uma quantidade e uma unidade de medida, por exemplo, 5 MiB. Você pode usar espaços em branco entre o valor e a magnitude. A análise do tamanho dos dados não diferencia maiúsculas de minúsculas. Portanto, você pode especificar unidades de medida em maiúsculas e minúsculas.
É possível especificar o valor nos seguintes formatos:
- Formato Java:b/k/m/g/t, para byte, kibibyte, mebibyte, gibibyte e tebibyte, respectivamente.
- Formato internacional:KiB/MiB/GiB/TiB, para kibibyte, mebibyte, gibibyte e tebibyte, respectivamente.
- Formato da métrica:b/kb/mb/gb/tb, para kilobyte, megabyte, gigabyte e terabyte, respectivamente.
TranscodeFormat
TranscodeFormat
representa o formato a ser usado durante o processo de transcodificação.
Os valores válidos são:
ORC
:ORC
é um formato de arquivo colunar autodescritivo com reconhecimento de tipo.CSV
:CSV
é um formato de texto simples que armazena dados tabulares com cada linha representando uma linha. É possível especificar os parâmetros de CSV usando o parâmetro de entradacsv-dialect
. Você pode definir como--input-parameter csv-dialect=
DataPath, em que DataPath aponta para o local desses parâmetros.JSONL
:JSONL
é um formato de texto simples que armazena dados tabulares com cada linha representando uma linha. Você pode especificar os parâmetros JSON usando o parâmetro de entradajson-dialect
. Você pode definir como--input-parameter json-dialect=
DataPath, em que DataPath aponta para o local desses parâmetros.
TranscodeInputFormat
O formato a ser usado durante a transcodificação.
Os valores válidos são:
BIGQUERY
: extrai dados diretamente do BigQuery.INPUT
precisa ser um caminho para um arquivo de consulta.Os parâmetros de entrada disponíveis são:
keep_order
: use se a ordem exata dos registros for importante. Isso vai limitar o fluxo de entrada.project_id
: ID do projeto a ser usado ao executar o job.location
: local a ser usado ao executar o job.
CSV
:CSV
é um formato de texto simples que armazena dados tabulares com cada linha representando uma linha. É possível especificar os parâmetros de CSV usando o parâmetro de entradacsv-dialect
. Você pode definir como--input-parameter csv-dialect=
DataPath, em que DataPath aponta para o local desses parâmetros.JSONL
:JSONL
é um formato de texto simples que armazena dados tabulares com cada linha representando uma linha. Você pode especificar os parâmetros JSON usando o parâmetro de entradajson-dialect
. Você pode definir como--input-parameter json-dialect=
DataPath, em que DataPath aponta para o local desses parâmetros.