Comandi
bq export
Esporta una tabella da BigQuery.
Trama
bq export [options]
Flag e argomenti
Per eseguire questo comando, devi fornire una query SQL (vedi i flag --sql
e query_dsn
) e un copybook (vedi il flag cobDsn
). Puoi eseguire questo comando in modalità locale, remota e autonoma. Per la modalità remota, consulta i flag --bucket
, --remoteHost
, --remotePort
e --remoteUrl
.
Il comando bq export
utilizza i seguenti flag e argomenti:
--project_id
=ID- Specifica il progetto da utilizzare per eseguire questo comando.
--allow_large_results
- (Facoltativo) Utilizza dimensioni delle tabelle di destinazione di grandi dimensioni per le query SQL precedente precedenti.
--batch
- (Facoltativo) Esegui la query in modalità batch.
--bucket
=BUCKET- (Facoltativo) Scrivi l'output del comando in una posizione all'interno di un bucket Cloud Storage. I file di output vengono scritti nel percorso di destinazione
gs://BUCKET/EXPORT/
. Questo argomento è obbligatorio per la modalità remota. --cobDsn
=DSN- (Facoltativo) Specifica il DSN del copybook che vuoi utilizzare. Se non fornisci un valore, Mainframe Connector legge da DD COPYBOOK.
--dataset_id
=ID- (Facoltativo) Specifica il set di dati predefinito da utilizzare con il comando. Puoi impostare il valore su [PROJECT_ID]:[DATASET] o [DATASET]. Se [PROJECT_ID] non è presente, viene utilizzato il progetto predefinito.
--destination_table
=TABLE- (Facoltativo) Specifica la tabella di destinazione in cui vuoi scrivere i risultati della query.
--dry_run
- (Facoltativo) Convalida la query senza eseguirla.
--encoding
=ENCODING- (Facoltativo) Specifica il set di caratteri da utilizzare per la codifica e la decodifica dei campi di caratteri. Se fornito, questo valore sostituisce il valore predefinito impostato dalla variabile di ambiente
ENCODING
. --exporter_thread_count
=COUNT- (Facoltativo) Imposta il numero di thread dell'esportatore. Il valore predefinito è 4.
--help
o-h
- Visualizza questo testo di assistenza.
--keepAliveTimeInSeconds
=SECONDS- (Facoltativo) Specifica il timeout keep-alive in secondi per un canale HTTP. Il valore predefinito è 480 secondi.
--location
=LOCATION- (facoltativo) Specifica una regione o una multi-regione in cui eseguire il comando. Il valore predefinito è US.
--max_read_queue
=NUMBER- (Facoltativo) Imposta la dimensione massima della coda dei record Avro. Il valore predefinito è il doppio del numero di thread.
--max_read_streams
=NUMBER- (Facoltativo) Imposta il numero massimo di thread di flussi di lettura. Il valore predefinito è 4.
--maximum_bytes_billed
=BYTES- (Facoltativo) Limita i byte fatturati per la query.
--order_response
- (Facoltativo) Mantieni la risposta ordinata come restituita da BigQuery.
--outDD
=OUTPUT- (Facoltativo) Scrivi i record di output nel set di dati specificato in z/OS. Il valore predefinito è DD OUTFILE.
--parser_type
=TYPE- (Facoltativo) Imposta il parser di configurazione su
legacy
,copybook
oauto
. Il valore predefinito èauto
. --query_dsn
=DSN- (Facoltativo) Leggi una query dal set di dati specificato in z/OS. Utilizza il formato HLQ.MEMBER o HLQ.PDS(MEMBER). Se non fornisci un valore, Mainframe Connector legge da DD QUERY.
--remoteHost
=HOST- (Facoltativo) Specifica l'indirizzo IP dell'host remoto. Per eseguire Mainframe Connector in modalità remota, imposta il flag
--bucket
. --remotePort
=PORT- (Facoltativo) Specifica la porta remota. Il valore predefinito è 51770. Per eseguire Mainframe Connector in modalità remota, imposta il flag
--bucket
. --remoteUrl
=URL- (Facoltativo) Specifica l'URL remoto. Per eseguire Mainframe Connector in modalità remota, imposta il flag
--bucket
. --run_mode
=MODE- (Facoltativo) Seleziona l'implementazione dell'esportazione. Puoi utilizzare una delle seguenti opzioni:
directstorage
: il file binario viene salvato localmente (impostazione predefinita)gcsoutput
: il file binario viene salvato in Cloud Storage
--sql
=SQL- (Facoltativo) Specifica la query SQL di BigQuery da eseguire.
--stats_table
=TABLE- (Facoltativo) Specifica la tabella in cui inserire le statistiche.
--timeOutMinutes
=MINUTES
(Facoltativo) - Imposta il timeout in minuti per la chiamata grpc remota. Il valore predefinito è 90 minuti.
--transcoding_buffer
=BUFFER- (Facoltativo) Imposta le dimensioni del buffer di transcodifica per thread, in MB. Il valore predefinito è 20.
--use_cache
={true|false}- (Facoltativo) Imposta su true per memorizzare nella cache i risultati della query.
--use_legacy_sql
- (Facoltativo) Utilizza SQL precedente anziché SQL standard.
bq load
Carica i dati in una tabella BigQuery.
Trama
bq load [options] tablespec path
Flag e argomenti
Il comando bq load
utilizza i seguenti flag e argomenti:
- path
- Specifica un elenco separato da virgole di URI dei file di origine. Il formato supportato è
gs://bucket/path
. Esempio:gs://my-bucket/data.orc,gs://my-bucket/more-data.orc
. - tablespec
- Specifica la tabella di destinazione per i dati. Il formato supportato è [PROJECT]:[DATASET].[TABLE]
--project_id
=ID- Specifica il progetto da utilizzare per eseguire questo comando.
--allow_jagged_rows
- (Facoltativo) Consenti colonne facoltative finali mancanti nei dati CSV.
--allow_quoted_newlines
- (Facoltativo) Consenti caratteri di fine riga con virgolette all'interno dei dati CSV.
--append_table
- (Facoltativo) Aggiungi i dati caricati ai dati esistenti nella tabella di destinazione.
--autodetect
- (Facoltativo) Abilita il rilevamento automatico dello schema per i dati CSV e JSON.
--clustering_fields
=FIELDS- (Facoltativo) Se specificato, un elenco di colonne separate da virgole viene utilizzato per raggruppare la tabella di destinazione in una query. Questo flag deve essere utilizzato con i flag di partizionamento temporale per creare una tabella partizionata per data di importazione o una tabella partizionata in base a una colonna
DATE
oTIMESTAMP
. Se specificata, la tabella viene prima partizionata e poi raggruppata in cluster utilizzando le colonne fornite. --dataset_id
=ID- (Facoltativo) Specifica il set di dati predefinito da utilizzare con il comando. Puoi impostare il valore su [PROJECT_ID]:[DATASET] o [DATASET]. Se [PROJECT_ID] non è presente, viene utilizzato il progetto predefinito.
--debug_mode
={true|false}- (Facoltativo) Imposta il livello di logging su debug.
--destination_kms_key
=KEY- (Facoltativo) La chiave Cloud KMS per la crittografia dei dati della tabella di destinazione.
--encoding
o-E
=ENCODING- (Facoltativo) Specifica il set di caratteri da utilizzare per la codifica e la decodifica dei campi di caratteri. Se specificato, questo valore sostituisce il valore predefinito impostato dalla variabile di ambiente
ENCODING
. --field_delimiter
o-F
=FIELD- (Facoltativo) Specifica il delimitatore di colonne nei dati CSV. Utilizza
\t
otab
come delimitatori di tabulazione. --help
o-h
- Visualizza questo testo di assistenza.
--ignore_unknown_values
=VALUES- (Facoltativo) Ignora i valori extra non riconosciuti nei dati CSV o JSON.
--location
=LOCATION- (facoltativo) Specifica una regione o una multi-regione in cui eseguire il comando. Il valore predefinito è US.
--max_bad_records
=RECORDS- (Facoltativo) Imposta il numero massimo di record non validi consentiti prima che il job non vada a buon fine. Vengono restituiti al massimo cinque errori di qualsiasi tipo, indipendentemente dal valore di
--max_bad_records
. Questo flag si applica solo al caricamento di dati CSV, JSON e Google Sheets. Il valore predefinito è 0. --max_polling_interval_ms
=MILLISECONDS- (Facoltativo) Il tempo di attesa massimo per un job BigQuery.
--null_marker
=MARKER- (Facoltativo) Specifica una stringa personalizzata che rappresenti un valore
NULL
nei dati CSV. --projection_fields
=FIELDS- (Facoltativo) Se imposti
--source_format
suDATASTORE_BACKUP
, questo flag indica le proprietà dell'entità da caricare da un'esportazione del datastore. Specifica i nomi delle proprietà in un elenco separato da virgole. I nomi delle proprietà sono sensibili alle maiuscole e devono fare riferimento alle proprietà di primo livello. Puoi utilizzare questo flag anche con le esportazioni di Firestore. --quote
=QUOTE- (Facoltativo) Specifica un carattere di citazione per racchiudere i campi nei dati CSV. Puoi specificare qualsiasi carattere a un byte come argomento. Il valore predefinito è una virgoletta doppia ("). Per specificare che non sono presenti caratteri di virgolette, utilizza una stringa vuota.
--replace
- (Facoltativo) Sostituisci i dati esistenti nella tabella di destinazione con i dati caricati.
--require_partition_filter
={true|false}- (Facoltativo) Imposta su true per avere un filtro di partizione per le query sulla tabella fornita. Questo argomento si applica solo alle tabelle partizionate e se il flag
--time_partitioning_field
è impostato su true. Il valore predefinito è false. --schema
=SCHEMA- (Facoltativo) Definisci lo schema della tabella di destinazione. Specifica il valore come elenco separato da virgole di definizioni di colonne nel formato [FIELD]:[DATA_TYPE]. Esempio:
name:STRING,age:INTEGER,city:STRING
--schema_update_option
=OPTION- (Facoltativo) Quando aggiungi dati a una tabella (in un job di caricamento o di query) o quando sovrascrivi una partizione di tabella, specifica come aggiornare lo schema della tabella di destinazione. Utilizza uno dei seguenti valori:
ALLOW_FIELD_ADDITION
: Consenti l'aggiunta di nuovi campiALLOW_FIELD_RELAXATION
: Consenti ai campi di rilassamentoREQUIRED
diNULLABLE
--skip_leading_rows
=NUMBER- (Facoltativo) Specifica il numero di righe da ignorare all'inizio del file di origine. Il valore predefinito è 0.
--source_format
=FORMAT- (Facoltativo) Specifica il formato dei dati di origine. Puoi utilizzare uno dei seguenti valori:
CSV
,NEWLINE_DELIMITED_JSON
,AVRO
,DATASTORE_BACKUP
(utilizza questo valore per Filestore),PARQUET
,ORC
. Il valore predefinito èORC
. --stats_table
=TABLE- (Facoltativo) Specifica la tabella in cui inserire le statistiche.
--time_partitioning_expiration
=SECONDS- (Facoltativo) Specifica quando deve essere eliminata una partizione basata sul tempo, in secondi. Il tempo di scadenza corrisponde alla data UTC della partizione più il valore specificato. Se fornisci un numero negativo, la partizione basata sul tempo non scade mai.
--time_partitioning_field
=FIELD- (Facoltativo) Specifica il campo utilizzato per determinare come creare una partizione basata sul tempo. Se il partizionamento basato sul tempo è attivato senza questo valore, la tabella viene partizionata in base all'ora di caricamento.
--time_partitioning_type
=TYPE- (Facoltativo) Abilita il partizionamento basato sul tempo in una tabella e imposta il tipo di partizione utilizzando il seguente valore:
DAY
. --use_avro_logical_types
={true|false}- (Facoltativo) Se
--source_format
è impostato suAVRO
, imposta questo flag su true per convertire i tipi logici nei tipi corrispondenti (ad esempioTIMESTAMP
) anziché utilizzare solo i tipi non elaborati (ad esempioINTEGER
). Il valore predefinito è false.
bq mk
Crea una risorsa BigQuery, ad esempio tabelle integrate o tabelle esterne, per cui è necessario configurare il partizionamento e il clustering. Puoi anche utilizzare il comando bq mk
per generare una tabella BigQuery direttamente dall'analisi dei copybook COBOL utilizzando il flag --schema_from_copybook
.
Trama
bq mk [options]
Flag e argomenti
Il comando bq mk
utilizza i seguenti flag e argomenti:
--project_id
=ID- Specifica il progetto da utilizzare per eseguire questo comando.
--tablespec
=TABLE- Specifica la tabella di destinazione per i dati. Il formato supportato è [PROJECT]:[DATASET].[TABLE].
--clustering_fields
=FIELDS- (Facoltativo) Specifica un elenco separato da virgole di massimo quattro nomi di colonne che specificano i campi da utilizzare per il clustering delle tabelle.
--dataset_id
=ID- (Facoltativo) Specifica il set di dati predefinito da utilizzare con il comando. Puoi impostare il valore su [PROJECT_ID]:[DATASET] o [DATASET]. Se [PROJECT_ID] non è presente, viene utilizzato il progetto predefinito.
--description
=DESCRIPTION- (Facoltativo) Fornisci una descrizione del set di dati o della tabella.
--dry_run
- (Facoltativo) Stampa l'istruzione DDL (Data Definition Language) della tabella.
--encoding
=ENCODING- (Facoltativo) Specifica il set di caratteri da utilizzare per la codifica e la decodifica dei campi di caratteri. Se specificato, questo valore sostituisce il valore predefinito impostato dalla variabile di ambiente
ENCODING
. --expiration
=EXPIRATION- (Facoltativo) Specifica la durata della tabella. Se non specifichi un valore, BigQuery crea la tabella con la durata predefinita della tabella del set di dati oppure la tabella non scade.
--external_table_definition
o-e
=TABLE- (Facoltativo) Specifica un nome e una definizione dello schema per creare una tabella esterna. Esempio:
ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help
o-h
- Visualizza questo testo di assistenza.
--location
=LOCATION- (facoltativo) Specifica una regione o una multi-regione in cui eseguire il comando. Il valore predefinito è US.
--parser_type
=TYPE- (Facoltativo) Imposta il parser di configurazione su
legacy
,copybook
oauto
. Il valore predefinito èauto
. --require_partition_filter
={true|false}- (Facoltativo) Imposta su true per avere un filtro di partizione per le query sulla tabella fornita. Questo argomento si applica solo alle tabelle partizionate e se il flag
--time_partitioning_field
è impostato su true. Il valore predefinito è true. --schema
=SCHEMA- (Facoltativo) Specifica il percorso a un file JSON di schema locale oppure un elenco di definizioni di colonne separate da virgole nel formato FIELD:DATA_TYPE, FIELD:DATA_TYPE e così via.
--schema_from_copybook
=SCHEMA- (Facoltativo) Genera lo schema da un copybook.
--table
o-t
=TABLE- (Facoltativo) Crea una tabella.
--time_partitioning_expiration
=SECONDS- (Facoltativo) Specifica quando deve essere eliminata una partizione basata sul tempo, in secondi. Il tempo di scadenza corrisponde alla data UTC della partizione più il valore specificato. Se fornisci un numero negativo, la partizione basata sul tempo non scade mai.
--time_partitioning_field
=FIELD- (Facoltativo) Specifica il campo utilizzato per determinare come creare una partizione basata sul tempo. Se il partizionamento basato sul tempo è attivato senza questo valore, la tabella viene partizionata in base all'ora di caricamento.
--view
- (Facoltativo) Crea una visualizzazione.
bq query
Esegui una query BigQuery.
Trama
bq query [options]
Flag e argomenti
Puoi eseguire questo comando nelle modalità locale e remota. Per la modalità remota, vedi i flag --remoteHost
, --remotePort
e --remoteUrl
e la variabile di ambiente BQ_QUERY_REMOTE_EXECUTION
.
Il comando bq query
utilizza i seguenti flag e argomenti:
--project_id
=ID- Specifica il progetto da utilizzare per eseguire questo comando.
--allow_large_results
- (Facoltativo) Utilizza dimensioni delle tabelle di destinazione di grandi dimensioni per le query SQL precedente precedenti.
--append_table
- (Facoltativo) Aggiungi i dati caricati ai dati esistenti nella tabella di destinazione.
--batch
- (Facoltativo) Esegui la query in modalità batch.
--clustering_fields
=FIELDS- (Facoltativo) Specifica un elenco separato da virgole di massimo quattro nomi di colonna che specificano i campi da utilizzare per il clustering delle tabelle. Se specifichi questo valore con il partizionamento, la tabella viene prima partizionata e poi ogni partizione viene raggruppata in cluster utilizzando le colonne fornite.
--create_if_needed
- (Facoltativo) Crea la tabella di destinazione se non esiste.
--dataset_id
=ID- (Facoltativo) Specifica il set di dati predefinito da utilizzare con il comando. Puoi impostare il valore su [PROJECT_ID]:[DATASET] o [DATASET]. Se [PROJECT_ID] non è presente, viene utilizzato il progetto predefinito.
--destination_table
=TABLE- (Facoltativo) Specifica la tabella di destinazione in cui vuoi scrivere i risultati della query.
--dry_run
- (Facoltativo) Convalida la query senza eseguirla.
--follow
={true|false}- (Facoltativo) Imposta su true per monitorare i singoli passaggi della query o lo script nel suo complesso. Il valore predefinito è false.
--help
o-h
- Visualizza questo testo di assistenza.
--location
=LOCATION- (facoltativo) Specifica una regione o una multi-regione in cui eseguire il comando. Il valore predefinito è US.
--maximum_bytes_billed
=BYTES- (Facoltativo) Specifica il limite dei byte fatturati per la query.
--parameters
=PARAMETERS- (Facoltativo) Specifica i parametri di ricerca separati da virgole nel formato [NAME]:[TYPE]:[VALUE]. Un nome vuoto crea un parametro posizionale. Puoi omettere [TYPE] per presupporre un valore
STRING
nel formato name::value o ::value.NULL
produce un valore nullo. --query_dsn
=DSN- (Facoltativo) Specifica il DSN da cui leggere la query nel formato HLQ.MEMBER o HLQ.PDS(MEMBER). Se
query_dsn
non viene fornito, viene utilizzato QUERY DD. --remoteHost
=HOST- (Facoltativo) Specifica l'indirizzo IP dell'host remoto. Per eseguire la query in modalità remota, imposta la variabile di ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remotePort
=PORT- (Facoltativo) Specifica la porta remota. Il valore predefinito è 51770. Per eseguire la query in modalità remota, imposta la variabile di ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remoteUrl
=URL- (Facoltativo) Specifica l'URL remoto. Per eseguire la query in modalità remota, imposta la variabile di ambiente
BQ_QUERY_REMOTE_EXECUTION
. --replace
- (Facoltativo) Sovrascrivi la tabella di destinazione con i risultati della query.
--report_row_limit
=LIMIT- (Facoltativo) Specifica il numero massimo di righe da stampare nel report di controllo. Il valore predefinito è 30.
--require_partition_filter
={true|false}- (Facoltativo) Imposta su true per avere un filtro di partizione per le query sulla tabella fornita. Il valore predefinito è true.
--schema_update_option
=OPTION- (Facoltativo) Aggiorna lo schema della tabella di destinazione durante l'aggiunta dei dati. Utilizza i seguenti valori:
ALLOW_FIELD_ADDITION
: consente di aggiungere nuovi campi.ALLOW_FIELD_RELAXATION
: consente di rilassare i campiREQUIRED
fino aNULLABLE
.
--split_sql
={true|false}- (Facoltativo) Imposta su true per dividere lo script SQL di input in singole query. Il valore predefinito è true.
--stats_table
=TABLE- (Facoltativo) Specifica la tabella in cui inserire le statistiche.
--sync
={true|false}- (Facoltativo) Esegui il comando in modalità sincrona.
--synchronous_mode
={true|false}- (Facoltativo) Un'alternativa a
--sync
. --timeOutMinutes
=MINUTES- (Facoltativo) Specifica il timeout in minuti per una risposta del job BigQuery. Il valore predefinito è 240 minuti.
--time_partitioning_expiration
=SECONDS- (Facoltativo) Specifica quando deve essere eliminata una partizione basata sul tempo, in secondi. Il tempo di scadenza corrisponde alla data UTC della partizione più il valore specificato. Se fornisci un numero negativo, la partizione basata sul tempo non scade mai.
--time_partitioning_field
=FIELD- (Facoltativo) Specifica il campo utilizzato per determinare come creare una partizione basata sul tempo. Se il partizionamento basato sul tempo è attivato senza questo valore, la tabella viene partizionata in base all'ora di caricamento.
--time_partitioning_type
=TYPE- (Facoltativo) Attiva il partizionamento basato sul tempo in una tabella e imposta il tipo di partizione utilizzando uno dei seguenti valori:
DAY
,HOUR
,MONTH
,YEAR
. --use_cache
={true|false}- (Facoltativo) Imposta su true per memorizzare nella cache i risultati della query. Il valore predefinito è true.
--use_legacy_sql
- (Facoltativo) Utilizza SQL precedente anziché SQL standard.
cloud run job cancel
Annulla l'esecuzione di un job specifico.
Trama
cloud run job cancel [-h] --project=PROJECT --region=REGION EXECUTION
Flag e argomenti
Il comando cloud run job cancel
utilizza i seguenti flag e argomenti:
- EXECUTION
- Specifica il nome dell'ID esecuzione del job Cloud Run.
--help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
--project
=PROJECT- Specifica l'ID progetto.
--region
=REGION- Specifica la regione in cui si trova la risorsa.
cloud run job execute
Esegui un job specifico.
Trama
cloud run job execute [-h] [--async] [--tail-logs] [--wait] [--dump-execution-id=EXECUTION-ID] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--task-timeout=TIMEOUT] [--args=ARGS]... [--update-env-vars=ENVVARS]... JOB
Flag e argomenti
Il comando cloud run job execute
utilizza i seguenti flag e argomenti:
- JOB
- Specifica il nome del job Cloud Run da eseguire.
--args
=ARGS- (Facoltativo) Argomenti separati da virgole passati al comando eseguito dall'immagine container. Se fornito, verrà creata un'esecuzione con i valori di input.
--async
- (Facoltativo) Specifica questo flag se vuoi tornare immediatamente, senza attendere il completamento dell'operazione in corso.
--dump-execution-id
=EXECUTION-ID : DataPath- (Facoltativo) Specifica il file in cui scrivere l'ID esecuzione.
--help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
--polling-interval
=POLLINGINTERVAL- (Facoltativo) Imposta l'intervallo di polling per la visualizzazione dei log quando
--tail_logs
è attivato. Il valore predefinito è 60 secondi. --project
=PROJECT- Specifica l'ID progetto.
--region
=REGION- Specifica la regione in cui si trova la risorsa.
--tail-logs
- (Facoltativo) Se esegui il comando in modalità sincrona specificando il flag
--tail_logs
, Mainframe Connector visualizza i log di avanzamento sullo schermo. Se specifichi sia i flag--tail_logs
che--async
, viene visualizzato un messaggio di errore. Poiché Cloud Logging non supporta la registrazione dei log in tempo reale, il comando mostra solo i log già registrati. Di conseguenza, alcuni log potrebbero mancare quando utilizzi il flag--tail_logs
. Per visualizzare i log completi del job, utilizza il comandocloud run job log
al termine del job. --task-timeout
=TIMEOUT- (Facoltativo) Mostra il tempo massimo (scadenza) esistente per l'esecuzione di un tentativo di attività del job. Se non specificato, verrà utilizzato il valore predefinito del job.
--update-env-vars
=ENVVARS- (Facoltativo) Elenco di coppie chiave-valore da impostare come override delle variabili di ambiente per l'esecuzione di un job.
--wait
- (Facoltativo) Specifica questo flag se vuoi che il comando attenda il completamento dell'esecuzione prima di uscire.
cloud run job log
Visualizza i log di Cloud Run
Trama
cloud run job log [-h] [--tail] [--log-filter=FILTER] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--timeout=TIMEOUT] EXECUTION_ID
Flag e argomenti
Il comando cloud run job log
utilizza i seguenti flag e argomenti:
- EXECUTION_ID
- Il nome dell'ID esecuzione del job Cloud Run.
--help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
--log-filter
=FILTER- (Facoltativo) Espressione di filtro che specifica le voci di log da restituire.
--polling-interval
=POLLINGINTERVAL- (Facoltativo) Imposta l'intervallo di polling per la visualizzazione dei log quando
--tail_logs
è attivato. Il valore predefinito è 60 secondi. --project
=PROJECT- Specifica l'ID progetto.
--region
=REGION- Specifica la regione in cui si trova la risorsa.
--tail
- (Facoltativo) Se impostato, mostra solo i nuovi log a partire da questo momento. Se non è impostato, verranno mostrati tutti i log dei job.
--timeout
=TIMEOUT- (Facoltativo) Timeout dopo il quale il comando verrà chiuso. Se non è impostato, il comando scade quando l'esecuzione termina.
copy text
Copia il set di dati di testo.
Trama
copy text [-h] [--buffer-size=BUFFERSIZE] INPUT OUTPUT
Flag e argomenti
Il comando copy text
utilizza i seguenti flag e argomenti:
- INPUT : DataPath
- Specifica il percorso dei dati del file di input che vuoi copiare.
- OUTPUT : DataPath
- Specifica il percorso dei dati del file di output che vuoi copiare e codificare.
--buffer-size
=BUFFERSIZE : DataSize- (Facoltativo) Indica le dimensioni di lettura della memoria per ogni blocco. Il valore predefinito è 64 MiB.
--help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
gsutil cp
Esegui la transcodifica dei dati dal mainframe a un bucket Cloud Storage.
Trama
gsutil cp [options] gcsUri [dest]
Flag e argomenti
Puoi utilizzare questo comando per i seguenti scopi:
- Copia e transcodifica un file da un ambiente Mainframe o Linux a Cloud Storage.
- Fonte:
--inDSN
. Se non fornito, viene specificato da DD INFILE. - Destinazione:
gcsUri
- Copiare e transcodificare un file in Cloud Storage
- Origine:
gcsUri
- Destinazione:
--destPath
- Copia un file da Cloud Storage a un mainframe.
- Origine:
gcsUri
- Destinazione:
--destDSN
- Flag pertinenti:
--lrecl
,--blksize
,--recfm
,--noseek
. - Copia un file da Cloud Storage in un ambiente Linux.
- Origine:
gcsUri
- Destinazione:
--destPath
--remote
, --remoteHost
, --remotePort
e --remoteUrl
.
Il comando gsutil cp
utilizza i seguenti flag e argomenti:
- dest
- (Facoltativo) Il percorso locale o il nome dell'origine dati (DSN). Formati di esempio:
/path/to/file
, DATASET.MEMBER - gcsUri
- L'URI Cloud Storage nel formato
gs://bucket/path
. Può rappresentare sia la posizione di origine che quella di destinazione, a seconda dell'utilizzo. --batchSize
=SIZE- (Facoltativo) Specifica i blocchi da utilizzare per batch. Il valore predefinito è 1000.
--blksize
=SIZE- (Facoltativo) Specifica la dimensione del blocco del file da copiare nel mainframe. Se
blksize=0
erecfm
non sono U, il sistema mainframe determina la dimensione ottimale del blocco per il file. --cobDsn
=DSN- (Facoltativo) Specifica il DSN del copybook che vuoi utilizzare. Se non fornisci un valore, Mainframe Connector legge da DD COPYBOOK.
--connections
=NUMBER- (Facoltativo) Specifica il numero di connessioni che possono essere effettuate al ricevitore remoto. Il valore predefinito è 10.
--dataset_id
=ID- (Facoltativo) Specifica il set di dati predefinito da utilizzare con il comando. Puoi impostare il valore su [PROJECT_ID]:[DATASET] o [DATASET]. Se [PROJECT_ID] non è presente, viene utilizzato il progetto predefinito.
--destDSN
=OUTPUT- (Facoltativo) Specifica il DSN di destinazione.
--destPath
=OUTPUT- (Facoltativo) Specifica il percorso di destinazione.
--dry_run
- (Facoltativo) Testa l'analisi e la decodifica del copybook del file QSAM.
--encoding
=ENCODING- (Facoltativo) Specifica il set di caratteri da utilizzare per la codifica e la decodifica dei campi di caratteri. Se specificato, questo valore sostituisce il valore predefinito impostato dalla variabile di ambiente
ENCODING
. --help
o-h
- Visualizza questo testo di assistenza.
--inDsn
=DSN- (Facoltativo) Specifica il DSN nel file che vuoi utilizzare. Se non fornisci un valore, Mainframe Connector legge da DD INFILE.
--keepAliveTimeInSeconds
=SECONDS- (Facoltativo) Specifica il timeout keep-alive in secondi per un canale HTTP. Il valore predefinito è 480 secondi.
--location
=LOCATION- (facoltativo) Specifica una regione o una multi-regione in cui eseguire il comando. Il valore predefinito è US.
--lowerCaseColumnNames
- (Facoltativo) Crea nomi di colonne in minuscolo per i campi del copybook.
--lrecl
=LRECL- (Facoltativo) Specifica la lunghezza del record logico (lrecl) del file che vuoi copiare nel mainframe.
--maxChunkSize
=SIZE- (Facoltativo) Specifica la dimensione massima del blocco per batch. Per descrivere la dimensione, devi utilizzare K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB o TB. Il valore predefinito è 128 MiB.
--max_error_pct
=PCT- (Facoltativo) Specifica la soglia di errore del job per gli errori di decodifica delle righe. I valori validi sono compresi nell'intervallo [0,0, 1,0]. Il valore predefinito è 0.
--noseek
- (Facoltativo) Migliora le prestazioni di download da Cloud Storage al mainframe.
--parallel
o-m
- (Facoltativo) Imposta il numero di autori simultanei su 4.
--parallelism
o-p
=NUMBER- (Facoltativo) Specifica il numero di autori simultanei. Il valore predefinito è 4.
--parser_type
=TYPE- (Facoltativo) Imposta il parser di configurazione su
legacy
,copybook
oauto
. Il valore predefinito èauto
. --preload_chunk_count
=NUMBER- (Facoltativo) Specifica il numero di blocchi da precaricare dai dischi mentre tutti i worker sono occupati. Il valore predefinito è 2.
--project_id
=ID- (Facoltativo) Specifica il progetto da utilizzare per eseguire questo comando.
--recfm
=REFCM- (Facoltativo) Specifica il recfm del file che vuoi copiare nel mainframe. Puoi utilizzare uno dei seguenti valori: F, FB, V, VB, U. Il valore predefinito è FB.
--remote
- (Facoltativo) Utilizza un decoder remoto.
--remoteHost
=HOST- (Facoltativo) Specifica l'indirizzo IP dell'host remoto. Per eseguire Mainframe Connector in modalità remota, imposta il flag
--remote
. --remotePort
=PORT- (Facoltativo) Specifica la porta remota da utilizzare. Il valore predefinito è 51770. Per eseguire Mainframe Connector in modalità remota, imposta il flag
--remote
. --remoteUrl
=URL- (Facoltativo) Specifica l'URL remoto. Per eseguire Mainframe Connector in modalità remota, imposta il flag
--remote
. --replace
- (Facoltativo) Elimina la destinazione in modo ricorsivo prima del caricamento.
--stats_table
=TABLE- (Facoltativo) Specifica la tabella in cui inserire le statistiche.
--tfDSN
=DSN
(Facoltativo) - specifica le trasformazioni da un DSN, DATASET.MEMBER o PDS(MBR).
--tfGCS
=GCS- (Facoltativo) Specifica il file di trasformazioni da Cloud Storage.
--timeOutMinutes
=MINUTES- (Facoltativo) Specifica il timeout in minuti per una chiamata grpc remota. Il valore predefinito è 90 minuti per Cloud Storage e 50 minuti per un mainframe.
gsutil rm
Rimuovi gli oggetti Cloud Storage.
Trama
gsutil rm [-hR] URL...
Flag e argomenti
Il comando gsutil rm
utilizza i seguenti flag e argomenti:
- URL
- Specifica la posizione di Cloud Storage nel formato
gs://bucket/prefix
. --help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
-R
o-r
- (Facoltativo) Elimina in modo ricorsivo i contenuti di directory o oggetti che corrispondono all'espressione del percorso. Non genera un errore se la directory o l'oggetto non esiste.
pubsub topics publish
Pubblica un messaggio in un argomento Pub/Sub.
Questo comando consente di inviare i dati dei messaggi direttamente utilizzando il flag --data
o tramite un file utilizzando il flag --data-path
. Puoi anche includere attributi, una chiave di ordinamento e applicare le proprietà dei messaggi. Inoltre, puoi applicare sostituzioni di stringhe dinamiche al contenuto del messaggio.
Trama
pubsub topics publish [-h] [--data=DATA] [--data-path=DATAPATH] [--ordering-key=ORDERING-KEY] [--attributes=NAME=VALUE[, NAME=VALUE...]]... [--message-property=KEY=VALUE]... [--substitution=KEY=VALUE]... TOPIC
Flag e argomenti
Il comando pubsub topics publish
utilizza i seguenti flag e argomenti:
- TOPIC
- Specifica il nome dell'argomento nel formato
projects/{project}/topics/{topic}
. --attributes
=NAME=VALUE- (Facoltativo) Specifica un elenco di attributi separati da virgole. Ogni ATTRIBUTE ha il formato
name=value
. Puoi specificare fino a 100 attributi. Per un elenco completo delle linee guida per gli attributi, consulta Utilizzare gli attributi per pubblicare un messaggio. --data-path
=DATAPATH : DataPath- (Facoltativo) Specifica il percorso del file contenente i dati del messaggio. Devi impostare uno dei flag
--data
o--data-path
, ma non entrambi. Per ulteriori informazioni sulla formattazione dei messaggi e sui limiti di dimensione, vedi Pubblicare messaggi per argomenti. --data
=DATA- (Facoltativo) Specifica il corpo del messaggio che vuoi pubblicare con il nome dell'argomento specificato. Devi impostare uno dei flag
--data
o--data-path
, ma non entrambi. Per ulteriori informazioni sulla formattazione dei messaggi e sui limiti di dimensione, vedi Pubblicare messaggi per argomenti. --help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
--message-property
=KEY=VALUE- (Facoltativo) Specifica le proprietà da applicare al messaggio. Una chiave di proprietà valida è
encoding
. Questa chiave di proprietà specifica la codifica dei caratteri da utilizzare per la stringa del messaggio. La stringa del messaggio viene convertita in byte utilizzando questa codifica prima di essere inviata all'argomento Pub/Sub. Per un elenco dei valori di codifica supportati, consulta Codifiche supportate. Il valore predefinito èUTF-8
. --ordering-key
=ORDERING-KEY- (Facoltativo) Specifica la chiave per la consegna ordinata dei messaggi agli abbonati. Tutti i messaggi con la stessa chiave di ordinamento vengono inviati ai sottoscrittori nell'ordine in cui li riceve Pub/Sub.
--substitution
=KEY=VALUE(Facoltativo) Utilizzando
--data
o--data-path
, specifica le coppie chiave-valore da utilizzare per la sostituzione dinamica da applicare ai dati dei messaggi Pub/Sub. Mainframe Connector esegue la scansione dei dati dei messaggi per individuare i segnaposto e li sostituisce con i valori corrispondenti. Definisci i segnaposto nei dati utilizzando la sintassi ${KEY}, ad esempio ${NAME}. Specifica ogni sostituzione come una coppia chiave-valore utilizzando il formatoKEY=VALUE
. Puoi specificare più sostituzioni ripetendo l'opzione:--substitution key1=value1 --substitution key2=value2
.Ad esempio, se i dati di input sono:
Hello, ${username}!
e utilizzi--substitution username=World
, il messaggio inviato a Pub/Sub sarà:Hello, World!
.
qsam decode
Decodifica i dati QSAM.
Questo comando decodifica i record da un file QSAM nel formato specificato utilizzando l'argomento --output-format
. Il file QSAM originale viene suddiviso in blocchi in base al valore specificato con l'argomento --max-chunk-size
. L'output transcodificato viene salvato nel percorso di destinazione come file ordinati in ordine lessicografico.
Trama
qsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE] --copybook=COPYBOOK [--max-error-percent=MAX_ERROR_PERCENT] [--output-format=FORMAT] [--parallelism=COUNT] [--preload-chunk-count=PRELOAD_CHUNK_COUNT] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Flag e argomenti
Il comando qsam decode
utilizza i seguenti flag e argomenti:
- INPUT : DataPath
- Specifica il percorso dei dati del file QSAM che vuoi decodificare.
- OUTPUT : DataPath
- Specifica il percorso dati del prefisso di output. Tutti gli output vengono archiviati con questo prefisso.
--chunk-size
=CHUNK-SIZE : DataSize- (Facoltativo) Specifica la quantità di dati di input da includere in ogni file di output. Il file di output potrebbe essere più grande o più piccolo. La dimensione del blocco viene arrotondata per difetto al multiplo più vicino della lunghezza del record logico. Il valore predefinito è 128 MiB.
--copybook
=COPYBOOK : DataPath- Specifica il percorso dei dati del file contenente il copybook.
--help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
--input-parameter
=KEY=VALUE(Facoltativo) Specifica i parametri per configurare l'input. Ogni parametro è definito come
KEY=VALUE
. Le chiavi dei parametri di input supportate sono le seguenti:csv-dialect
: configura l'analisi CSV. Il valore è unDataPath
che punta a un file di configurazione CSV.json-dialect
: configura l'analisi JSON. Il valore è unDataPath
che rimanda al file di configurazione JSON.pubsub-publish-configuration
: configura i messaggi inviati a Pub/Sub. Il valore è unDataPath
che punta a un file di configurazione Pub/Sub.output-prefix
: aggiungi il prefisso ai file di output.
--max-error-percent
=MAX_ERROR_PERCENT(Facoltativo) Specifica la percentuale di record elaborati che possono presentare errori prima che la procedura di transcodifica non vada a buon fine. Il valore può variare tra 0,0 (errore se si verificano errori di transcodifica) e 1,0 (nessun errore se si verificano errori di transcodifica). Il valore predefinito è 0.
--output-format
=FORMAT : TranscodeFormat(Facoltativo) Specifica il formato del file di output. Se fornisci
DataPath
di un argomento Pub/Sub come valore diOUTPUT
, il formato di output predefinito èJSONL
. Per tutti gli altriDataPaths
, il formato di output predefinito èORC
.--parallelism
=COUNT(Facoltativo) Specifica il numero di thread di elaborazione. Il valore deve essere uguale o inferiore al numero di core disponibili. Il valore predefinito è 1.
--preload-chunk-count
=PRELOAD_CHUNK_COUNT(Facoltativo) Specifica il numero di blocchi di dati da precaricare quando tutti i thread sono in elaborazione. Il valore predefinito è 1.
--replace
(Facoltativo) Se specificato, elimina il percorso di output in modo ricorsivo prima di scrivere i risultati della decodifica.
--transcode-configuration
=CONFIG : DataPath(Facoltativo) Specifica il file contenente la configurazione della transcodifica. Per ulteriori informazioni sul formato di configurazione del transcodificatore, consulta Configurazione del transcodificatore.
qsam encode
Codifica i dati QSAM.
Questo comando prende i dati da un'origine esterna e li converte in un file QSAM. L'input è definito dal valore specificato utilizzando l'argomento --input-format
.
Trama
qsam encode [-h] --copybook=COPYBOOK --input-format=FORMAT [--input-stream-count=COUNT] [--parallelism=COUNT] [--spillover=SPILLOVER] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Flag e argomenti
Il comando qsam encode
utilizza i seguenti flag e argomenti:
- INPUT : DataPath
- Specifica il percorso dati del file di input che vuoi codificare in un file QSAM.
- OUTPUT : DataPath
- Specifica il percorso dei dati del file QSAM che vuoi codificare.
--copybook
=COPYBOOK : DataPath- Specifica il percorso dei dati del file contenente il copybook.
--help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
--input-format
=FORMAT : TranscodeInputFormat- Specifica il formato dell'input.
--input-parameter
=KEY=VALUE(Facoltativo) Specifica i parametri per configurare l'input. Ogni parametro è definito come
KEY=VALUE
. Le chiavi dei parametri di input supportate sono le seguenti:csv-dialect
: configura l'analisi CSV. Il valore è unDataPath
che punta a un file di configurazione CSV.json-dialect
: configura l'analisi JSON. Il valore è unDataPath
che rimanda al file di configurazione JSON.
--input-stream-count
=COUNT(Facoltativo) Specifica il numero di flussi di input. Si tratta di un valore massimo, in realtà potrebbero essere utilizzati meno stream. Il valore predefinito è 1.
--parallelism
=COUNT(Facoltativo) Specifica il numero di thread di elaborazione. Il valore deve essere uguale o inferiore al numero di core disponibili. Il valore predefinito è 1.
--spillover
=SPILLOVER : DataPath(Facoltativo) Specifica un percorso dati per il set di dati di overflow. Se non specifichi queste informazioni, i dettagli dell'errore verranno eliminati.
--transcode-configuration
=CONFIG : DataPath(Facoltativo) Specifica il file contenente la configurazione della transcodifica. Per ulteriori informazioni sul formato di configurazione del transcodificatore, consulta Configurazione del transcodificatore.
scp
Copia i file in Cloud Storage.
Trama
scp [options] [input] [output]
Flag e argomenti
Per utilizzare questo comando, devi assicurarti di quanto segue:
- Imposta un valore di input univoco tramite
input
,--inDD
o--inDsn
. - Imposta un valore di output univoco tramite l'output o
--gcsOutUri
.
Il comando scp
utilizza i seguenti flag e argomenti:
- input
- (Facoltativo) Specifica il DD o il DSN da copiare. Puoi utilizzare
--inDD
o--inDsn
. - output
- (Facoltativo) Specifica l'URI dell'output utilizzando il formato gs://[BUCKET]/[PREFIX]. Puoi utilizzare
--gcsOutUri
. --compress
- (Facoltativo) Comprimi l'output con gzip.
--count
o-n
=RECORDS- (Facoltativo) Specifica il numero di record da copiare. Il valore predefinito è illimitato.
--encoding
=ENCODING- (Facoltativo) Specifica la codifica dei caratteri di input. Il valore predefinito è CP037.
--gcsOutUri
=URI- (Facoltativo) Specifica l'URI Cloud Storage di destinazione della copia del file.
--help
o-h
- Visualizza questo testo di assistenza.
--inDD
=INPUT- (Facoltativo) Specifica il file DD da copiare. Il valore predefinito è DD INFILE.
--inDsn
=INPUT- (Facoltativo) Specifica il DSN da copiare.
--noConvert
- (Facoltativo) Disattiva la conversione dell'input di caratteri in ASCII. La conversione dei caratteri è abilitata per impostazione predefinita.
systemreport
Fornire il report di sistema.
Trama
systemreport [-h] [--available_security_providers] [--supported_ciphers]
Flag e argomenti
Il comando systemreport
utilizza i seguenti flag e argomenti:
--available_security_providers
- (Facoltativo) Stampa i fornitori di sicurezza supportati.
--help
o-h
- (Facoltativo) Mostra questo messaggio della guida.
--supported_ciphers
- (Facoltativo) Stampa le cifrature supportate.
Tipi di parametri
Questi tipi comuni utilizzati nei comandi di Mainframe Connector.
DataPath
DataPath
è una stringa che rappresenta un input o un output. Ogni tipo di DataPath
ha il proprio prefisso e i propri argomenti, come segue:
DD:
: i percorsi dei dati con questo prefisso puntano a un'istruzione di definizione dei dati (DD) quando vengono eseguiti in un job Job Control Language (JCL). Puoi modificare la codifica DD aggiungendoencoding=
al DD. Ad esempio,DD:DDNAME
oDD:DDNAME?encoding=UTF-8
. La codifica DD predefinita è la codifica predefinita del sistema operativo.DSN:
: i percorsi dei dati con questo prefisso puntano a un nome dell'origine dati (DSN) quando vengono eseguiti su un mainframe. Puoi modificare la codifica del DSN aggiungendoencoding=
al DSN. Ad esempio,DSN:HQ.FOO.BAR
oDSN:HQ.FOO.BAR?encoding=cp037
.file:
: i percorsi dei dati con questo prefisso rimandano a un file Unix. Nel file Unix puoi specificare quanto segue:- La lunghezza del record logico (LRECL) aggiungendo
#lrecl
prima di:
. - Il formato del record (RECFM) aggiungendo
&recfm
prima di:
. Il valore predefinito di RECFM èF
. - La codifica aggiungendo
&encoding
prima di:
. La codifica predefinita èUTF-8
.
Ad esempio,
file:/path/to/file
,file?80:/path/to/file
,file?80&recfm=FB:/path/to/file
ofile?80&recfm=FB&encoding=cp037:/path/to/file
.- La lunghezza del record logico (LRECL) aggiungendo
gs://
: i percorsi dei dati con questo prefisso puntano a un file in Cloud Storage. Nel file puoi specificare quanto segue:- LRECL aggiungendo
?lrecl=lrecl
dopo il prefisso del bucket. - RECFM aggiungendo
?recfm=recfm
dopo il prefisso del bucket. Il valore predefinito di RECFM èF
. - La codifica aggiungendo
?encoding=
dopo il prefisso del bucket. La codifica predefinita èUTF-8
.
Ad esempio,
gs://my_bucket/my/file.txt
,gs://my_bucket/my/file.txt?encoding=cp037
,gs://my_bucket/my/file.txt?recfm=fb&encoding=cp037
ogs://my_bucket/my/file.txt?lrecl=80&recfm=fb&encoding=recfm
.- LRECL aggiungendo
pubsub:
: i percorsi dei dati con questo prefisso puntano a una risorsa Pub/Sub. Ad esempio:pubsub:projects/projectId/topics/topicId
.
Per i file Cloud Storage o Unix, se RECFM è impostato su V
, Mainframe Connector legge e scrive i file nel formato zzLL nel seguente modo:
- I primi due byte sono sempre 0x0000.
- I due byte successivi rappresentano la dimensione dei dati.
- I byte rimanenti costituiscono i dati effettivi del record.
DataSize
DataSize
rappresenta una dimensione sotto forma di quantità e unità di misura, ad esempio 5 MiB. Puoi utilizzare uno spazio tra l'importo e l'ordine di grandezza. L'analisi delle dimensioni dei dati non fa distinzione tra maiuscole e minuscole, quindi puoi specificare le unità di misura sia in maiuscolo che in minuscolo.
Puoi specificare il valore nei seguenti formati:
- Formato Java:b/k/m/g/t, rispettivamente per byte, kibibyte, mebibyte, gibibyte e tebibyte.
- Formato internazionale:KiB/MiB/GiB/TiB, rispettivamente per kibibyte, mebibyte, gibibyte e tebibyte.
- Formato della metrica: b/kb/mb/gb/tb, per byte, kilobyte, megabyte, gigabyte e terabyte rispettivamente.
TranscodeFormat
TranscodeFormat
rappresenta il formato da utilizzare durante la procedura di transcodifica.
I valori validi sono:
ORC
:ORC
è un formato di file colonnare auto-descrittivo e sensibile al tipo.CSV
:CSV
è un formato di testo normale che memorizza i dati tabellari con ogni riga che rappresenta una riga. Puoi specificare i parametri CSV utilizzando il parametro di inputcsv-dialect
. Puoi definirlo come--input-parameter csv-dialect=
DataPath, dove DataPath indica la posizione di questi parametri.JSONL
:JSONL
è un formato di testo normale che memorizza i dati tabellari con ogni riga che rappresenta una riga. Puoi specificare i parametri JSON utilizzando il parametro di inputjson-dialect
. Puoi definirlo come--input-parameter json-dialect=
DataPath, dove DataPath indica la posizione di questi parametri.
TranscodeInputFormat
Il formato da utilizzare durante la transcodifica.
I valori validi sono:
BIGQUERY
: estrae i dati direttamente da BigQuery.INPUT
deve essere un percorso a un file di query.I parametri di input disponibili sono:
keep_order
: utilizza questo valore se l'ordine esatto dei record è importante. Tieni presente che ciò limiterà il flusso di input.project_id
: l'ID progetto da utilizzare durante l'esecuzione del job.location
: posizione da utilizzare durante l'esecuzione del lavoro.
CSV
:CSV
è un formato di testo normale che memorizza i dati tabellari con ogni riga che rappresenta una riga. Puoi specificare i parametri CSV utilizzando il parametro di inputcsv-dialect
. Puoi definirlo come--input-parameter csv-dialect=
DataPath, dove DataPath indica la posizione di questi parametri.JSONL
:JSONL
è un formato di testo normale che memorizza i dati tabellari con ogni riga che rappresenta una riga. Puoi specificare i parametri JSON utilizzando il parametro di inputjson-dialect
. Puoi definirlo come--input-parameter json-dialect=
DataPath, dove DataPath indica la posizione di questi parametri.