Commandes
bq export
Exporter une table depuis BigQuery
Synopsis
bq export [options]
Options et arguments
Pour exécuter cette commande, vous devez fournir une requête SQL (voir les options --sql
et query_dsn
) et un copybook (voir l'option cobDsn
). Vous pouvez exécuter cette commande en mode local, à distance et autonome. Pour le mode à distance, consultez les indicateurs --bucket
, --remoteHost
, --remotePort
et --remoteUrl
.
La commande bq export
utilise les options et arguments suivants :
--project_id
=ID- Spécifiez le projet à utiliser pour exécuter cette commande.
--allow_large_results
- (Facultatif) Utilisez des tailles de tables de destination importantes pour les requêtes en ancien SQL.
--batch
- (Facultatif) Exécutez la requête en mode de traitement par lot.
--bucket
=BUCKET- (Facultatif) Écrivez la sortie de la commande dans un emplacement d'un bucket Cloud Storage. Les fichiers de sortie sont écrits dans le chemin de destination
gs://BUCKET/EXPORT/
. Cet argument est obligatoire pour le mode à distance. --cobDsn
=DSN- (facultatif) Spécifiez le nom de source de données (DSN) du copybook que vous souhaitez utiliser. Si vous ne fournissez pas de valeur, Mainframe Connector lit à partir de DD COPYBOOK.
--dataset_id
=ID- (Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--destination_table
=TABLE- (Facultatif) Spécifiez la table de destination dans laquelle vous souhaitez écrire les résultats de la requête.
--dry_run
- (Facultatif) Validez la requête sans l'exécuter.
--encoding
=ENCODING- (Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si cette valeur est fournie, elle remplace la valeur par défaut définie par la variable d'environnement
ENCODING
. --exporter_thread_count
=COUNT- (Facultatif) Définissez le nombre de threads de l'exportateur. La valeur par défaut est 4.
--help
ou-h
- Affiche ce texte d'aide.
--keepAliveTimeInSeconds
=SECONDS- (Facultatif) Spécifiez le délai avant expiration du message keep-alive en secondes pour un canal HTTP. La valeur par défaut est de 480 secondes.
--location
=LOCATION- (Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "US".
--max_read_queue
=NUMBER- (Facultatif) Définissez la taille maximale de la file d'attente des enregistrements Avro. La valeur par défaut est le double du nombre de threads.
--max_read_streams
=NUMBER- (Facultatif) Définissez le nombre maximal de threads de flux de lecture. La valeur par défaut est 4.
--maximum_bytes_billed
=BYTES- (Facultatif) Limitez le nombre d'octets facturés pour la requête.
--order_response
- (Facultatif) Conservez l'ordre de la réponse tel qu'il est renvoyé par BigQuery.
--outDD
=OUTPUT- (Facultatif) Écrivez les enregistrements de sortie dans l'ensemble de données spécifié dans z/OS. La valeur par défaut est DD OUTFILE.
--parser_type
=TYPE- (Facultatif) Définissez l'analyseur de configuration sur
legacy
,copybook
ouauto
. La valeur par défaut estauto
. --query_dsn
=DSN- (Facultatif) Lisez une requête à partir de l'ensemble de données spécifié dans z/OS. Utilisez le format HLQ.MEMBER ou HLQ.PDS(MEMBER). Si vous ne fournissez pas de valeur, Mainframe Connector lit à partir de DD QUERY.
--remoteHost
=HOST- (Facultatif) Spécifiez l'adresse IP de l'hôte distant. Pour exécuter Mainframe Connector en mode à distance, définissez l'indicateur
--bucket
. --remotePort
=PORT- (Facultatif) Spécifiez le port distant. La valeur par défaut est 51770. Pour exécuter Mainframe Connector en mode à distance, définissez l'indicateur
--bucket
. --remoteUrl
=URL- (Facultatif) Spécifiez l'URL distante. Pour exécuter Mainframe Connector en mode à distance, définissez l'indicateur
--bucket
. --run_mode
=MODE- (Facultatif) Sélectionnez l'implémentation de l'exportation. Vous pouvez utiliser l'une des options suivantes :
directstorage
: le fichier binaire est enregistré localement (par défaut).gcsoutput
: le fichier binaire est enregistré dans Cloud Storage.
--sql
=SQL- (Facultatif) Spécifiez la requête SQL BigQuery à exécuter.
--stats_table
=TABLE- (Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--timeOutMinutes
=MINUTES- (Facultatif) Définissez le délai avant expiration en minutes pour l'appel grpc à distance. La valeur par défaut est de 90 minutes.
--transcoding_buffer
=BUFFER- (Facultatif) Définit la taille de la mémoire tampon de transcodage par thread, en Mo. La valeur par défaut est de 20.
--use_cache
={true|false}- (Facultatif) Définissez sur "true" pour mettre en cache les résultats de la requête.
--use_legacy_sql
- (Facultatif) Utilisez l'ancien SQL au lieu du SQL standard.
bq load
Charger des données dans une table BigQuery
Synopsis
bq load [options] tablespec path
Options et arguments
La commande bq load
utilise les options et arguments suivants :
- path
- Spécifiez une liste d'URI de fichiers sources séparés par une virgule. Le format accepté est
gs://bucket/path
. Exemple :gs://my-bucket/data.orc,gs://my-bucket/more-data.orc
. - tablespec
- Spécifiez la table de destination des données. Le format accepté est [PROJECT]:[DATASET].[TABLE] .
--project_id
=ID- Spécifiez le projet à utiliser pour exécuter cette commande.
--allow_jagged_rows
- (Facultatif) Autorisez les colonnes finales facultatives manquantes dans les données CSV.
--allow_quoted_newlines
- (Facultatif) Autorise les nouvelles lignes entre guillemets dans les données CSV.
--append_table
- (Facultatif) Ajoutez les données chargées aux données existantes dans la table de destination.
--autodetect
- (Facultatif) Activez la détection automatique du schéma pour les données CSV et JSON.
--clustering_fields
=FIELDS- (Facultatif) Si spécifié, une liste de colonnes séparées par des virgules permet de mettre la table de destination en cluster dans une requête. Cette option doit être utilisée avec les options de partitionnement temporel pour créer une table partitionnée par date d'ingestion ou une table partitionnée sur une colonne
DATE
ouTIMESTAMP
. Si spécifié, la table est d'abord partitionnée, puis mise en cluster à l'aide des colonnes fournies. --dataset_id
=ID- (Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--debug_mode
={true|false}- (Facultatif) Définissez le niveau de journalisation sur "debug".
--destination_kms_key
=KEY- (Facultatif) Clé Cloud KMS pour le chiffrement des données de la table de destination.
--encoding
ou-E
=ENCODING- (Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si cette valeur est spécifiée, elle remplace la valeur par défaut définie par la variable d'environnement
ENCODING
. --field_delimiter
ou-F
=FIELD- (Facultatif) Spécifiez le délimiteur de colonne dans les données CSV. Utilisez
\t
outab
pour les délimiteurs de tabulation. --help
ou-h
- Affiche ce texte d'aide.
--ignore_unknown_values
=VALUES- (Facultatif) Ignore les valeurs supplémentaires non reconnues dans les données CSV ou JSON.
--location
=LOCATION- (Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "US".
--max_bad_records
=RECORDS- (Facultatif) Définissez le nombre maximal d'enregistrements non valides autorisés avant l'échec du job. Au plus, cinq erreurs de n'importe quel type sont renvoyées, quelle que soit la valeur
--max_bad_records
. Cette option ne s'applique qu'au chargement de données CSV, JSON et Google Sheets. La valeur par défaut est 0. --max_polling_interval_ms
=MILLISECONDS- (Facultatif) Délai d'attente maximal pour une tâche BigQuery.
--null_marker
=MARKER- (Facultatif) Spécifiez une chaîne personnalisée qui représente une valeur
NULL
dans les données CSV. --projection_fields
=FIELDS- (Facultatif) Si vous définissez
--source_format
surDATASTORE_BACKUP
, cette option indique les propriétés d'entité à charger à partir d'une exportation Datastore. Spécifiez les noms de propriété sous la forme d'une liste de valeurs séparées par des virgules. Les noms de propriétés sont sensibles à la casse et doivent faire référence à des propriétés de niveau supérieur. Vous pouvez également utiliser cette option avec les exportations Firestore. --quote
=QUOTE- (Facultatif) Spécifiez un caractère de guillemet pour entourer les champs des données CSV. Vous pouvez spécifier n'importe quel caractère d'un octet comme argument. La valeur par défaut est un guillemet double ("). Pour indiquer l'absence de caractère de guillemet, utilisez une chaîne vide.
--replace
- (Facultatif) Remplacez les données existantes dans la table de destination par les données chargées.
--require_partition_filter
={true|false}- (Facultatif) Définissez sur "true" pour appliquer un filtre de partition aux requêtes sur la table fournie. Cet argument ne s'applique qu'aux tables partitionnées et si l'option
--time_partitioning_field
est définie sur "true". La valeur par défaut est "false". --schema
=SCHEMA- (Facultatif) Définissez le schéma de la table de destination. Spécifiez la valeur sous la forme d'une liste de définitions de colonnes séparées par une virgule au format [FIELD]:[DATA_TYPE]. Exemple :
name:STRING,age:INTEGER,city:STRING
--schema_update_option
=OPTION- (Facultatif) Lorsque vous ajoutez des données à une table (dans une tâche de chargement ou de requête) ou que vous remplacez une partition de table, spécifiez comment mettre à jour le schéma de la table de destination. Utilisez l'une des valeurs suivantes :
ALLOW_FIELD_ADDITION
: autoriser l'ajout de nouveaux champsALLOW_FIELD_RELAXATION
: autoriser l'assouplissement des champsREQUIRED
surNULLABLE
--skip_leading_rows
=NUMBER- (Facultatif) Spécifiez le nombre de lignes à ignorer au début du fichier source. La valeur par défaut est 0.
--source_format
=FORMAT- (Facultatif) Spécifiez le format des données source. Vous pouvez utiliser l'une des valeurs suivantes :
CSV
,NEWLINE_DELIMITED_JSON
,AVRO
,DATASTORE_BACKUP
(utilisez cette valeur pour Filestore),PARQUET
,ORC
. La valeur par défaut estORC
. --stats_table
=TABLE- (Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--time_partitioning_expiration
=SECONDS- (Facultatif) Spécifiez le moment où une partition temporelle doit être supprimée, en secondes. Le délai d'expiration correspond à la date UTC de la partition plus la valeur spécifiée. Si vous indiquez un nombre négatif, la partition basée sur le temps n'expire jamais.
--time_partitioning_field
=FIELD- (Facultatif) Spécifiez le champ utilisé pour déterminer comment créer une partition temporelle. Si le partitionnement temporel est activé sans cette valeur, la table est partitionnée en fonction de la date de chargement.
--time_partitioning_type
=TYPE- (facultatif) : active le partitionnement temporel sur une table et définit le type de partition à l'aide de la valeur suivante :
DAY
. --use_avro_logical_types
={true|false}- : (facultatif) si
--source_format
est défini surAVRO
, définissez cette option sur "true" pour convertir les types logiques en types correspondants (tels queTIMESTAMP
) au lieu d'utiliser uniquement leurs types bruts (tels queINTEGER
). La valeur par défaut est "false".
bq mk
Créez des ressources BigQuery, telles que des tables intégrées ou externes, pour lesquelles vous devez configurer le partitionnement et le clustering. Vous pouvez également utiliser la commande bq mk
pour générer une table BigQuery directement à partir de l'analyse des copybooks COBOL à l'aide de l'indicateur --schema_from_copybook
.
Synopsis
bq mk [options]
Options et arguments
La commande bq mk
utilise les options et arguments suivants :
--project_id
=ID- Spécifiez le projet à utiliser pour exécuter cette commande.
--tablespec
=TABLE- Spécifiez la table de destination des données. Le format accepté est [PROJECT]:[DATASET].[TABLE].
--clustering_fields
=FIELDS- (Facultatif) Spécifiez une liste de quatre noms de colonnes maximum, séparés par une virgule, qui indiquent les champs à utiliser pour le clustering des tables.
--dataset_id
=ID- (Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--description
=DESCRIPTION- (Facultatif) Fournissez une description pour l'ensemble de données ou la table.
--dry_run
- (Facultatif) Imprimez l'instruction LDD (langage de définition de données) de la table.
--encoding
=ENCODING- (Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si cette valeur est spécifiée, elle remplace la valeur par défaut définie par la variable d'environnement
ENCODING
. --expiration
=EXPIRATION- (Facultatif) Spécifiez la durée de vie de la table. Si vous ne spécifiez pas de valeur, BigQuery crée la table avec la durée de vie par défaut de la table de l'ensemble de données. Dans le cas contraire, la table n'expire pas.
--external_table_definition
ou-e
=TABLE- (Facultatif) Spécifiez un nom et une définition de schéma pour créer une table externe. Exemple :
ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help
ou-h
- Affiche ce texte d'aide.
--location
=LOCATION- (Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "US".
--parser_type
=TYPE- (Facultatif) Définissez l'analyseur de configuration sur
legacy
,copybook
ouauto
. La valeur par défaut estauto
. --require_partition_filter
={true|false}- (Facultatif) Définissez sur "true" pour appliquer un filtre de partition aux requêtes sur la table fournie. Cet argument ne s'applique qu'aux tables partitionnées et si l'option
--time_partitioning_field
est définie sur "true". La valeur par défaut est "true". --schema
=SCHEMA- (Facultatif) Spécifiez le chemin d'accès à un fichier de schéma JSON local, ou une liste de définitions de colonnes séparées par une virgule au format FIELD:DATA_TYPE, FIELD:DATA_TYPE, etc.
--schema_from_copybook
=SCHEMA- (Facultatif) Générez le schéma à partir d'un copybook.
--table
ou-t
=TABLE- (Facultatif) Créez une table.
--time_partitioning_expiration
=SECONDS- (Facultatif) Spécifiez le moment où une partition temporelle doit être supprimée, en secondes. Le délai d'expiration correspond à la date UTC de la partition plus la valeur spécifiée. Si vous indiquez un nombre négatif, la partition basée sur le temps n'expire jamais.
--time_partitioning_field
=FIELD- (Facultatif) Spécifiez le champ utilisé pour déterminer comment créer une partition temporelle. Si le partitionnement temporel est activé sans cette valeur, la table est partitionnée en fonction de la date de chargement.
--view
- (Facultatif) Créez une vue.
bq query
Exécutez une requête BigQuery.
Synopsis
bq query [options]
Options et arguments
Vous pouvez exécuter cette commande en mode local et à distance. Pour le mode à distance, consultez les indicateurs --remoteHost
, --remotePort
et --remoteUrl
, ainsi que la variable d'environnement BQ_QUERY_REMOTE_EXECUTION
.
La commande bq query
utilise les options et arguments suivants :
--project_id
=ID- Spécifiez le projet à utiliser pour exécuter cette commande.
--allow_large_results
- (Facultatif) Utilisez des tailles de tables de destination importantes pour les requêtes en ancien SQL.
--append_table
- (Facultatif) Ajoutez les données chargées aux données existantes dans la table de destination.
--batch
- (Facultatif) Exécutez la requête en mode de traitement par lot.
--clustering_fields
=FIELDS- (Facultatif) Spécifiez une liste de jusqu'à quatre noms de colonnes séparés par une virgule, qui spécifie les champs à utiliser pour le clustering des tables. Si vous spécifiez cette valeur avec le partitionnement, la table est d'abord partitionnée, puis chaque partition est mise en cluster à l'aide des colonnes fournies.
--create_if_needed
- (Facultatif) Créez la table de destination si elle n'existe pas.
--dataset_id
=ID- (Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--destination_table
=TABLE- (Facultatif) Spécifiez la table de destination dans laquelle vous souhaitez écrire les résultats de la requête.
--dry_run
- (Facultatif) Validez la requête sans l'exécuter.
--follow
={true|false}- (Facultatif) Définissez sur "true" pour suivre les étapes individuelles de la requête ou le script dans son ensemble. Elle est définie par défaut sur "false".
--help
ou-h
- Affiche ce texte d'aide.
--location
=LOCATION- (Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "US".
--maximum_bytes_billed
=BYTES- (Facultatif) Spécifiez la limite d'octets facturés pour la requête.
--parameters
=PARAMETERS- (Facultatif) Spécifiez les paramètres de requête séparés par une virgule au format [NAME]:[TYPE]:[VALUE]. Un nom vide crée un paramètre positionnel. Vous pouvez omettre [TYPE] pour suggérer une valeur
STRING
au format name::value ou ::value.NULL
génère une valeur nulle. --query_dsn
=DSN- (Facultatif) Spécifiez le nom de source de données (DSN) à partir duquel lire la requête, au format HLQ.MEMBER ou HLQ.PDS(MEMBER). Si
query_dsn
n'est pas fourni, QUERY DD est utilisé. --remoteHost
=HOST- (Facultatif) Spécifiez l'adresse IP de l'hôte distant. Pour exécuter la requête en mode distant, définissez la variable d'environnement
BQ_QUERY_REMOTE_EXECUTION
. --remotePort
=PORT- (Facultatif) Spécifiez le port distant. La valeur par défaut est 51770. Pour exécuter la requête en mode distant, définissez la variable d'environnement
BQ_QUERY_REMOTE_EXECUTION
. --remoteUrl
=URL- (Facultatif) Spécifiez l'URL distante. Pour exécuter la requête en mode distant, définissez la variable d'environnement
BQ_QUERY_REMOTE_EXECUTION
. --replace
- (Facultatif) Écrasez la table de destination avec les résultats de la requête.
--report_row_limit
=LIMIT- (Facultatif) Spécifiez le nombre maximal de lignes à imprimer dans le rapport d'audit. La valeur par défaut est 30.
--require_partition_filter
={true|false}- (Facultatif) Définissez sur "true" pour appliquer un filtre de partition aux requêtes sur la table fournie. La valeur par défaut est "true".
--schema_update_option
=OPTION- (Facultatif) Mettez à jour le schéma de la table de destination lorsque vous ajoutez des données. Utilisez les valeurs suivantes :
ALLOW_FIELD_ADDITION
: autorise l'ajout de nouveaux champs.ALLOW_FIELD_RELAXATION
: autorise l'assouplissement des champsREQUIRED
surNULLABLE
.
--split_sql
={true|false}- (Facultatif) Définissez la valeur sur "true" pour diviser le script SQL d'entrée en requêtes individuelles. La valeur par défaut est "true".
--stats_table
=TABLE- (Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--sync
={true|false}- (Facultatif) Exécutez la commande en mode synchrone.
--synchronous_mode
={true|false}- (Facultatif) Alternative à
--sync
. --timeOutMinutes
=MINUTES- (Facultatif) Spécifiez le délai avant expiration, en minutes, pour une réponse de tâche BigQuery. La valeur par défaut est de 240 minutes.
--time_partitioning_expiration
=SECONDS- (Facultatif) Spécifiez le moment où une partition temporelle doit être supprimée, en secondes. Le délai d'expiration correspond à la date UTC de la partition plus la valeur spécifiée. Si vous indiquez un nombre négatif, la partition basée sur le temps n'expire jamais.
--time_partitioning_field
=FIELD- (Facultatif) Spécifiez le champ utilisé pour déterminer comment créer une partition temporelle. Si le partitionnement temporel est activé sans cette valeur, la table est partitionnée en fonction de la date de chargement.
--time_partitioning_type
=TYPE- (Facultatif) Activez le partitionnement temporel sur une table et définissez le type de partition à l'aide de l'une des valeurs suivantes :
DAY
,HOUR
,MONTH
,YEAR
. --use_cache
={true|false}- (Facultatif) Pour mettre en cache les résultats de la requête, définissez la valeur sur "true". La valeur par défaut est "true".
--use_legacy_sql
- (Facultatif) Utilisez l'ancien SQL au lieu du SQL standard.
cloud run job cancel
Annule une exécution de job spécifique.
Synopsis
cloud run job cancel [-h] --project=PROJECT --region=REGION EXECUTION
Options et arguments
La commande cloud run job cancel
utilise les options et arguments suivants :
- EXECUTION
- Spécifiez le nom de l'ID d'exécution du job Cloud Run.
--help
ou-h
- (Facultatif) Affichez ce message d'aide.
--project
=PROJECT- Spécifiez l'ID du projet.
--region
=REGION- Spécifiez la région dans laquelle se trouve la ressource.
cloud run job execute
Exécutez un job spécifique.
Synopsis
cloud run job execute [-h] [--async] [--tail-logs] [--wait] [--dump-execution-id=EXECUTION-ID] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--task-timeout=TIMEOUT] [--args=ARGS]... [--update-env-vars=ENVVARS]... JOB
Options et arguments
La commande cloud run job execute
utilise les options et arguments suivants :
- JOB
- Spécifiez le nom de la tâche Cloud Run à exécuter.
--args
=ARGS- (facultatif) : arguments séparés par une virgule et transmis à la commande exécutée par l'image du conteneur. Si des valeurs d'entrée sont fournies, une exécution sera créée avec ces valeurs.
--async
- (Facultatif) Spécifiez cette option si vous souhaitez obtenir une réponse immédiatement, sans attendre la fin de l'opération en cours.
--dump-execution-id
=EXECUTION-ID : DataPath- (Facultatif) Spécifiez le fichier dans lequel écrire l'ID d'exécution.
--help
ou-h
- (Facultatif) Affichez ce message d'aide.
--polling-interval
=POLLINGINTERVAL- (Facultatif) Définit l'intervalle d'interrogation pour l'affichage des journaux lorsque
--tail_logs
est activé. La valeur par défaut est de 60 secondes. --project
=PROJECT- Spécifiez l'ID du projet.
--region
=REGION- Spécifiez la région dans laquelle se trouve la ressource.
--tail-logs
- (Facultatif) Si vous exécutez la commande en mode synchrone en spécifiant l'option
--tail_logs
, Mainframe Connector affiche les journaux de progression à l'écran. Si vous spécifiez les indicateurs--tail_logs
et--async
, un message d'erreur s'affiche. Comme Cloud Logging n'est pas compatible avec la journalisation en temps réel, la commande n'affiche que les journaux qui ont déjà été enregistrés. Par conséquent, certains journaux peuvent manquer lorsque vous utilisez l'indicateur--tail_logs
. Pour afficher les journaux de tâches complets, utilisez la commandecloud run job log
une fois la tâche terminée. --task-timeout
=TIMEOUT- (Facultatif) Affiche la durée maximale (date limite) pendant laquelle une tentative de tâche de job peut s'exécuter. Si aucune valeur n'est spécifiée, la valeur par défaut du job est utilisée.
--update-env-vars
=ENVVARS- (Facultatif) Liste des paires clé/valeur à définir comme remplacements de variables d'environnement pour l'exécution d'un job.
--wait
- (Facultatif) Spécifiez cet indicateur si vous souhaitez que la commande attende la fin de l'exécution avant de quitter.
cloud run job log
Afficher les journaux Cloud Run
Synopsis
cloud run job log [-h] [--tail] [--log-filter=FILTER] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--timeout=TIMEOUT] EXECUTION_ID
Options et arguments
La commande cloud run job log
utilise les options et arguments suivants :
- EXECUTION_ID
- Nom de l'ID d'exécution du job Cloud Run.
--help
ou-h
- (Facultatif) Affichez ce message d'aide.
--log-filter
=FILTER- (Facultatif) Expression de filtre qui spécifie les entrées de journal à renvoyer.
--polling-interval
=POLLINGINTERVAL- (Facultatif) Définit l'intervalle d'interrogation pour l'affichage des journaux lorsque
--tail_logs
est activé. La valeur par défaut est de 60 secondes. --project
=PROJECT- Spécifiez l'ID du projet.
--region
=REGION- Spécifiez la région dans laquelle se trouve la ressource.
--tail
- (facultatif) : n'affiche que les nouveaux journaux à partir de maintenant, si cette option est définie. Si elle n'est pas définie, tous les journaux de tâches s'affichent.
--timeout
=TIMEOUT- (Facultatif) Délai d'expiration après lequel la commande se ferme. Si elle n'est pas définie, la commande expirera lorsque l'exécution se terminera.
copy text
Copiez l'ensemble de données textuelles.
Synopsis
copy text [-h] [--buffer-size=BUFFERSIZE] INPUT OUTPUT
Options et arguments
La commande copy text
utilise les options et arguments suivants :
- INPUT : DataPath
- Spécifiez le chemin d'accès aux données du fichier d'entrée que vous souhaitez copier.
- OUTPUT : DataPath
- Spécifiez le chemin d'accès aux données du fichier de sortie que vous souhaitez copier et encoder.
--buffer-size
=BUFFERSIZE : DataSize- (Facultatif) Indiquez la taille de lecture de la mémoire pour chaque bloc. La valeur par défaut est de 64 Mio.
--help
ou-h
- (Facultatif) Affiche ce message d'aide.
gsutil cp
Transcodez les données de votre mainframe vers un bucket Cloud Storage.
Synopsis
gsutil cp [options] gcsUri [dest]
Options et arguments
Vous pouvez utiliser cette commande à différentes fins :
- Copier et transcoder un fichier depuis un environnement Mainframe ou Linux vers Cloud Storage
- Source :
--inDSN
. Si aucune valeur n'est fournie, elle est spécifiée par DD INFILE. - Destination :
gcsUri
- Copier et transcoder un fichier dans Cloud Storage
- Source :
gcsUri
- Destination :
--destPath
- Copiez un fichier de Cloud Storage vers un mainframe.
- Source :
gcsUri
- Destination :
--destDSN
- Options concernées :
--lrecl
,--blksize
,--recfm
,--noseek
. - Copiez un fichier depuis Cloud Storage vers un environnement Linux.
- Source :
gcsUri
- Destination :
--destPath
--remote
, --remoteHost
, --remotePort
et --remoteUrl
.
La commande gsutil cp
utilise les options et arguments suivants :
- dest
- (Facultatif) Chemin d'accès local ou nom de la source de données (DSN). Exemples de formats :
/path/to/file
, DATASET.MEMBER - gcsUri
- : URI Cloud Storage au format
gs://bucket/path
. Peut représenter à la fois le lieu de départ et le lieu de destination, selon l'utilisation. --batchSize
=SIZE- (Facultatif) Spécifiez les blocs à utiliser par lot. La valeur par défaut est 1 000.
--blksize
=SIZE- (Facultatif) Spécifiez la taille de bloc du fichier à copier sur le mainframe. Si
blksize=0
etrecfm
ne sont pas définis sur "U", le système mainframe détermine la taille de bloc optimale pour le fichier. --cobDsn
=DSN- (facultatif) Spécifiez le nom de source de données (DSN) du copybook que vous souhaitez utiliser. Si vous ne fournissez pas de valeur, Mainframe Connector lit à partir de DD COPYBOOK.
--connections
=NUMBER- (Facultatif) Spécifiez le nombre de connexions pouvant être établies avec le récepteur distant. La valeur par défaut est 10.
--dataset_id
=ID- (Facultatif) Spécifiez l'ensemble de données par défaut à utiliser avec la commande. Vous pouvez définir la valeur sur [PROJECT_ID]:[DATASET] ou [DATASET]. Si [PROJECT_ID] n'est pas indiqué, le projet par défaut est utilisé.
--destDSN
=OUTPUT- (Facultatif) Spécifiez le DSN de destination.
--destPath
=OUTPUT- (Facultatif) Spécifiez le chemin de destination.
--dry_run
- (Facultatif) Testez l'analyse et le décodage du copybook du fichier QSAM.
--encoding
=ENCODING- (Facultatif) Spécifiez le jeu de caractères à utiliser pour l'encodage et le décodage des champs de caractères. Si cette valeur est spécifiée, elle remplace la valeur par défaut définie par la variable d'environnement
ENCODING
. --help
ou-h
- Affiche ce texte d'aide.
--inDsn
=DSN- (Facultatif) Spécifiez le nom de source de données (DSN) du fichier d'entrée que vous souhaitez utiliser. Si vous ne fournissez pas de valeur, Mainframe Connector lit à partir de DD INFILE.
--keepAliveTimeInSeconds
=SECONDS- (Facultatif) Spécifiez le délai avant expiration du message keep-alive en secondes pour un canal HTTP. La valeur par défaut est de 480 secondes.
--location
=LOCATION- (Facultatif) Spécifiez une région ou un emplacement multirégional pour exécuter la commande. La valeur par défaut est "US".
--lowerCaseColumnNames
- (Facultatif) Créez des noms de colonnes en minuscules pour les champs de copybook.
--lrecl
=LRECL- (Facultatif) Spécifiez la longueur d'enregistrement logique (lrecl) du fichier que vous souhaitez copier sur le Mainframe.
--maxChunkSize
=SIZE- (Facultatif) Spécifiez la taille maximale des blocs par lot. Vous devez utiliser K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB ou TB pour décrire la taille. La valeur par défaut est de 128 Mio.
--max_error_pct
=PCT- (Facultatif) Spécifiez le seuil d'échec du job pour les erreurs de décodage des lignes. Les valeurs valides sont comprises dans la plage [0,0 ; 1,0]. La valeur par défaut est 0.
--noseek
- (Facultatif) Améliorez les performances de téléchargement de Cloud Storage vers le mainframe.
--parallel
ou-m
- (Facultatif) Définissez le nombre de rédacteurs simultanés sur 4.
--parallelism
ou-p
=NUMBER- (Facultatif) Spécifiez le nombre de rédacteurs simultanés. La valeur par défaut est 4.
--parser_type
=TYPE- (Facultatif) Définissez l'analyseur de configuration sur
legacy
,copybook
ouauto
. La valeur par défaut estauto
. --preload_chunk_count
=NUMBER- (Facultatif) Spécifiez le nombre de blocs à précharger à partir des disques lorsque tous les nœuds de calcul sont occupés. La valeur par défaut est 2.
--project_id
=ID- (Facultatif) Spécifiez le projet à utiliser pour exécuter cette commande.
--recfm
=REFCM- (Facultatif) Spécifiez le recfm du fichier que vous souhaitez copier sur le mainframe. Vous pouvez utiliser l'une des valeurs suivantes : F, FB, V, VB, U. La valeur par défaut est FB.
--remote
- (Facultatif) Utilisez un décodeur distant.
--remoteHost
=HOST- (Facultatif) Spécifiez l'adresse IP de l'hôte distant. Pour exécuter Mainframe Connector en mode à distance, définissez l'indicateur
--remote
. --remotePort
=PORT- (Facultatif) Spécifiez le port distant à utiliser. La valeur par défaut est 51770. Pour exécuter Mainframe Connector en mode à distance, définissez l'indicateur
--remote
. --remoteUrl
=URL- (Facultatif) Spécifiez l'URL distante. Pour exécuter Mainframe Connector en mode à distance, définissez l'indicateur
--remote
. --replace
- (Facultatif) Supprimez la destination de manière récursive avant l'importation.
--stats_table
=TABLE- (Facultatif) Spécifiez la table dans laquelle insérer les statistiques.
--tfDSN
=DSN- (Facultatif) Spécifiez les transformations à partir d'un DSN, d'un DATASET.MEMBER ou d'un PDS(MBR).
--tfGCS
=GCS- (Facultatif) Spécifiez le fichier de transformations depuis Cloud Storage.
--timeOutMinutes
=MINUTES- (Facultatif) Spécifiez le délai avant expiration en minutes pour un appel grpc à distance. La valeur par défaut est de 90 minutes pour Cloud Storage et de 50 minutes pour un mainframe.
gsutil rm
Supprimez les objets Cloud Storage.
Synopsis
gsutil rm [-hR] URL...
Options et arguments
La commande gsutil rm
utilise les options et arguments suivants :
- URL
- Spécifiez l'emplacement Cloud Storage au format
gs://bucket/prefix
. --help
ou-h
- (Facultatif) Affichez ce message d'aide.
-R
ou-r
- (Facultatif) Supprime de manière récursive le contenu des répertoires ou des objets qui correspondent à l'expression de chemin d'accès. Ne génère pas d'erreur si le répertoire ou l'objet n'existe pas.
pubsub topics publish
Publiez un message dans un sujet Pub/Sub.
Cette commande vous permet d'envoyer des données de message directement à l'aide de l'option --data
ou via un fichier à l'aide de l'option --data-path
. Vous pouvez également inclure des attributs, une clé de tri et appliquer des propriétés de message. Vous pouvez également appliquer des substitutions de chaînes dynamiques au contenu du message.
Synopsis
pubsub topics publish [-h] [--data=DATA] [--data-path=DATAPATH] [--ordering-key=ORDERING-KEY] [--attributes=NAME=VALUE[, NAME=VALUE...]]... [--message-property=KEY=VALUE]... [--substitution=KEY=VALUE]... TOPIC
Options et arguments
La commande pubsub topics publish
utilise les options et arguments suivants :
- TOPIC
- Spécifiez le nom du sujet au format
projects/{project}/topics/{topic}
. --attributes
=NAME=VALUE- (Facultatif) Spécifiez une liste d'attributs séparés par une virgule. Chaque ATTRIBUTE se présente sous la forme
name=value
. Vous pouvez spécifier jusqu'à 100 attributs. Pour obtenir la liste complète des consignes sur les attributs, consultez Utiliser des attributs pour publier un message. --data-path
=DATAPATH : DataPath- (Facultatif) Spécifiez le chemin d'accès au fichier contenant les données du message. Vous devez définir l'un des indicateurs
--data
ou--data-path
, mais pas les deux. Pour en savoir plus sur la mise en forme des messages et les limites de taille, consultez Publier des messages dans des thèmes. --data
=DATA- (Facultatif) Spécifiez le corps du message que vous souhaitez publier sur le nom de sujet donné. Vous devez définir l'un des indicateurs
--data
ou--data-path
, mais pas les deux. Pour en savoir plus sur la mise en forme des messages et les limites de taille, consultez Publier des messages dans des thèmes. --help
ou-h
- (Facultatif) Affichez ce message d'aide.
--message-property
=KEY=VALUE- (Facultatif) Spécifiez les propriétés à appliquer au message. Une clé de propriété valide est
encoding
. Cette clé de propriété spécifie l'encodage des caractères à utiliser pour la chaîne de message. La chaîne de message est convertie en octets à l'aide de cet encodage avant d'être envoyée au sujet Pub/Sub. Pour obtenir la liste des valeurs d'encodage acceptées, consultez la section Encodages acceptés. La valeur par défaut estUTF-8
. --ordering-key
=ORDERING-KEY- (Facultatif) Spécifiez la clé pour la diffusion ordonnée des messages aux abonnés. Tous les messages ayant la même clé de tri sont envoyés aux abonnés dans l'ordre dans lequel Pub/Sub les reçoit.
--substitution
=KEY=VALUE(Facultatif) À l'aide de
--data
ou--data-path
, spécifiez les paires clé/valeur à utiliser pour la substitution dynamique à appliquer aux données du message Pub/Sub. Mainframe Connector recherche les espaces réservés dans les données du message et les remplace par les valeurs correspondantes. Définissez les espaces réservés dans les données à l'aide de la syntaxe ${KEY}, par exemple ${NAME}. Spécifiez chaque substitution sous forme de paire clé/valeur au formatKEY=VALUE
. Vous pouvez spécifier plusieurs substitutions en répétant l'option :--substitution key1=value1 --substitution key2=value2
.Par exemple, si les données d'entrée sont
Hello, ${username}!
et que vous utilisez--substitution username=World
, le message envoyé à Pub/Sub seraHello, World!
.
qsam decode
Décoder les données QSAM.
Cette commande décode les enregistrements d'un fichier QSAM au format que vous spécifiez à l'aide de l'argument --output-format
. Le fichier QSAM d'origine est divisé en blocs en fonction de la valeur que vous spécifiez avec l'argument --max-chunk-size
. La sortie transcodée est enregistrée dans le chemin cible sous forme de fichiers triés par ordre lexicographique.
Synopsis
qsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE] --copybook=COPYBOOK [--max-error-percent=MAX_ERROR_PERCENT] [--output-format=FORMAT] [--parallelism=COUNT] [--preload-chunk-count=PRELOAD_CHUNK_COUNT] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Options et arguments
La commande qsam decode
utilise les options et arguments suivants :
- INPUT : DataPath
- Spécifiez le chemin d'accès aux données du fichier QSAM que vous souhaitez décoder.
- OUTPUT : DataPath
- Spécifiez le chemin d'accès aux données du préfixe de sortie. Toutes les sorties sont stockées sous ce préfixe.
--chunk-size
=CHUNK-SIZE : DataSize- (Facultatif) Spécifiez la quantité de données d'entrée à inclure dans chaque fichier de sortie. Le fichier de sortie peut être plus ou moins volumineux. La taille des blocs est arrondie au multiple le plus proche de la longueur des enregistrements logiques. La valeur par défaut est de 128 Mio.
--copybook
=COPYBOOK : DataPath- Spécifiez le chemin d'accès aux données du fichier contenant le copybook.
--help
ou-h
- (Facultatif) Affichez ce message d'aide.
--input-parameter
=KEY=VALUE(Facultatif) Spécifiez les paramètres pour configurer l'entrée. Chaque paramètre est défini comme
KEY=VALUE
. Les clés de paramètres d'entrée acceptées sont les suivantes :csv-dialect
: configure l'analyse CSV. La valeur est unDataPath
qui pointe vers un fichier de configuration CSV.json-dialect
: configure l'analyse JSON. La valeur est unDataPath
pointant vers un fichier de configuration JSON.pubsub-publish-configuration
: configure les messages qui sont envoyés à Pub/Sub. La valeur est unDataPath
pointant vers un fichier de configuration Pub/Sub.output-prefix
: ajoutez un préfixe aux fichiers de sortie.
--max-error-percent
=MAX_ERROR_PERCENT(Facultatif) Spécifiez le pourcentage d'enregistrements traités pouvant comporter des erreurs avant l'échec du processus de transcodage. La valeur peut être comprise entre 0,0 (échec en cas d'erreurs de transcodage) et 1,0 (pas d'échec en cas d'erreurs de transcodage). La valeur par défaut est 0.
--output-format
=FORMAT : TranscodeFormat(Facultatif) Spécifiez le format du fichier de sortie. Si vous fournissez le
DataPath
d'un sujet Pub/Sub comme valeur pourOUTPUT
, le format de sortie par défaut estJSONL
. Pour tous les autresDataPaths
, le format de sortie par défaut estORC
.--parallelism
=COUNT(Facultatif) Spécifiez le nombre de threads de traitement. La valeur doit être inférieure ou égale au nombre de cœurs disponibles. La valeur par défaut est de 1.
--preload-chunk-count
=PRELOAD_CHUNK_COUNT(Facultatif) Spécifiez le nombre de blocs de données à précharger lorsque tous les threads sont en cours de traitement. La valeur par défaut est de 1.
--replace
(Facultatif) Si spécifié, supprime le chemin de sortie de manière récursive avant d'écrire les résultats du décodage.
--transcode-configuration
=CONFIG : DataPath(Facultatif) Spécifiez le fichier contenant la configuration du transcodage. Pour en savoir plus sur le format de configuration du transcodeur, consultez Configuration du transcodeur.
qsam encode
Encoder les données QSAM.
Cette commande extrait les données d'une source externe et les convertit en fichier QSAM. L'entrée est définie par la valeur que vous spécifiez à l'aide de l'argument --input-format
.
Synopsis
qsam encode [-h] --copybook=COPYBOOK --input-format=FORMAT [--input-stream-count=COUNT] [--parallelism=COUNT] [--spillover=SPILLOVER] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Options et arguments
La commande qsam encode
utilise les options et arguments suivants :
- INPUT : DataPath
- Spécifiez le chemin d'accès aux données du fichier d'entrée que vous souhaitez encoder dans un fichier QSAM.
- OUTPUT : DataPath
- Spécifiez le chemin d'accès aux données du fichier QSAM que vous souhaitez encoder.
--copybook
=COPYBOOK : DataPath- Spécifiez le chemin d'accès aux données du fichier contenant le copybook.
--help
ou-h
- (Facultatif) Affichez ce message d'aide.
--input-format
=FORMAT : TranscodeInputFormat- Spécifiez le format de l'entrée.
--input-parameter
=KEY=VALUE(Facultatif) Spécifiez les paramètres pour configurer l'entrée. Chaque paramètre est défini comme
KEY=VALUE
. Les clés de paramètres d'entrée acceptées sont les suivantes :csv-dialect
: configure l'analyse CSV. La valeur est unDataPath
qui pointe vers un fichier de configuration CSV.json-dialect
: configure l'analyse JSON. La valeur est unDataPath
pointant vers un fichier de configuration JSON.
--input-stream-count
=COUNT(Facultatif) Spécifiez le nombre de flux d'entrée. Il s'agit d'une valeur maximale. En réalité, il est possible que moins de flux soient utilisés. La valeur par défaut est de 1.
--parallelism
=COUNT(Facultatif) Spécifiez le nombre de threads de traitement. La valeur doit être inférieure ou égale au nombre de cœurs disponibles. La valeur par défaut est de 1.
--spillover
=SPILLOVER : DataPath(Facultatif) Spécifiez un chemin d'accès aux données pour l'ensemble de données sur le débordement. Si vous ne spécifiez pas ces informations, les détails de l'erreur seront ignorés.
--transcode-configuration
=CONFIG : DataPath(Facultatif) Spécifiez le fichier contenant la configuration du transcodage. Pour en savoir plus sur le format de configuration du transcodeur, consultez Configuration du transcodeur.
scp
Copiez les fichiers dans Cloud Storage.
Synopsis
scp [options] [input] [output]
Options et arguments
Pour utiliser cette commande, vous devez vous assurer des points suivants :
- Définissez une valeur d'entrée unique via
input
,--inDD
ou--inDsn
. - Définissez une seule valeur de sortie unique via la sortie ou
--gcsOutUri
.
La commande scp
utilise les options et arguments suivants :
- input
- (Facultatif) Spécifiez le DD ou le DSN à copier. Vous pouvez utiliser
--inDD
ou--inDsn
à la place. - output
- (Facultatif) Spécifiez l'URI de la sortie au format gs://[BUCKET]/[PREFIX]. Vous pouvez utiliser
--gcsOutUri
à la place. --compress
- (Facultatif) Compressez la sortie avec gzip.
--count
ou-n
=RECORDS- (Facultatif) Spécifiez le nombre d'enregistrements à copier. La valeur par défaut est illimitée.
--encoding
=ENCODING- (Facultatif) Spécifiez l'encodage des caractères d'entrée. La valeur par défaut est CP037.
--gcsOutUri
=URI- (Facultatif) Spécifiez l'URI Cloud Storage de destination de la copie du fichier.
--help
ou-h
- Affiche ce texte d'aide.
--inDD
=INPUT- (Facultatif) Spécifiez le fichier DD à copier. La valeur par défaut est DD INFILE.
--inDsn
=INPUT- (Facultatif) Spécifiez le DSN à copier.
--noConvert
- (Facultatif) Désactivez la conversion des caractères saisis au format ASCII. La conversion des caractères est activée par défaut.
systemreport
Fournissez un rapport système.
Synopsis
systemreport [-h] [--available_security_providers] [--supported_ciphers]
Options et arguments
La commande systemreport
utilise les options et arguments suivants :
--available_security_providers
- (Facultatif) Imprimez les fournisseurs de sécurité compatibles.
--help
ou-h
- (Facultatif) Affichez ce message d'aide.
--supported_ciphers
- (Facultatif) Imprimez les codes secrets compatibles.
Types de paramètres
Ces types courants sont utilisés dans les commandes Mainframe Connector.
DataPath
DataPath
est une chaîne représentant une entrée ou une sortie. Chaque type de DataPath
possède son propre préfixe et ses propres arguments, comme suit :
DD:
: les chemins de données avec ce préfixe pointent vers une instruction de définition de données (DD) lors de l'exécution dans un job JCL (Job Control Language). Vous pouvez modifier l'encodage DD en ajoutantencoding=
au DD. Par exemple,DD:DDNAME
ouDD:DDNAME?encoding=UTF-8
. L'encodage DD par défaut est l'encodage OS par défaut.DSN:
: les chemins de données avec ce préfixe pointent vers un nom de source de données (DSN) lorsqu'ils sont exécutés sur un ordinateur central. Vous pouvez modifier l'encodage du DSN en ajoutantencoding=
au DSN. Par exemple,DSN:HQ.FOO.BAR
ouDSN:HQ.FOO.BAR?encoding=cp037
.file:
: les chemins d'accès aux données avec ce préfixe pointent vers un fichier Unix. Vous pouvez spécifier les éléments suivants dans le fichier Unix :- La longueur d'enregistrement logique (LRECL) en ajoutant
#lrecl
avant:
. - Le format d'enregistrement (RECFM) en ajoutant
&recfm
avant:
. La valeur RECFM par défaut estF
. - L'encodage en ajoutant
&encoding
avant:
. L'encodage par défaut estUTF-8
.
Par exemple,
file:/path/to/file
,file?80:/path/to/file
,file?80&recfm=FB:/path/to/file
oufile?80&recfm=FB&encoding=cp037:/path/to/file
.- La longueur d'enregistrement logique (LRECL) en ajoutant
gs://
: les chemins d'accès aux données avec ce préfixe pointent vers un fichier dans Cloud Storage. Vous pouvez spécifier les éléments suivants dans le fichier :- LRECL en ajoutant
?lrecl=lrecl
après le préfixe du bucket. - RECFM en ajoutant
?recfm=recfm
après le préfixe du bucket. La valeur RECFM par défaut estF
. - Encodage en ajoutant
?encoding=
après le préfixe du bucket. L'encodage par défaut estUTF-8
.
Par exemple,
gs://my_bucket/my/file.txt
,gs://my_bucket/my/file.txt?encoding=cp037
,gs://my_bucket/my/file.txt?recfm=fb&encoding=cp037
ougs://my_bucket/my/file.txt?lrecl=80&recfm=fb&encoding=recfm
.- LRECL en ajoutant
pubsub:
: les chemins d'accès aux données avec ce préfixe pointent vers une ressource Pub/Sub. Par exemple,pubsub:projects/projectId/topics/topicId
.
Pour les fichiers Cloud Storage ou Unix, si RECFM est défini sur V
, Mainframe Connector lit et écrit les fichiers au format zzLL comme suit :
- Les deux premiers octets sont toujours 0x0000.
- Les deux octets suivants représentent la taille des données.
- Les octets restants constituent les données d'enregistrement réelles.
DataSize
DataSize
représente une taille sous la forme d'une quantité et d'une unité de mesure, par exemple 5 Mio. Vous pouvez utiliser des espaces entre le montant et la magnitude. L'analyse de la taille des données n'est pas sensible à la casse. Vous pouvez donc spécifier les unités de mesure en majuscules ou en minuscules.
Vous pouvez spécifier la valeur aux formats suivants :
- Format Java : b/k/m/g/t, pour octet, kibioctet, mébioctet, gibioctet et tébioctet, respectivement.
- Format international : KiB/MiB/GiB/TiB, pour kibioctet, mébioctet, gibioctet et tébioctet, respectivement.
- Format des métriques : b/kb/mb/gb/tb, pour les kilo-octets, mégaoctets, gigaoctets et téraoctets, respectivement.
TranscodeFormat
TranscodeFormat
représente le format à utiliser lors du processus de transcodage.
Les valeurs possibles sont les suivantes :
ORC
:ORC
est un format de fichier en colonnes, conscient des types et autodescriptif.CSV
:CSV
est un format en texte brut qui stocke des données tabulaires, chaque ligne représentant une ligne. Vous pouvez spécifier les paramètres CSV à l'aide du paramètre d'entréecsv-dialect
. Vous pouvez le définir comme--input-parameter csv-dialect=
DataPath, où DataPath pointe vers l'emplacement de ces paramètres.JSONL
:JSONL
est un format en texte brut qui stocke des données tabulaires, chaque ligne représentant une ligne. Vous pouvez spécifier les paramètres JSON à l'aide du paramètre d'entréejson-dialect
. Vous pouvez le définir comme--input-parameter json-dialect=
DataPath, où DataPath pointe vers l'emplacement de ces paramètres.
TranscodeInputFormat
Format à utiliser lors du transcodage.
Les valeurs possibles sont les suivantes :
BIGQUERY
: extrait les données directement de BigQuery.INPUT
doit être un chemin d'accès à un fichier de requête.Les paramètres d'entrée disponibles sont les suivants :
keep_order
: à utiliser si l'ordre exact des enregistrements est important. Notez que cela limitera le flux d'entrée.project_id
: ID du projet à utiliser lors de l'exécution du job.location
: emplacement à utiliser lors de l'exécution du job.
CSV
:CSV
est un format en texte brut qui stocke des données tabulaires, chaque ligne représentant une ligne. Vous pouvez spécifier les paramètres CSV à l'aide du paramètre d'entréecsv-dialect
. Vous pouvez le définir comme--input-parameter csv-dialect=
DataPath, où DataPath indique l'emplacement de ces paramètres.JSONL
:JSONL
est un format en texte brut qui stocke des données tabulaires, chaque ligne représentant une ligne. Vous pouvez spécifier les paramètres JSON à l'aide du paramètre d'entréejson-dialect
. Vous pouvez le définir comme--input-parameter json-dialect=
DataPath, où DataPath indique l'emplacement de ces paramètres.