Caricamento dei dati Parquet da Cloud Storage
Questa pagina fornisce una panoramica del caricamento dei dati Parquet da Cloud Storage in BigQuery.
Parquet è un formato dati orientato alle colonne open source ampiamente utilizzato nell'ecosistema Apache Hadoop.
Quando carichi dati Parquet da Cloud Storage, puoi caricarli in una nuova tabella o partizione oppure puoi aggiungerli a una tabella o partizione esistente o sovrascriverli. Quando i dati vengono caricati in BigQuery, vengono convertiti in formato a colonne per Capacitor (il formato di archiviazione di BigQuery).
Quando carichi i dati da Cloud Storage in una tabella BigQuery, il set di dati che contiene la tabella deve trovarsi nella stessa località regionale o multiregionale del bucket Cloud Storage.
Per informazioni sul caricamento dei dati Parquet da un file locale, vedi Caricamento dei dati da file locali.
Limitazioni
Quando carichi i dati in BigQuery da un bucket Cloud Storage, sono previste le seguenti limitazioni:
- BigQuery non garantisce la coerenza dei dati per le origini dati esterne. Le modifiche ai dati sottostanti durante l'esecuzione di una query possono comportare un comportamento imprevisto.
BigQuery non supporta il controllo delle versioni degli oggetti Cloud Storage. Se includi un numero di generazione nell'URI Cloud Storage, il job di caricamento non va a buon fine.
Non puoi utilizzare un carattere jolly nell'URI Cloud Storage se uno dei file da caricare ha schemi diversi. Qualsiasi differenza nella posizione delle colonne viene considerata uno schema diverso.
Requisiti dei file di input
Per evitare errori resourcesExceeded
durante il caricamento dei file Parquet in
BigQuery, segui queste linee guida:
- Mantieni le dimensioni delle righe a 50 MB o meno.
- Se i dati di input contengono più di 100 colonne, valuta la possibilità di ridurre le dimensioni della pagina in modo che siano inferiori a quelle predefinite (1 * 1024 * 1024 byte). Questa funzionalità è particolarmente utile se utilizzi una compressione significativa.
- Per ottenere prestazioni ottimali, punta a dimensioni dei gruppi di righe di almeno 16 MiB. Dimensioni dei gruppi di righe più piccole aumentano le operazioni I/O e rallentano i caricamenti e le query.
Prima di iniziare
Concedi ruoli Identity and Access Management (IAM) che forniscono agli utenti le autorizzazioni necessarie per eseguire ogni attività descritta in questo documento e crea un set di dati per archiviare i tuoi dati.
Autorizzazioni obbligatorie
Per caricare i dati in BigQuery, devi disporre delle autorizzazioni IAM per eseguire un job di caricamento e caricare i dati in tabelle e partizioni BigQuery. Se carichi i dati da Cloud Storage, devi disporre anche delle autorizzazioni IAM per accedere al bucket che contiene i tuoi dati.
Autorizzazioni per caricare dati in BigQuery
Per caricare i dati in una nuova tabella o partizione BigQuery oppure per aggiungere o sovrascrivere una tabella o partizione esistente, devi disporre delle seguenti autorizzazioni IAM:
bigquery.tables.create
bigquery.tables.updateData
bigquery.tables.update
bigquery.jobs.create
Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per caricare i dati in una tabella o partizione BigQuery:
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.admin
(include l'autorizzazionebigquery.jobs.create
)bigquery.user
(include l'autorizzazionebigquery.jobs.create
)bigquery.jobUser
(include l'autorizzazionebigquery.jobs.create
)
Inoltre, se disponi dell'autorizzazione bigquery.datasets.create
, puoi creare e aggiornare tabelle utilizzando un job di caricamento nei set di dati che crei.
Per saperne di più sui ruoli e sulle autorizzazioni IAM in BigQuery, consulta Ruoli e autorizzazioni predefiniti.
Autorizzazioni per caricare i dati da Cloud Storage
Per ottenere le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage, chiedi all'amministratore di concederti il ruolo IAM Amministratore archiviazione (roles/storage.admin
) nel bucket.
Per saperne di più sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.
Questo ruolo predefinito contiene le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:
Autorizzazioni obbligatorie
Per caricare i dati da un bucket Cloud Storage sono necessarie le seguenti autorizzazioni:
-
storage.buckets.get
-
storage.objects.get
-
storage.objects.list (required if you are using a URI wildcard)
Potresti anche ottenere queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.
Crea un set di dati
Crea un set di dati BigQuery per archiviare i tuoi dati.
Schemi Parquet
Quando carichi file Parquet in BigQuery, lo schema della tabella viene recuperato automaticamente dai dati di origine autodescrittivi. Quando BigQuery recupera lo schema dai dati di origine, viene utilizzato l'ultimo file in ordine alfabetico.
Ad esempio, hai i seguenti file Parquet in Cloud Storage:
gs://mybucket/00/ a.parquet z.parquet gs://mybucket/01/ b.parquet
L'esecuzione di questo comando nello strumento a riga di comando bq carica tutti i file (come elenco separato da virgole) e lo schema viene derivato da mybucket/01/b.parquet
:
bq load \ --source_format=PARQUET \ dataset.table \ "gs://mybucket/00/*.parquet","gs://mybucket/01/*.parquet"
Quando carichi più file Parquet con schemi diversi, le colonne identiche specificate in più schemi devono avere la stessa modalità in ogni definizione dello schema.
Quando BigQuery rileva lo schema, alcuni tipi di dati Parquet vengono convertiti in tipi di dati BigQuery per renderli compatibili con la sintassi GoogleSQL. Per ulteriori informazioni, consulta Conversioni Parquet.
Per fornire uno schema di tabella per la creazione di tabelle esterne, imposta la proprietàreferenceFileSchemaUri
nell'API BigQuery o il parametro --reference_file_schema_uri
nello strumento a riga di comando bq sull'URL del file di riferimento.
Ad esempio, --reference_file_schema_uri="gs://mybucket/schema.parquet"
.
Compressione Parquet
BigQuery supporta i seguenti codec di compressione per i contenuti dei file Parquet:
GZip
LZO_1C
LZO_1X
LZ4_RAW
Snappy
ZSTD
Caricamento di dati Parquet in una nuova tabella
Puoi caricare i dati Parquet in una nuova tabella utilizzando uno dei seguenti metodi:
- La console Google Cloud
- Il comando
bq load
dello strumento a riga di comando bq - Il metodo API
jobs.insert
e la configurazione di un jobload
- Librerie client
Per caricare i dati Parquet da Cloud Storage in una nuova tabella BigQuery:
Console
Nella console Google Cloud , vai alla pagina BigQuery.
- Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
- Nella sezione Informazioni sul set di dati, fai clic su Crea tabella.
- Nel riquadro Crea tabella, specifica i seguenti dettagli:
- Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da.
Poi, procedi nel seguente modo:
- Seleziona un file dal bucket Cloud Storage o inserisci l'URI Cloud Storage.
Non puoi includere più URI
nella Google Cloud console, ma i caratteri jolly
sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa
posizione del set di dati che contiene la tabella che vuoi creare, aggiungere o
sovrascrivere.
- Per Formato file, seleziona Parquet.
- Seleziona un file dal bucket Cloud Storage o inserisci l'URI Cloud Storage.
Non puoi includere più URI
nella Google Cloud console, ma i caratteri jolly
sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa
posizione del set di dati che contiene la tabella che vuoi creare, aggiungere o
sovrascrivere.
- Nella sezione Destinazione, specifica i seguenti dettagli:
- Per Set di dati, seleziona il set di dati in cui vuoi creare la tabella.
- Nel campo Table (Tabella), inserisci il nome della tabella che vuoi creare.
- Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
- Nella sezione Schema, non è necessaria alcuna azione. Lo schema è autodescrittivo nei file Parquet.
- (Facoltativo) Specifica le impostazioni di partizionamento e clustering. Per ulteriori informazioni, vedi Creazione di tabelle partizionate e Creazione e utilizzo di tabelle in cluster.
- Fai clic su Opzioni avanzate e segui questi passaggi:
- In Preferenza di scrittura, lascia selezionata l'opzione Scrivi se vuota. Questa opzione crea una nuova tabella e carica i dati al suo interno.
- Se vuoi ignorare i valori di una riga che non sono presenti nello schema della tabella, seleziona Valori sconosciuti.
- Per la crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Google-managed key, BigQuery cripta i dati at rest.
- Fai clic su Crea tabella.
SQL
Utilizza l'istruzione DDL LOAD DATA
.
L'esempio seguente carica un file Parquet nella nuova tabella mytable
:
Nella console Google Cloud , vai alla pagina BigQuery.
Nell'editor di query, inserisci la seguente istruzione:
LOAD DATA OVERWRITE mydataset.mytable FROM FILES ( format = 'PARQUET', uris = ['gs://bucket/path/file.parquet']);
Fai clic su
Esegui.
Per maggiori informazioni su come eseguire le query, consulta Eseguire una query interattiva.
bq
Utilizza il comando bq load
, specifica PARQUET
utilizzando il flag --source_format
e includi un URI Cloud Storage.
Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI
contenente un carattere jolly.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla tua
posizione.
Altri flag facoltativi includono:
--time_partitioning_type
: abilita il partizionamento basato sul tempo in una tabella e imposta il tipo di partizione. I valori possibili sonoHOUR
,DAY
,MONTH
eYEAR
. Questo flag è facoltativo quando crei una tabella partizionata in base a una colonnaDATE
,DATETIME
oTIMESTAMP
. Il tipo di partizione predefinito per il partizionamento basato sul tempo èDAY
. Non puoi modificare la specifica di partizionamento di una tabella esistente.--time_partitioning_expiration
: un numero intero che specifica (in secondi) quando deve essere eliminata una partizione basata sul tempo. Il tempo di scadenza corrisponde alla data UTC della partizione più il valore intero.--time_partitioning_field
: la colonnaDATE
oTIMESTAMP
utilizzata per creare una tabella partizionata. Se il partizionamento basato sul tempo è abilitato senza questo valore, viene creata una tabella partizionata per data di importazione.--require_partition_filter
: se attivata, questa opzione richiede agli utenti di includere una clausolaWHERE
che specifica le partizioni da interrogare. Se il filtro di partizionamento è obbligatorio, i costi possono essere ridotti e le prestazioni migliorate. Per maggiori informazioni, consulta Richiedere un filtro di partizione nelle query.--clustering_fields
: un elenco separato da virgole di un massimo di quattro nomi di colonne utilizzati per creare una tabella in cluster.--destination_kms_key
: la chiave Cloud KMS per la crittografia dei dati della tabella.--column_name_character_map
: definisce l'ambito e la gestione dei caratteri nei nomi delle colonne, con la possibilità di attivare nomi delle colonne flessibili. Per ulteriori informazioni, vediload_option_list
. Per ulteriori informazioni sui caratteri supportati e non supportati, vedi Nomi delle colonne flessibili.Per ulteriori informazioni sulle tabelle partizionate, consulta:
Per saperne di più sulle tabelle in cluster, consulta:
Per ulteriori informazioni sulla crittografia delle tabelle, vedi:
Per caricare i dati Parquet in BigQuery, inserisci il seguente comando:
bq --location=LOCATION load \ --source_format=FORMAT \ DATASET.TABLE \ PATH_TO_SOURCE
Sostituisci quanto segue:
LOCATION
: la tua posizione. Il flag--location
è facoltativo. Ad esempio, se utilizzi BigQuery nella regione di Tokyo, puoi impostare il valore del flag suasia-northeast1
. Puoi impostare un valore predefinito per la località utilizzando il file.bigqueryrc.FORMAT
:PARQUET
.DATASET
: un set di dati esistente.TABLE
: il nome della tabella in cui stai caricando i dati.PATH_TO_SOURCE
: un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.parquet
in una tabella denominata mytable
in mydataset
.
bq load \
--source_format=PARQUET \
mydataset.mytable \
gs://mybucket/mydata.parquet
Il comando seguente carica i dati da gs://mybucket/mydata.parquet
in una nuova tabella partizionata per data di importazione denominata mytable
in mydataset
.
bq load \
--source_format=PARQUET \
--time_partitioning_type=DAY \
mydataset.mytable \
gs://mybucket/mydata.parquet
Il seguente comando carica i dati da gs://mybucket/mydata.parquet
in una tabella partizionata denominata mytable
in mydataset
. La tabella è partizionata
in base alla colonna mytimestamp
.
bq load \
--source_format=PARQUET \
--time_partitioning_field mytimestamp \
mydataset.mytable \
gs://mybucket/mydata.parquet
Il seguente comando carica i dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. L'URI Cloud Storage utilizza un
carattere jolly.
bq load \
--source_format=PARQUET \
mydataset.mytable \
gs://mybucket/mydata*.parquet
Il seguente comando carica i dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. Il comando include un elenco separato da virgole di URI di Cloud Storage con caratteri jolly.
bq load \
--source_format=PARQUET \
mydataset.mytable \
"gs://mybucket/00/*.parquet","gs://mybucket/01/*.parquet"
API
Crea un job
load
che rimandi ai dati di origine in Cloud Storage.(Facoltativo) Specifica la posizione nella proprietà
location
della sezionejobReference
della risorsa job.La proprietà
source URIs
deve essere completamente qualificata, nel formatogs://BUCKET/OBJECT
. Ogni URI può contenere un carattere jolly '*' .Specifica il formato dei dati Parquet impostando la proprietà
sourceFormat
suPARQUET
.Per controllare lo stato del job, chiama
jobs.get(JOB_ID*)
, sostituendo JOB_ID con l'ID del job restituito dalla richiesta iniziale.- Se
status.state = DONE
, il job è stato completato correttamente. - Se è presente la proprietà
status.errorResult
, la richiesta non è riuscita e l'oggetto include informazioni che descrivono cosa è andato storto. Quando una richiesta non va a buon fine, non viene creata alcuna tabella e non vengono caricati dati. - Se
status.errorResult
non è presente, il job è stato completato correttamente; tuttavia, potrebbero essersi verificati alcuni errori non fatali, ad esempio problemi con l'importazione di alcune righe. Gli errori non irreversibili sono elencati nella proprietàstatus.errors
dell'oggetto job restituito.
- Se
Note sull'API:
I job di caricamento sono atomici e coerenti: se un job di caricamento non va a buon fine, nessuno dei dati è disponibile e se un job di caricamento va a buon fine, tutti i dati sono disponibili.
Come best practice, genera un ID univoco e trasmettilo come
jobReference.jobId
quando chiamijobs.insert
per creare un job di caricamento. Questo approccio è più resistente agli errori di rete perché il client può eseguire il polling o riprovare con l'ID job noto.La chiamata di
jobs.insert
su un determinato ID job è idempotente. Puoi riprovare tutte le volte che vuoi con lo stesso ID job e al massimo una di queste operazioni andrà a buon fine.
Vai
Prima di provare questo esempio, segui le istruzioni di configurazione di Go nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Go.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Node.js.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
PHP
Prima di provare questo esempio, segui le istruzioni di configurazione di PHP nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery PHP.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Utilizza il metodo Client.load_table_from_uri() per avviare un job di caricamento da Cloud Storage. Per utilizzare Parquet, imposta la proprietà LoadJobConfig.source_format sulla stringaPARQUET
e passa la configurazione del job come argomento job_config
al metodo load_table_from_uri()
.
Aggiunta o sovrascrittura di una tabella con dati Parquet
Puoi caricare dati aggiuntivi in una tabella da file di origine o aggiungendo i risultati della query.
Nella console Google Cloud , utilizza l'opzione Preferenza di scrittura per specificare l'azione da intraprendere quando carichi i dati da un file di origine o dal risultato di una query.
Quando carichi dati aggiuntivi in una tabella, hai le seguenti opzioni:
Opzione della console | Flag dello strumento bq | Proprietà API BigQuery | Descrizione |
---|---|---|---|
Scrivi se vuota | Non supportata | WRITE_EMPTY |
Scrive i dati solo se la tabella è vuota. |
Aggiungi a tabella | --noreplace o --replace=false ; se
--[no]replace non è specificato, il valore predefinito è append |
WRITE_APPEND |
(Predefinito) Aggiunge i dati alla fine della tabella. |
Sovrascrivi tabella | --replace o --replace=true |
WRITE_TRUNCATE |
Cancella tutti i dati esistenti in una tabella prima di scrivere i nuovi dati. Questa azione elimina anche lo schema della tabella, la sicurezza a livello di riga e rimuove qualsiasi chiave Cloud KMS. |
Se carichi i dati in una tabella esistente, il job di caricamento può aggiungere i dati o sovrascrivere la tabella.
Puoi aggiungere o sovrascrivere una tabella utilizzando uno dei seguenti metodi:
- La console Google Cloud
- Il comando
bq load
dello strumento a riga di comando bq - Il metodo API
jobs.insert
e la configurazione di un jobload
- Librerie client
Per aggiungere o sovrascrivere una tabella con dati Parquet:
Console
Nella console Google Cloud , vai alla pagina BigQuery.
- Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
- Nella sezione Informazioni sul set di dati, fai clic su Crea tabella.
- Nel riquadro Crea tabella, specifica i seguenti dettagli:
- Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da.
Poi, procedi nel seguente modo:
- Seleziona un file dal bucket Cloud Storage o inserisci l'URI Cloud Storage.
Non puoi includere più URI
nella Google Cloud console, ma i caratteri jolly
sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa
posizione del set di dati che contiene la tabella che vuoi creare, aggiungere o
sovrascrivere.
- Per Formato file, seleziona Parquet.
- Seleziona un file dal bucket Cloud Storage o inserisci l'URI Cloud Storage.
Non puoi includere più URI
nella Google Cloud console, ma i caratteri jolly
sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa
posizione del set di dati che contiene la tabella che vuoi creare, aggiungere o
sovrascrivere.
- Nella sezione Destinazione, specifica i seguenti dettagli:
- Per Set di dati, seleziona il set di dati in cui vuoi creare la tabella.
- Nel campo Table (Tabella), inserisci il nome della tabella che vuoi creare.
- Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
- Nella sezione Schema, non è necessaria alcuna azione. Lo schema è autodescrittivo nei file Parquet.
- (Facoltativo) Specifica le impostazioni di partizionamento e clustering. Per ulteriori informazioni, vedi Creazione di tabelle partizionate e Creazione e utilizzo di tabelle in cluster. Non puoi convertire una tabella in una tabella partizionata o in cluster aggiungendola o sovrascrivendola. La console Google Cloud non supporta l'aggiunta o la sovrascrittura di tabelle partizionate o in cluster in un job di caricamento.
- Fai clic su Opzioni avanzate e segui questi passaggi:
- In Preferenza di scrittura, scegli Aggiungi alla tabella o Sovrascrivi tabella.
- Se vuoi ignorare i valori di una riga che non sono presenti nello schema della tabella, seleziona Valori sconosciuti.
- Per la crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Google-managed key, BigQuery cripta i dati at rest.
- Fai clic su Crea tabella.
SQL
Utilizza l'istruzione DDL LOAD DATA
.
L'app di esempio seguente aggiunge un file Parquet alla tabella mytable
:
Nella console Google Cloud , vai alla pagina BigQuery.
Nell'editor di query, inserisci la seguente istruzione:
LOAD DATA INTO mydataset.mytable FROM FILES ( format = 'PARQUET', uris = ['gs://bucket/path/file.parquet']);
Fai clic su
Esegui.
Per maggiori informazioni su come eseguire le query, consulta Eseguire una query interattiva.
bq
Inserisci il comando bq load
con il flag --replace
per sovrascrivere la
tabella. Utilizza il flag --noreplace
per aggiungere dati alla tabella. Se non viene specificato alcun flag, il comportamento predefinito è l'aggiunta dei dati. Fornisci il flag --source_format
e impostalo su PARQUET
. Poiché gli schemi Parquet vengono recuperati automaticamente
dai dati di origine autodescrittivi, non è necessario fornire una definizione
dello schema.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla tua
posizione.
Altri flag facoltativi includono:
--destination_kms_key
: la chiave Cloud KMS per la crittografia dei dati della tabella.
bq --location=LOCATION load \ --[no]replace \ --source_format=FORMAT \ DATASET.TABLE \ PATH_TO_SOURCE
Sostituisci quanto segue:
location
: la tua posizione. Il flag--location
è facoltativo. Puoi impostare un valore predefinito per la posizione utilizzando il file.bigqueryrc.format
:PARQUET
.dataset
: un set di dati esistente.table
: il nome della tabella in cui stai caricando i dati.path_to_source
: un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.parquet
e sovrascrive una tabella denominata mytable
in mydataset
.
bq load \
--replace \
--source_format=PARQUET \
mydataset.mytable \
gs://mybucket/mydata.parquet
Il seguente comando carica i dati da gs://mybucket/mydata.parquet
e
aggiunge i dati a una tabella denominata mytable
in mydataset
.
bq load \
--noreplace \
--source_format=PARQUET \
mydataset.mytable \
gs://mybucket/mydata.parquet
Per informazioni sull'aggiunta e sulla sovrascrittura di tabelle partizionate utilizzando lo strumento a riga di comando bq, consulta Aggiunta e sovrascrittura di tabella partizionata partizionate.
API
Crea un job
load
che rimandi ai dati di origine in Cloud Storage.(Facoltativo) Specifica la posizione nella proprietà
location
della sezionejobReference
della risorsa job.La proprietà
source URIs
deve essere completa, nel formatogs://BUCKET/OBJECT
. Puoi includere più URI come elenco separato da virgole. Tieni presente che sono supportati anche i caratteri jolly.Specifica il formato dei dati impostando la proprietà
configuration.load.sourceFormat
suPARQUET
.Specifica la preferenza di scrittura impostando la proprietà
configuration.load.writeDisposition
suWRITE_TRUNCATE
oWRITE_APPEND
.
Vai
Prima di provare questo esempio, segui le istruzioni di configurazione di Go nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Go.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Node.js.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
PHP
Prima di provare questo esempio, segui le istruzioni di configurazione di PHP nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery PHP.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella guida rapida di BigQuery per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per eseguire l'autenticazione in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, vedi Configurare l'autenticazione per le librerie client.
Per aggiungere le righe a una tabella esistente, imposta la proprietàLoadJobConfig.write_disposition
su
WRITE_APPEND
.
Per sostituire le righe in una tabella esistente, imposta la
proprietà LoadJobConfig.write_disposition
su
WRITE_TRUNCATE
.
Caricamento di dati Parquet partizionati in Hive
BigQuery supporta il caricamento dei dati Parquet partizionati Hive archiviati in Cloud Storage e compila le colonne di partizionamento Hive come colonne nella tabella gestita BigQuery di destinazione. Per ulteriori informazioni, consulta la pagina relativa al caricamento di dati partizionati esternamente.
Conversioni Parquet
Questa sezione descrive come BigQuery analizza vari tipi di dati durante il caricamento dei dati Parquet.
Alcuni tipi di dati Parquet (come INT32
, INT64
, BYTE_ARRAY
e FIXED_LEN_BYTE_ARRAY
) possono essere convertiti in più tipi di dati BigQuery. Per assicurarti che BigQuery converta correttamente i tipi di dati Parquet, specifica il tipo di dati appropriato nel file Parquet.
Ad esempio, per convertire il tipo di dati Parquet INT32
nel tipo di dati BigQuery DATE
, specifica quanto segue:
optional int32 date_col (DATE);
BigQuery converte i tipi di dati Parquet nei tipi di dati BigQuery descritti nelle sezioni seguenti.
Conversioni dei tipi
Tipo di dati BigQuery | ||
---|---|---|
BOOLEAN |
Nessuno | BOOLEANO |
INT32 | Nessuno, INTEGER (UINT_8 , UINT_16 ,
UINT_32 , INT_8 , INT_16 ,
INT_32 )
|
INT64 |
INT32 | DECIMALE | NUMERIC, BIGNUMERIC o STRING |
INT32 |
DATE |
DATA |
INT64 |
Nessuno, INTEGER (UINT_64 , INT_64 )
|
INT64 |
INT64 | DECIMALE | NUMERIC, BIGNUMERIC o STRING |
INT64 |
TIMESTAMP , precision=MILLIS
(TIMESTAMP_MILLIS )
|
TIMESTAMP |
INT64 |
TIMESTAMP , precision=MICROS
(TIMESTAMP_MICROS )
|
TIMESTAMP |
INT96 |
Nessuno | TIMESTAMP |
FLOAT |
Nessuno | FLOAT64 |
DOUBLE |
Nessuno | FLOAT64 |
BYTE_ARRAY |
Nessuno | BYTES |
BYTE_ARRAY |
STRING (UTF8 ) |
STRING |
FIXED_LEN_BYTE_ARRAY | DECIMALE | NUMERIC, BIGNUMERIC o STRING |
FIXED_LEN_BYTE_ARRAY |
Nessuno | BYTES |
I gruppi nidificati vengono convertiti in tipi
STRUCT
.
Altre combinazioni di tipi Parquet e tipi convertiti non sono supportate.
Tipi logici non firmati
I tipi Parquet UINT_8
, UINT_16
, UINT_32
e UINT_64
non sono firmati.
BigQuery tratterà i valori con questi tipi come non firmati durante il caricamento in una
colonna INTEGER
firmata di BigQuery. Nel caso di UINT_64
, viene restituito un errore
se il valore senza segno supera il valore massimo INTEGER
di
9.223.372.036.854.775.807.
Tipo logico decimale
I tipi logici Decimal
possono essere convertiti in tipi NUMERIC
, BIGNUMERIC
o STRING
. Il tipo convertito dipende
dai parametri di precisione e scala del tipo logico decimal
e dai
tipi di destinazione decimali specificati. Specifica il tipo di target decimale come segue:
- Per un job di caricamento che utilizza l'API
jobs.insert
, utilizza il campoJobConfigurationLoad.decimalTargetTypes
. - Per un job di caricamento utilizzando il
comando
bq load
nello strumento a riga di comando bq: utilizza il flag--decimal_target_types
. - Per una query su una tabella con origini esterne:
utilizza il campo
ExternalDataConfiguration.decimalTargetTypes
. - Per una tabella esterna persistente creata con DDL:
utilizza l'opzione
decimal_target_types
.
Tipo logico di enumerazione
I tipi logici Enum
possono essere convertiti in STRING
o BYTES
. Specifica il tipo di destinazione convertita nel seguente modo:
- Per un job di caricamento che utilizza l'API
jobs.insert
, utilizza il campoJobConfigurationLoad.parquetOptions
. - Per un job di caricamento utilizzando il
comando
bq load
nello strumento a riga di comando bq: utilizza il flag--parquet_enum_as_string
. - Per una tabella esterna persistente creata con
bq mk
: utilizza il flag--parquet_enum_as_string
.
Elenco tipo logico
Puoi attivare l'inferenza dello schema per i tipi logici Parquet LIST
. BigQuery
verifica se il nodo LIST
si trova nella
forma standard o in una delle forme descritte dalle regole di compatibilità con le versioni precedenti:
// standard form
<optional | required> group <name> (LIST) {
repeated group list {
<optional | required> <element-type> element;
}
}
Se sì, il campo corrispondente per il nodo LIST
nello schema convertito viene trattato
come se il nodo avesse lo schema seguente:
repeated <element-type> <name>
I nodi "list" ed "element" vengono omessi.
- Per un job di caricamento che utilizza l'API
jobs.insert
, utilizza il campoJobConfigurationLoad.parquetOptions
. - Per un job di caricamento utilizzando il
comando
bq load
nello strumento a riga di comando bq, utilizza il flag--parquet_enable_list_inference
. - Per una tabella esterna persistente creata con
bq mk
, utilizza il flag--parquet_enable_list_inference
. - Per una tabella esterna persistente creata con l'istruzione
CREATE EXTERNAL TABLE
, utilizza l'opzioneenable_list_inference
.
Dati geospaziali
Puoi caricare file Parquet che contengono WKT, WKB con codifica esadecimale o GeoJSON in una colonna STRING
oppure WKB in una colonna BYTE_ARRAY
specificando uno schema BigQuery con il tipo GEOGRAPHY
. Per ulteriori informazioni,
vedi Caricamento di dati geospaziali.
Puoi anche caricare file GeoParquet. In questo caso, le
colonne descritte dai metadati GeoParquet vengono interpretate come tipo GEOGRAPHY
per impostazione predefinita. Puoi anche caricare i dati WKB non elaborati in una colonna BYTES
fornendo uno schema esplicito. Per saperne di più, consulta Caricamento di file GeoParquet.
Conversioni dei nomi delle colonne
Il nome di una colonna può contenere lettere (a-z, A-Z), numeri (0-9) o trattini bassi (_), e deve iniziare con una lettera o un trattino basso. Se utilizzi nomi delle colonne flessibili, BigQuery supporta l'inizio di un nome di colonna con un numero. Fai attenzione quando inizi le colonne con un numero, poiché l'utilizzo di nomi di colonne flessibili con l'API BigQuery Storage di lettura o l'API BigQuery Storage Write richiede una gestione speciale. Per ulteriori informazioni sul supporto dei nomi delle colonne flessibili, consulta Nomi delle colonne flessibili.
I nomi delle colonne hanno una lunghezza massima di 300 caratteri. I nomi delle colonne non possono utilizzare i seguenti prefissi:
_TABLE_
_FILE_
_PARTITION
_ROW_TIMESTAMP
__ROOT__
_COLIDENTIFIER
Non sono consentiti nomi di colonna duplicati, anche se l'uso delle maiuscole è diverso. Ad esempio, una
colonna denominata Column1
è considerata identica a una colonna denominata column1
. Per
scoprire di più sulle regole di denominazione delle colonne, consulta Nomi
delle colonne nella
guida di riferimento di GoogleSQL.
Se il nome di una tabella (ad esempio test
) è uguale a uno dei nomi delle colonne
(ad esempio test
), l'espressione SELECT
interpreta la colonna test
come
un STRUCT
contenente tutte le altre colonne della tabella. Per evitare questo conflitto, utilizza
uno dei seguenti metodi:
Evita di utilizzare lo stesso nome per una tabella e le relative colonne.
Assegna alla tabella un alias diverso. Ad esempio, la seguente query assegna l'alias di tabella
t
alla tabellaproject1.dataset.test
:SELECT test FROM project1.dataset.test AS t;
Includi il nome della tabella quando fai riferimento a una colonna. Ad esempio:
SELECT test.test FROM project1.dataset.test;
Nomi delle colonne flessibili
Hai maggiore flessibilità nella denominazione delle colonne, incluso l'accesso esteso ai caratteri in lingue diverse dall'inglese, nonché a simboli aggiuntivi.
I nomi delle colonne flessibili supportano i seguenti caratteri:
- Qualsiasi lettera in qualsiasi lingua, come rappresentata dall'espressione regolare Unicode
\p{L}
. - Qualsiasi carattere numerico in qualsiasi lingua rappresentato dall'espressione
regolare Unicode
\p{N}
. - Qualsiasi carattere di punteggiatura del connettore, inclusi i trattini bassi, come rappresentato
dall'espressione regolare Unicode
\p{Pc}
. - Un trattino o una lineetta rappresentati dall'espressione regolare Unicode
\p{Pd}
. - Qualsiasi segno destinato ad accompagnare un altro carattere, come rappresentato dall'espressione regolare Unicode
\p{M}
. Ad esempio, accenti, dieresi o caselle di inclusione. - I seguenti caratteri speciali:
- Una e commerciale (
&
) rappresentata dall'espressione regolare Unicode\u0026
. - Un segno di percentuale (
%
) rappresentato dall'espressione regolare Unicode\u0025
. - Un segno di uguale (
=
) rappresentato dall'espressione regolare Unicode\u003D
. - Un segno più (
+
) rappresentato dall'espressione regolare Unicode\u002B
. - Un segno dei due punti (
:
) rappresentato dall'espressione regolare Unicode\u003A
. - Un apostrofo (
'
) rappresentato dall'espressione regolare Unicode\u0027
. - Un segno di minore (
<
) rappresentato dall'espressione regolare Unicode\u003C
. - Un segno di maggiore (
>
) rappresentato dall'espressione regolare Unicode\u003E
. - Un simbolo di cancelletto (
#
) rappresentato dall'espressione regolare Unicode\u0023
. - Una linea verticale (
|
) rappresentata dall'espressione regolare Unicode\u007c
. - Spazio vuoto.
- Una e commerciale (
I nomi delle colonne flessibili non supportano i seguenti caratteri speciali:
- Un punto esclamativo (
!
) rappresentato dall'espressione regolare Unicode\u0021
. - Un segno di virgolette (
"
) rappresentato dall'espressione regolare Unicode\u0022
. - Un simbolo del dollaro (
$
) rappresentato dall'espressione regolare Unicode\u0024
. - Una parentesi aperta (
(
) rappresentata dall'espressione regolare Unicode\u0028
. - Una parentesi chiusa (
)
) rappresentata dall'espressione regolare Unicode\u0029
. - Un asterisco (
*
) rappresentato dall'espressione regolare Unicode\u002A
. - Una virgola (
,
) rappresentata dall'espressione regolare Unicode\u002C
. - Un punto (
.
) rappresentato dall'espressione regolare Unicode\u002E
. I punti non vengono sostituiti dai trattini bassi nei nomi delle colonne dei file Parquet quando viene utilizzata una mappa dei caratteri dei nomi delle colonne. Per ulteriori informazioni, vedi limitazioni delle colonne flessibili. - Una barra (
/
) rappresentata dall'espressione regolare Unicode\u002F
. - Un punto e virgola (
;
) rappresentato dall'espressione regolare Unicode\u003B
. - Un punto interrogativo (
?
) rappresentato dall'espressione regolare Unicode\u003F
. - Un simbolo @ (
@
) rappresentato dall'espressione regolare Unicode\u0040
. - Una parentesi quadra aperta (
[
) rappresentata dall'espressione regolare Unicode\u005B
. - Una barra rovesciata (
\
) rappresentata dall'espressione regolare Unicode\u005C
. - Una parentesi quadra chiusa (
]
) rappresentata dall'espressione regolare Unicode\u005D
. - Un accento circonflesso (
^
) rappresentato dall'espressione regolare Unicode\u005E
. - Un accento grave (
`
) rappresentato dall'espressione regolare Unicode\u0060
. - Una parentesi graffa aperta {
{
) rappresentata dall'espressione regolare Unicode\u007B
. - Una parentesi graffa chiusa (
}
) rappresentata dall'espressione regolare Unicode\u007D
. - Una tilde (
~
) rappresentata dall'espressione regolare Unicode\u007E
.
Per ulteriori linee guida, vedi Nomi delle colonne.
I caratteri delle colonne espanse sono supportati sia dall'API BigQuery Storage di lettura
sia dall'API BigQuery Storage di scrittura. Per utilizzare l'elenco esteso di caratteri Unicode
con l'API BigQuery Storage di lettura, devi impostare un flag. Puoi utilizzare l'attributo
displayName
per recuperare il nome della colonna. L'esempio seguente
mostra come impostare un flag con il client Python:
from google.cloud.bigquery_storage import types
requested_session = types.ReadSession()
#set avro serialization options for flexible column.
options = types.AvroSerializationOptions()
options.enable_display_name_attribute = True
requested_session.read_options.avro_serialization_options = options
Per utilizzare l'elenco esteso di caratteri Unicode con l'API BigQuery Storage Write,
devi fornire lo schema con la notazione column_name
, a meno che tu non stia utilizzando
l'oggetto writer JsonStreamWriter
. Il seguente esempio mostra come
fornire lo schema:
syntax = "proto2";
package mypackage;
// Source protos located in github.com/googleapis/googleapis
import "google/cloud/bigquery/storage/v1/annotations.proto";
message FlexibleSchema {
optional string item_name_column = 1
[(.google.cloud.bigquery.storage.v1.column_name) = "name-列"];
optional string item_description_column = 2
[(.google.cloud.bigquery.storage.v1.column_name) = "description-列"];
}
In questo esempio, item_name_column
e item_description_column
sono
nomi segnaposto che devono essere conformi alla
convenzione di denominazione dei
buffer di protocollo. Tieni presente che le annotazioni column_name
hanno sempre la precedenza sui
nomi dei segnaposto.
Limitazioni
I nomi delle colonne flessibili non sono supportati con le tabelle esterne.
Non puoi caricare file Parquet contenenti colonne con un punto (.) nel nome della colonna.
I nomi delle colonne dei file Parquet vengono trattati senza distinzione tra maiuscole e minuscole quando vengono caricati in BigQuery. Nomi identici senza distinzione tra maiuscole e minuscole causeranno conflitti. Per evitare questo problema, aggiungi un trattino basso a uno dei nomi delle colonne duplicati o rinomina le colonne prima del caricamento.
Eseguire il debug del file Parquet
Se i job di caricamento non vanno a buon fine a causa di errori nei dati, puoi utilizzare PyArrow per verificare se i file di dati Parquet sono danneggiati. Se PyArrow non riesce a leggere i file, è probabile che vengano rifiutati dal job di caricamento BigQuery. Il seguente esempio mostra come leggere i contenuti di un file Parquet utilizzando PyArrow:
from pyarrow import parquet as pq
# Read the entire file
pq.read_table('your_sample_file.parquet')
# Read specific columns
pq.read_table('your_sample_file.parquet',columns=['some_column', 'another_column'])
# Read the metadata of specific columns
file_metadata=pq.read_metadata('your_sample_file.parquet')
for col in file_metadata.row_group(0).to_dict()['columns']:
print col['column_path_in_schema']
print col['num_values']
Per saperne di più, consulta la documentazione di PyArrow.