Dopo aver creato un servizio Dataproc Metastore, puoi collegare uno dei seguenti servizi:
- Un cluster Dataproc.
- Un'istanza Apache Hive autogestita, un'istanza Apache Spark o un cluster Presto.
Dopo aver collegato uno di questi servizi, viene utilizzato il servizio Dataproc Metastore come metastore Hive durante l'esecuzione delle query.
Prima di iniziare
- Attiva Dataproc Metastore nel tuo progetto.
- Crea un servizio Dataproc Metastore.
- Comprendi i requisiti di networking specifici del tuo progetto.
Ruoli obbligatori
Per ottenere le autorizzazioni necessarie per creare un Dataproc Metastore e un cluster Dataproc, chiedi all'amministratore di concederti i seguenti ruoli IAM:
-
Per concedere il controllo completo delle risorse Dataproc Metastore:
-
Dataproc Metastore Editor (
roles/metastore.editor
) nell'account utente o nell'account di servizio -
Dataproc Metastore Admin (
roles/metastore.admin
) nell'account utente o nell'account di servizio
-
Dataproc Metastore Editor (
-
Per creare un cluster Dataproc:
(
roles/dataproc.worker
) nell'account di servizio della VM Dataproc -
Per concedere le autorizzazioni di lettura e scrittura alla directory del magazzino Hive:
(
roles/storage.objectAdmin
) nell'account di servizio della VM Dataproc
Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.
Questi ruoli predefiniti contengono le autorizzazioni necessarie per creare un Dataproc Metastore e un cluster Dataproc. Per visualizzare le autorizzazioni esatte richieste, espandi la sezione Autorizzazioni richieste:
Autorizzazioni obbligatorie
Per creare un Dataproc Metastore e un cluster Dataproc sono necessarie le seguenti autorizzazioni:
-
Per creare un Dataproc Metastore:
metastore.services.create
nell'account utente o nell'account di servizio -
Per creare un cluster Dataproc:
dataproc.clusters.create
nell'account utente o nell'account di servizio -
Per accedere alla directory del data warehouse Hive:
orgpolicy.policy.get1
,resourcemanager.projects.get
,resourcemanager.projects.list
,storage.objects.*
,storage.multipartUploads.*
Potresti anche ottenere queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.
Per ulteriori informazioni su ruoli e autorizzazioni specifici di Dataproc Metastore, consulta Gestire l'accesso con IAM.Cluster Dataproc
Dataproc è un servizio Apache Spark e Apache Hadoop gestito che consente di sfruttare gli strumenti per i dati open source per elaborazione batch, esecuzione di query, inserimento di flussi e machine learning.
Considerazioni
Prima di creare e collegare un cluster Dataproc, controlla quale protocollo endpoint utilizza il servizio Dataproc Metastore. Questo protocollo definisce in che modo i client Hive Metastore accedono ai metadati archiviati in Dataproc Metastore. Questa scelta può anche influire sulle funzionalità che puoi integrare e utilizzare con il tuo servizio.
Apache Thrift
Se utilizzi il protocollo dell'endpoint Apache Thrift, tieni conto dei seguenti requisiti di rete:
Per impostazione predefinita, devi creare il cluster Dataproc e il servizio Dataproc Metastore sulla stessa rete. Il cluster Dataproc può anche utilizzare una sottorete della rete del servizio Dataproc Metastore.
Se il tuo cluster Dataproc appartiene a un progetto diverso dalla rete, devi configurare le autorizzazioni di rete condivise.
Se il cluster Dataproc appartiene a un progetto diverso rispetto al servizio Dataproc Metastore, devi configurare autorizzazioni aggiuntive prima di creare un cluster Dataproc.
gRPC
Se utilizzi il protocollo endpoint gRPC, tieni conto dei seguenti requisiti di rete:
Dopo aver creato un metastore Dataproc utilizzando il protocollo dell'endpoint gRPC, devi concedere ruoli IAM aggiuntivi.
Se utilizzi l'autenticazione cluster personale Dataproc, il tuo Dataproc Metastore deve utilizzare il protocollo dell'endpoint gRPC.
Se il cluster Dataproc appartiene a un progetto diverso rispetto al servizio Dataproc Metastore, devi configurare autorizzazioni aggiuntive prima di creare un cluster Dataproc.
Crea un cluster e collega un metastore Dataproc
Le istruzioni riportate di seguito mostrano come creare un cluster Dataproc e connettersi da un servizio Dataproc Metastore. Queste istruzioni presuppongono che tu abbia già creato un servizio Dataproc Metastore.
- Prima di creare il cluster Dataproc, assicurati che l'immagine Dataproc scelta sia compatibile con la versione del metastore Hive selezionata quando hai creato Dataproc Metastore. Per ulteriori informazioni, consulta l'elenco delle versioni delle immagini Dataproc.
Per ottimizzare la connettività di rete, crea il cluster Dataproc nella stessa regione del servizio Dataproc Metastore.
Console
Nella console Google Cloud, apri la pagina Crea un cluster di Dataproc:
Nel campo Nome cluster, inserisci un nome per il cluster.
Per i menu Regione e Zona, seleziona la stessa regione in cui hai creato il servizio Dataproc Metastore. Puoi scegliere qualsiasi zona.
Fai clic sulla scheda Personalizza cluster.
Nella sezione Configurazione di rete, seleziona la stessa rete in cui hai creato il servizio Dataproc Metastore.
Nella sezione Dataproc Metastore, seleziona il servizio Dataproc Metastore da collegare. Se non ne hai ancora creato uno, puoi selezionare Crea Nuovo servizio.
(Facoltativo) Se il servizio Dataproc Metastore utilizza il protocollo dell'endpoint gRPC:
- Fai clic sulla scheda Gestisci sicurezza.
- Nella sezione Accesso progetto, seleziona Abilita l'ambito cloud-platform per questo cluster.
Configura le restanti opzioni di servizio in base alle tue esigenze.
Per creare il cluster, fai clic su Crea.
Il nuovo cluster viene visualizzato nell'elenco Cluster. Lo stato del cluster è indicato come Provisioning finché non è pronto per essere utilizzato. Quando è pronto per l'uso, lo stato diventa In esecuzione.
Interfaccia a riga di comando gcloud
Per creare un cluster e collegare un Dataproc Metastore, esegui il seguente comando gcloud dataproc clusters create
:
gcloud dataproc clusters create CLUSTER_NAME \ --dataproc-metastore=projects/PROJECT_ID/locations/LOCATION/services/SERVICE \ --region=LOCATION \ --scopes=SCOPES
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del nuovo cluster Dataproc.PROJECT_ID
: l'ID progetto del progetto in cui hai creato il servizio Dataproc Metastore.LOCATION
: la stessa regione in cui hai creato il servizio Dataproc Metastore.SERVICE
: il nome del servizio Dataproc Metastore che stai collegando al cluster.SCOPES
: (Facoltativo) se il servizio Dataproc Metastore utilizza il protocollo dell'endpoint gRPC, utilizzacloud-platform
.
REST
Segui le istruzioni dell'API per creare un cluster utilizzando Explorer API.
Collega un cluster utilizzando le proprietà del cluster Dataproc
Puoi anche collegare un cluster Dataproc a un Dataproc Metastore utilizzando le proprietà Dataproc.
Queste proprietà includono ENDPOINT_URI
e
WAREHOUSE_DIR
di Dataproc Metastore.
Segui queste istruzioni se il tuo servizio Dataproc Metastore utilizza Private Service Connect o se vuoi collegare un cluster Dataproc alla versione ausiliaria del servizio Dataproc Metastore.
Esistono due modi per collegare un cluster Dataproc utilizzando le proprietà ENDPOINT_URI
e WAREHOUSE_DIR
:
Opzione 1: durante la creazione di un cluster Dataproc
Quando crei un cluster Dataproc, utilizza il flag properties con la seguente configurazione Hive.
gcloud dataproc clusters create CLUSTER_NAME \ --properties="hive:hive.metastore.uris=ENDPOINT_URI,hive:hive.metastore.warehouse.dir=WAREHOUSE_DIR/hive-warehouse"
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del nuovo cluster Dataproc.ENDPOINT_URI
: l'URI dell'endpoint del servizio Dataproc Metastore.WAREHOUSE_DIR
: la posizione della directory del magazzino Hive.
Opzione 2: aggiorna il file hive-site.xml
Puoi anche collegare un cluster Dataproc modificando direttamente il file hive-site.xml
del cluster.
- Connettiti al cluster
.*-m
utilizzando SSH. Apri il file
/etc/hive/conf/hive-site.xml
e modifica le seguenti righe:<property> <name>hive.metastore.uris</name> <!-- Update this value. --> <value>ENDPOINT_URI</value> </property> <!-- Add this property entry. --> <property> <name>hive.metastore.warehouse.dir</name> <value>WAREHOUSE_DIR</value> </property>
Sostituisci quanto segue:
ENDPOINT_URI
: l'URI dell'endpoint del servizio Dataproc Metastore.WAREHOUSE_DIR
: la posizione della directory del magazzino Hive.
Riavvia HiveServer2:
sudo systemctl restart hive-server2.service
Cluster autogestiti
Un cluster autogestito può essere un'istanza Apache Hive, un'istanza Apache Spark o un cluster Presto.
Collega un cluster autogestito
Imposta i seguenti valori nel file di configurazione del client:
hive.metastore.uris=ENDPOINT_URI
hive.metastore.warehouse.dir=WAREHOUSE_DIR
Sostituisci quanto segue:
ENDPOINT_URI
: l'URI dell'endpoint del servizio Dataproc Metastore.WAREHOUSE_DIR
: la posizione della directory del magazzino Hive.
Passaggi successivi
- Guida rapida per il deployment di Dataproc Metastore
- Panoramica di Dataproc Metastore
- Panoramica di Dataproc