Daten importieren und exportieren

Auf dieser Seite werden die verfügbaren Methoden zum Importieren und Exportieren von Daten in und aus Bigtable aufgeführt.

Daten in Bigtable importieren

Informationen zum Importieren von BigQuery-Daten in Bigtable finden Sie in der BigQuery-Dokumentation unter Daten nach Bigtable exportieren (Reverse ETL).

Sie können kontinuierliche Abfragen für Ihre BigQuery-Daten ausführen und die Ergebnisse in Echtzeit mit Reverse-ETL nach Bigtable exportieren. Weitere Informationen finden Sie in der BigQuery-Dokumentation unter Einführung in Continuous Queries.

Daten mit einer Vorlage verschieben oder kopieren

Mit den folgenden Dataflow-Vorlagen können Sie Daten zwischen Bigtable und anderen Quellen oder Zielen verschieben oder kopieren.

BigQuery

Mit der folgenden Dataflow-Vorlage können Sie Daten aus BigQuery in Bigtable exportieren.

Apache Cassandra für Bigtable

Mit der folgenden Dataflow-Vorlage können Sie Daten aus Apache Cassandra nach Bigtable exportieren.

Avro-Dateien

Mit den folgenden Dataflow-Vorlagen können Sie Daten aus Bigtable als Avro-Dateien exportieren und anschließend wieder in Bigtable importieren. Sie können die Vorlagen mit der Google Cloud CLI oder der Google Cloud -Konsole ausführen. Der Quellcode ist auf GitHub verfügbar.

Parquet-Dateien

Mit den folgenden Dataflow-Vorlagen können Sie Daten aus Bigtable als Parquet-Dateien exportieren und anschließend wieder in Bigtable importieren. Sie können die Vorlagen mit der gcloud CLI oder der Google Cloud -Konsole ausführen. Der Quellcode ist auf GitHub verfügbar.

SequenceFiles

Mit den folgenden Dataflow-Vorlagen können Sie Daten aus Bigtable als SequenceFiles exportieren und anschließend wieder in Bigtable importieren. Sie können die Vorlagen mit der Google Cloud CLI oder der Google Cloud -Konsole ausführen.

Von der Seite „Tabellen“ importieren

Viele der auf dieser Seite beschriebenen Importmethoden können Sie über dieGoogle Cloud -Konsole ausführen. Sie können die folgenden Datentypen von der Seite Tabellen importieren:

  • CSV-Daten
  • BigQuery-Daten
  • Avro-Dateien
  • Cassandra-Schlüsselbereiche und -Tabellen
  • Parquet-Dateien
  • SequenceFile-Dateien

Console

  1. Öffnen Sie in der Google Cloud Console die Liste der Bigtable-Instanzen.

    Liste der Instanzen öffnen

  2. Klicken Sie auf die Instanz, die die Tabelle enthält, die Sie importieren möchten.

  3. Klicken Sie im linken Bereich auf Tabellen.

    Die Seite Tabellen enthält eine Liste der in der Instanz vorhandenen Tabellen.

  4. Klicken Sie neben dem Namen der Tabelle, in die Sie Daten importieren möchten, auf das Menü  Tabellenaktion.

  5. Klicken Sie auf Daten importieren und wählen Sie dann den Datentyp aus, den Sie importieren möchten:

    • Wenn Sie Avro, Parquet, SequenceFile oder Cassandra auswählen, wird in der Konsole eine unvollständige Dataflow-Vorlage angezeigt. Füllen Sie die Jobvorlage aus und klicken Sie auf Job ausführen.
    • Wenn Sie „CSV“ auswählen, wird das Terminalfenster für das cbt-CLI geöffnet. Weitere Informationen finden Sie in diesem Dokument im Abschnitt CSV-Daten importieren.
    • Wenn Sie BigQuery auswählen, wird BigQuery Studio geöffnet. Füllen Sie die Reverse-ETL-Abfrage aus und führen Sie sie aus.

Von der Seite „Tabellen“ exportieren

Einige der auf dieser Seite beschriebenen Exportmethoden können Sie über dieGoogle Cloud -Konsole ausführen. Sie können die folgenden Datentypen von der Seite Tabellen exportieren:

  • Avro-Dateien
  • Parquet-Dateien
  • SequenceFile-Dateien

Console

  1. Öffnen Sie in der Google Cloud Console die Liste der Bigtable-Instanzen.

    Liste der Instanzen öffnen

  2. Klicken Sie auf die Instanz, die die Tabelle enthält, die Sie exportieren möchten.

  3. Klicken Sie im linken Bereich auf Tabellen.

    Die Seite Tabellen enthält eine Liste der in der Instanz vorhandenen Tabellen.

  4. Klicken Sie neben dem Namen der Tabelle auf das Menü  Tabellenaktion.

  5. Klicken Sie auf Daten exportieren und wählen Sie den Dateityp aus, den Sie exportieren möchten.

    In der Konsole ist eine unvollständige Dataflow-Vorlage zu sehen.

  6. Füllen Sie die Jobvorlage aus und klicken Sie auf Job ausführen.

CSV-Daten importieren

Sie können Daten aus einer CSV-Datei in eine Bigtable-Tabelle importieren, indem Sie die cbt-Befehlszeile verwenden. Dazu müssen Sie dafür sorgen, dass Ihre Umgebung, z. B. Cloud Shell, auf die CSV-Datei zugreifen kann. Sie haben folgende Möglichkeiten, Ihre CSV-Datei in Cloud Shell zu übertragen:

Lokale CSV-Datei hochladen:

  1. Klicken Sie in Cloud Shell auf das Menü  Mehr und wählen Sie Hochladen aus.
  2. Wählen Sie die CSV-Datei auf Ihrem lokalen Computer aus.
  3. Nachdem Sie die Datei hochgeladen haben, verweisen Sie mit dem Namen der Datei im cbt-CLI-Befehl darauf.

CSV-Datei aus Cloud Storage kopieren:

Die cbt-Befehlszeile unterstützt das Importieren aus einem Cloud Storage-Bucket nicht direkt. Sie müssen die CSV-Datei zuerst aus Cloud Storage in Ihre Cloud Shell-Umgebung kopieren. Weitere Informationen finden Sie unter Objekt in einen Bucket hochladen.

Wenn die CSV-Datei in Ihrer Umgebung verfügbar ist, verwenden Sie den cbt-CLI-Befehl, um die Daten zu importieren. Ein Beispielbefehl finden Sie unter Viele Zeilen basierend auf der Eingabedatei im Batch schreiben.

Nächste Schritte