Best Practices für den Import und Export
Die folgenden Best Practices sollten beim Importieren und Exportieren von Daten berücksichtigt werden:
- Keine Cloud Storage-Buckets "Anforderer bezahlt" verwenden
- Auswirkungen von Exporten auf die Leistung minimieren
- Beim Erstellen einer mysqldump-Datei die korrekten Flags verwenden
- Daten komprimieren, um Kosten zu sparen.
- Lang andauernde Import- und Exportprozesse reduzieren
- Importierte Datenbank prüfen
Keine Cloud Storage-Buckets "Anforderer bezahlt" verwenden
Sie können keinen Cloud Storage-Bucket verwenden, für den Anforderer bezahlt für Importe und Exporte aus Cloud SQL aktiviert ist.
Auswirkungen von Exporten auf die Leistung minimieren
Bei einem Standardexport aus Cloud SQL wird der Export ausgeführt, während die Datenbank online ist. Wenn die zu exportierenden Daten weniger umfangreich sind, sind Auswirkungen wahrscheinlich minimal. Falls Datenbanken jedoch groß sind oder große Objekte wie BLOBs enthalten, besteht die Möglichkeit, dass der Export die Datenbankleistung beeinträchtigt. Dies kann sich auf die Dauer von Datenbankabfragen und -vorgängen auswirken, die für die Datenbank ausgeführt werden. Nachdem Sie einen Export gestartet haben, kann er nicht mehr angehalten werden, wenn die Datenbank langsam reagiert.
So verhindern Sie langsame Antworten während eines Exports:
Exportieren Sie ein Lesereplikat. Dies kann eine gute Option sein, wenn Sie häufig Exporte ausführen (täglich oder häufiger), die zu exportierende Datenmenge jedoch klein ist. Um einen Export aus einem Lesereplikat durchzuführen, verwenden Sie die Exportfunktionen der Google Cloud Console, von
gcloud
oder der REST API auf Ihrer Lesereplikatinstanz. Weitere Informationen zum Erstellen und Verwalten von Lesereplikaten finden Sie unter Lesereplikate erstellen.Verwenden Sie den serverlosen Export. Beim serverlosen Export erstellt Cloud SQL eine separate temporäre Instanz, um den Exportvorgang auszulagern. Damit können Datenbanken auf der primären Instanz weiterhin Abfragen verarbeiten und Vorgänge mit der üblichen Leistungsrate ausführen. Wenn der Datenexport abgeschlossen ist, wird die temporäre Instanz automatisch gelöscht. Dies kann eine gute Option sein, wenn Sie einen einmaligen Export einer großen Datenbank durchführen. Verwenden Sie die Exportfunktionen der Google Cloud Console, von
gcloud
oder der REST API mit dem Flagoffload
, um einen serverlosen Exportvorgang auszuführen.Während eines serverlosen Exportvorgangs können Sie verschiedene andere Vorgänge ausführen, z. B. Instanzbearbeitung, Import und Failover. Wenn Sie allerdings
In der folgenden Tabelle werden die Vorgänge aufgelistet, die während eines serverlosen Exportvorgangs blockiert werden können:delete
auswählen, wird der Exportvorgang einige Zeit nach dem Löschen der Instanz beendet und es werden keine Daten exportiert.Aktueller Vorgang Neuer Vorgang Blockiert? Beliebiger Vorgang Serverloser Export Ja Serverloser Export Alle Vorgänge außer serverloser Export Nein Alle Vorgänge außer serverloser Export Alle Vorgänge außer serverloser Export Ja Ein serverloser Export dauert länger als ein Standardexport, da das Erstellen der temporären Instanz einige Zeit in Anspruch nimmt. Er kann mindestens fünf Minuten länger dauern, bei größeren Datenbanken allerdings noch länger. Berücksichtigen Sie die Auswirkungen auf Zeit, Leistung und Kosten, bevor Sie den zu verwendenden Exporttyp bestimmen.
Beim Erstellen einer SQL-Dumpdatei die korrekten Flags verwenden
Wenn Sie beim Exportieren von Daten in eine SQL-Dumpdatei nicht richtig vorgehen, kann Ihr Import fehlschlagen. Informationen zum Erstellen einer SQL-Dumpdatei für den Import in Cloud SQL finden Sie unter Daten exportieren.
Daten zur Kosteneinsparung komprimieren
Cloud SQL unterstützt den Import und Export sowohl komprimierter als auch unkomprimierter Dateien. Durch die Komprimierung können Sie insbesondere beim Exportieren großer Instanzen viel Speicherplatz in Cloud Storage und somit Speicherkosten einsparen.
Verwenden Sie beim Exportieren einer SQL-Dumpdatei oder einer CSV-Datei die Dateiendung.gz
, um die Daten zu komprimieren. Beim Importieren einer Datei mit der Erweiterung .gz
wird die Datei automatisch dekomprimiert.
Lange andauernde Import- und Exportvorgänge reduzieren
Importe in Cloud SQL und Exporte aus Cloud SQL können je nach Menge der zu verarbeitenden Daten lange dauern. Dies kann folgende Auswirkungen haben:
- Sie können einen lange andauernden Cloud SQL-Instanzvorgang nicht anhalten.
- Sie können jeweils nur einen Import- oder Exportvorgang für jede Instanz ausführen. Ein lange andauernder Import oder Export blockiert andere Vorgänge wie tägliche automatische Sicherungen. Mit serverlosen Exporten können Sie weitere Vorgänge ausführen, z. B. die Bearbeitung von Instanzen, Import, Failover und die Freigabe täglicher automatischer Sicherungen.
Sie können den Zeitaufwand für die Durchführung der einzelnen Vorgänge verringern, indem Sie die Import- oder -Exportfunktion von Cloud SQL mit kleineren Datensätzen verwenden.
Sie können Exporte aus einem Lesereplikat durchführen oder den serverlosen Export verwenden, um die Auswirkungen auf die Datenbankleistung zu minimieren und die Ausführung anderer Vorgänge auf der Instanz zu ermöglichen, während ein Export ausgeführt wird.
Weitere Tipps finden Sie unter Fehlerdiagnose bei Cloud SQL-Instanzen.Importierte Datenbank prüfen
Stellen Sie nach Abschluss eines Importvorgangs eine Verbindung zu Ihrer Datenbank her und führen Sie die entsprechenden Datenbankbefehle aus, um sicherzustellen, dass der Inhalt korrekt ist. Beispiel: Stellen Sie ein Verbindung her und listen Sie die Datenbanken, Tabellen und spezifischen Einträge auf.
Bekannte Einschränkungen
Eine Liste bekannter Einschränkungen finden Sie unter Probleme beim Importieren und Exportieren von Daten.
Exportvorgänge automatisieren
Obwohl Cloud SQL keine integrierte Möglichkeit zum Automatisieren von Datenbankexporten bietet, können Sie Ihr eigenes Automatisierungstool mithilfe mehrerer Google Cloud-Komponenten erstellen. Weitere Informationen finden Sie in dieser Anleitung.
Fehlerbehebung
Fehlerbehebung bei Importvorgängen
Problem | Fehlerbehebung |
---|---|
Fehlermeldung: permission denied for schema public |
Wenn bei PostgreSQL 15 und höher die Zieldatenbank aus template0 erstellt wird, kann der Import von Daten fehlschlagen. Zum Beheben dieses Problems erteilen Sie dem Nutzer cloudsqlsuperuser öffentliche Schemaberechtigungen mit dem SQL-Befehl GRANT ALL ON SCHEMA public TO cloudsqlsuperuser . |
HTTP Error 409: Operation failed because another operation was already in progress . |
Für Ihre Instanz steht bereits ein Vorgang aus. Es ist jeweils nur ein Vorgang zulässig. Senden Sie Ihre Anfrage, nachdem der aktuelle Vorgang abgeschlossen ist. |
Der Importvorgang dauert zu lange. | Zu viele aktive Verbindungen können Importvorgänge beeinträchtigen.
Schließen Sie nicht verwendete Vorgänge. Prüfen Sie die CPU- und Arbeitsspeichernutzung Ihrer Cloud SQL-Instanz, um dafür zu sorgen, dass genügend Ressourcen verfügbar sind. Die beste Methode, um maximale Ressourcen für den Import zu gewährleisten, ist ein Neustart der Instanz vor Beginn des Vorgangs. Ein Neustart
|
Ein Importvorgang kann fehlschlagen, wenn ein oder mehrere Nutzer, auf die in der Dumpdatei verwiesen wird, nicht vorhanden sind. | Vor dem Importieren einer Dumpdatei müssen alle Datenbanknutzer, die Inhaber von Objekten sind oder Berechtigungen für Objekte in der Dumpdatenbank erhalten haben, in der Zieldatenbank vorhanden sein. Andernfalls kann der Importvorgang die Objekte nicht mit den ursprünglichen Eigentumsrechten oder Berechtigungen neu erstellen.
Erstellen Sie die Datenbanknutzer vor dem Import. |
Nach dem Import von Daten ist die Nutzung Ihres Datenlaufwerks viel höher. | Nach dem Import der Daten kann es zu einer unerwarteten Laufwerksnutzung kommen. Diese Nutzung kann auf die Wiederherstellung zu einem bestimmten Zeitpunkt zurückzuführen sein. Wenn Sie dieses Problem beheben möchten, deaktivieren Sie nach dem Import der Daten die Wiederherstellung zu einem bestimmten Zeitpunkt, wenn Sie Logs löschen und Speicherplatz wiederherstellen möchten. Beachten Sie, dass die Verringerung des verwendeten Speicherplatzes nicht die Größe des für die Instanz bereitgestellten Speichers reduziert. |
Fehlermeldung: GRANT stderr: ERROR: must be member of role ROLE_NAME |
Diese Fehlermeldung wird angezeigt, wenn Sie versuchen, eine in Cloud Storage hochgeladene SQL-Dumpdatei in eine Cloud SQL-Datenbank zu importieren, und der Importjob etwa vier Tage lang ausgeführt wurde. ROLE_NAME ist eine benutzerdefinierte Datenbankrolle, die in der Quell-PostgreSQL-Datenbank definiert ist. Der Standardnutzer So beheben Sie das Problem:
|
Fehlerbehebung bei Exportvorgängen
Problem | Fehlerbehebung |
---|---|
HTTP Error 409: Operation failed because another operation was
already in progress. |
Für Ihre Instanz steht bereits ein Vorgang aus. Es ist jeweils nur ein Vorgang zulässig. Senden Sie Ihre Anfrage, nachdem der aktuelle Vorgang abgeschlossen ist. |
HTTP Error 403: The service account does not have the required
permissions for the bucket. |
Prüfen Sie, ob der Bucket vorhanden ist und das Dienstkonto für die Cloud SQL-Instanz (die den Export durchführt) die Rolle Storage Object Creator (roles/storage.objectCreator ) hat, um den Export in den Bucket zu ermöglichen. Siehe IAM-Rollen für Cloud Storage. |
CSV-Export funktioniert, SQL-Export schlägt jedoch fehl. | Die Formate CSV und SQL werden unterschiedlich exportiert. Im SQL-Format wird die gesamte Datenbank exportiert, was wahrscheinlich länger dauert. Mit dem CSV-Format können Sie festlegen, welche Elemente der Datenbank in den Export einbezogen werden sollen.
Verwenden Sie CSV-Exporte, um nur das zu exportieren, was Sie benötigen. |
Export dauert zu lange. | Cloud SQL unterstützt keine gleichzeitigen synchronen Vorgänge.
Verwenden Sie die Exportauslagerung. Im Allgemeinen startet Cloud SQL bei der Exportauslagerung eine Auslagerungsinstanz zum Ausführen des Exports, anstatt einen Export für die Quellinstanz auszuführen. Die Exportauslagerung hat mehrere Vorteile, darunter eine höhere Leistung der Quellinstanz und die Aufhebung von Verwaltungsvorgängen, während der Export ausgeführt wird. Bei der Exportauslagerung kann sich die Gesamtlatenz um die Zeit erhöhen, die zum Erstellen der Auslagerungsinstanz erforderlich ist. Bei Exporten in angemessener Größe ist die Latenz im Allgemeinen nicht von Belang. Wenn der Export jedoch klein genug ist, können Sie einen Anstieg der Latenz feststellen. |
Fehler beim Erstellen der Erweiterung. | Die Dumpdatei enthält Verweise auf eine nicht unterstützte Erweiterung. |
Fehler beim Verwenden von pg_dumpall . |
Für die Verwendung des Dienstprogramms pg_dumpall mit dem Flag --global ist die Rolle „Superuser“ erforderlich. Diese Rolle wird in Cloud SQL for PostgreSQL jedoch nicht unterstützt. Verwenden Sie das Flag --no-role-passwords , um Fehler bei der Ausführung von Exportvorgängen mit Nutzernamen zu vermeiden.
|
Beim Exportvorgang tritt vor dem Export eine Zeitüberschreitung auf und Sie sehen die Fehlermeldung Could not receive data from client: Connection reset
by peer. . |
Wenn Cloud Storage innerhalb eines bestimmten Zeitraums keine Daten empfängt, in der Regel innerhalb etwa sieben Minuten, wird die Verbindung zurückgesetzt. Es kann sein, dass die Ausführung der ersten Exportabfrage zu lange dauert.
Führen Sie einen manuellen Export mit dem |
Sie möchten Exporte automatisieren. | Cloud SQL bietet keine Möglichkeit, Exporte zu automatisieren.
Sie können Ihr eigenes automatisiertes Exportsystem mit Google Cloud-Produkten wie Cloud Scheduler, Pub/Sub und Cloud Functions erstellen, ähnlich wie in diesem Artikel zur Automatisierung von Sicherungen. |
Nächste Schritte
- Daten mit PG-Dumpdateien importieren und exportieren
- Daten mit CSV-Dateien importieren und exportiereen
- Automatische Sicherungen aktivieren
- Daten aus Sicherungen wiederherstellen