Prüfen Sie, ob Ihre Frage oder das Problem bereits auf einer der folgenden Seiten beantwortet wurde:
Folgende Themen werden auf dieser Seite behandelt:
- Sicherung und Wiederherstellung
- Import und Export abbrechen
- Klonen
- Verbindung
- Instanzen erstellen
- Externe primäre Instanz
- Externes Replikat
- Flags
- Hochverfügbarkeit
- Import und Export
- Logging
- Instanzen verwalten
- Private Service Connect
- Replikation
Sicherung und Wiederherstellung
Problem | Fehlerbehebung |
---|---|
Der Status des aktuellen Vorgangs wird nicht angezeigt. | Die Google Cloud Console meldet erfolgreiche oder fehlgeschlagene Vorgänge nur, wenn diese abgeschlossen sind. Es werden keine Warnungen oder andere Updates angezeigt.
Führen Sie den
Befehl |
Sie möchten wissen, wer einen On-Demand-Sicherungsvorgang ausgelöst hat. | Auf der Benutzeroberfläche wird nicht der Nutzer angezeigt, der einen Vorgang gestartet hat.
Suchen Sie in den Logs und filtern Sie nach Text, um den Nutzer zu finden. Möglicherweise müssen Sie Audit-Logs für private Informationen verwenden. Zu den relevanten Logdateien gehören:
|
Nach dem Löschen einer Instanz können Sie keine Sicherung mehr davon erstellen. | Nachdem eine Instanz dauerhaft gelöscht wurde, ist keine Datenwiederherstellung mehr möglich. Wenn die Instanz jedoch wiederhergestellt wird, werden auch ihre Sicherungen wiederhergestellt. Weitere Informationen zum Wiederherstellen einer gelöschten Instanz finden Sie unter Wiederherstellungssicherungen. Wenn Sie einen Exportvorgang durchgeführt haben, können Sie eine neue Instanz erstellen und dann mit einem Importvorgang die Datenbank neu erstellen. Exporte werden in Cloud Storage geschrieben und Importe werden von dort gelesen. |
Eine automatische Sicherung bleibt viele Stunden hängen und kann nicht abgebrochen werden. | Sicherungen können je nach Datenbankgröße sehr lange dauern.
Wenn Sie den Vorgang wirklich abbrechen müssen, können Sie den Kundensupport bitten, einen Neustart der Instanz zu erzwingen ( |
Ein Wiederherstellungsvorgang kann fehlschlagen, wenn ein oder mehrere Nutzer, auf die in der SQL-Dumpdatei verwiesen wird, nicht vorhanden sind. | Vor dem Wiederherstellen eines SQL-Dumps müssen alle Datenbanknutzer, die Inhaber von Objekten in der Dumpdatenbank sind oder Berechtigungen dafür haben, in der Zieldatenbank vorhanden sein. Andernfalls kann der Wiederherstellungsvorgang die Objekte nicht mit den ursprünglichen Eigentumsrechten oder Berechtigungen neu erstellen.
Erstellen Sie die Datenbanknutzer, bevor Sie den SQL-Dump wiederherstellen. |
Sie möchten die Anzahl der Tage für die Aufbewahrung automatischer Sicherungen von sieben auf 30 Tage oder länger erhöhen. | Sie können die Anzahl der beizubehaltenden automatisierten Sicherungen auf 1 bis 365 festlegen. Automatische Sicherungen werden basierend auf dem konfigurierten Aufbewahrungswert regelmäßig entfernt. Leider bedeutet dies, dass die jeweils aktuell sichtbaren Sicherungen die einzigen automatischen Sicherungen sind, aus denen Sie wiederherstellen können.
Wenn Sie Sicherungen unbegrenzt aufbewahren möchten, können Sie eine On-Demand-Sicherung erstellen, da diese nicht auf dieselbe Weise wie automatische Sicherungen gelöscht wird. On-Demand-Sicherungen werden für unbegrenzte Zeit aufbewahrt. Das heißt, sie bleiben so lange erhalten, bis sie gelöscht werden, oder bis die Instanz gelöscht wird, zu der sie gehören. Da diese Art der Sicherung nicht automatisch gelöscht wird, kann sich dies auf die Abrechnung auswirken. |
Eine automatische Sicherung ist fehlgeschlagen und Sie haben keine E-Mail-Benachrichtigung erhalten. | Wenn Sie von Cloud SQL über den Status der Sicherung benachrichtigt werden möchten, konfigurieren Sie eine logbasierte Benachrichtigung. |
Import und Export abbrechen
Problem | Fehlerbehebung |
---|---|
Fehlermeldung: You can't cancel operation [operation-ID] because
this operation isn't in progress. |
Sie versuchen, einen Import- oder Exportvorgang abzubrechen, der abgeschlossen, fehlgeschlagen oder abgebrochen ist. Wenn der Vorgang ausgeführt wird, können Sie ihn abbrechen. |
Fehlermeldung: You can't cancel operation [operation-ID] because
Cloud SQL doesn't support the cancellation of an [operation-type]
operation. |
Cloud SQL unterstützt nicht das Abbrechen des Vorgangs, da es einen anderen Vorgangstyp als |
Fehlermeldung: The [operation-type] operation isn't cancelled. Wait
and retry in a few seconds. |
Cloud SQL kann den Import- oder Exportvorgang derzeit nicht abbrechen. Bitte versuch es in ein paar Sekunden noch einmal. Wenn das Problem weiterhin besteht, wenden Sie sich an den Google Cloud Support. |
Klonen
Problem | Fehlerbehebung |
---|---|
Der Klonvorgang schlägt mit dem Fehler constraints/sql.restrictAuthorizedNetworks fehl. |
Der Klonvorgang wird durch die Authorized Networks -Konfiguration blockiert.
Authorized Networks sind für öffentliche IP-Adressen im Bereich „Verbindung“ der Google Cloud Console konfiguriert und das Klonen ist aufgrund von Sicherheitsaspekten nicht zulässig.
Entfernen Sie nach Möglichkeit alle |
Fehlermeldung: Failed to create subnetwork. Couldn't find free
blocks in allocated IP ranges. Please allocate new ranges for this service
provider. Help Token: [help-token-id]. |
Sie versuchen, die Google Cloud Console zu verwenden, um eine Instanz mit einer privaten IP-Adresse zu klonen, aber Sie haben den zugewiesenen IP-Bereich, den Sie verwenden möchten, nicht angegeben, und die Quellinstanz wird nicht mit dem angegebenen Bereich erstellt. Dadurch wird die geklonte Instanz in einem zufälligen Bereich erstellt. Klonen Sie mit |
Verbinden
Problem | Fehlerbehebung |
---|---|
Aborted connection . |
Mögliche Ursache:
Anwendungen sollten Netzwerkfehler tolerieren und gemäß den Best Practices mit Verbindungs-Pooling und Wiederholungsversuchen arbeiten. Die meisten Verbindungs-Pooler erfassen diese Fehler nach Möglichkeit. Andernfalls muss die Anwendung einen Wiederholungsversuch ausführen oder ordnungsgemäß fehlschlagen. Für einen erneuten Verbindungsversuch empfehlen wir die folgenden Methoden:
Durch die Kombination dieser Methoden wird die Drosselung reduziert. |
Certificate verify failed . |
Die Clientzertifikate sind abgelaufen oder der Pfad zu den Zertifikaten ist nicht korrekt. Generieren Sie die Zertifikate neu, indem Sie sie neu erstellen. |
Instanzen erstellen
Problem | Fehlerbehebung |
---|---|
Fehlermeldung: Failed to create subnetwork. Couldn't
find free blocks in allocated IP ranges. Please allocate new ranges for
this service provider . |
Im zugewiesenen IP-Bereich sind keine weiteren Adressen verfügbar. Es gibt dazu mehrere mögliche Ursachen:
Zur Behebung dieses Problems können Sie entweder den vorhandenen zugewiesenen IP-Bereich erweitern oder der privaten Dienstverbindung einen zusätzlichen IP-Bereich zuweisen. Weitere Informationen finden Sie unter IP-Adressbereich zuweisen. Wenn Sie beim Erstellen der Cloud SQL-Instanz das Flag Achten Sie beim Zuweisen eines neuen Bereichs darauf, dass sich die Zuweisung nicht mit vorhandenen Zuweisungen überschneidet. Nachdem Sie einen neuen IP-Bereich erstellt haben, aktualisieren Sie das VPC-Peering mit folgendem Befehl: gcloud services vpc-peerings update \ --service=servicenetworking.googleapis.com \ --ranges=OLD_RESERVED_RANGE_NAME,NEW_RESERVED_RANGE_NAME \ --network=VPC_NETWORK \ --project=PROJECT_ID \ --force Wenn Sie eine bestehende Zuweisung erweitern, müssen Sie darauf achten, dass der Zuweisungsbereich nur vergrößert und nicht verkleinert wird. Wenn die ursprüngliche Zuweisung beispielsweise 10.0.10.0/24 war, sollte die neue Zuweisung mindestens 10.0.10.0/23 lauten. Wenn Sie von einer /24-Zuweisung ausgehen, ist es im Allgemeinen eine gute Faustregel, /mask für jede Bedingung (zusätzliche Instanztypgruppe, zusätzliche Region) um 1 zu verringern. Wenn Sie beispielsweise versuchen, beide Instanztypgruppen mit derselben Zuweisung zu erstellen, reicht es aus, von /24 zu /23 zu wechseln. Aktualisieren Sie nach dem Erweitern eines vorhandenen IP-Bereichs das VPC-Peering mit folgendem Befehl: gcloud services vpc-peerings update \ --service=servicenetworking.googleapis.com \ --ranges=RESERVED_RANGE_NAME \ --network=VPC_NETWORK \ --project=PROJECT_ID |
Fehlermeldung: Failed to create subnetwork. Router status is
temporarily unavailable. Please try again later. Help Token:
[token-ID] . |
Versuchen Sie noch einmal, die Cloud SQL-Instanz zu erstellen. |
Fehlermeldung: Failed to create subnetwork. Required
'compute.projects.get' permission for PROJECT_ID . |
Wenn Sie eine Instanz mithilfe einer privaten IP-Adresse erstellen, wird mit der Service Networking API zur richtigen Zeit ein Dienstkonto erstellt. Wenn Sie die Service Networking API erst vor Kurzem aktiviert haben, wird das Dienstkonto möglicherweise nicht erstellt und die Instanzerstellung schlägt fehl. In diesem Fall müssen Sie warten, bis das Dienstkonto im gesamten System verteilt wurde, oder es manuell mit den erforderlichen Berechtigungen hinzufügen. |
Exportieren
Problem | Fehlerbehebung |
---|---|
HTTP Error 409: Operation failed because another operation was
already in progress. |
Für Ihre Instanz steht bereits ein Vorgang aus. Es ist jeweils nur ein Vorgang zulässig. Senden Sie Ihre Anfrage, nachdem der aktuelle Vorgang abgeschlossen ist. |
HTTP Error 403: The service account does not have the required
permissions for the bucket. |
Prüfen Sie, ob der Bucket vorhanden ist und das Dienstkonto für die Cloud SQL-Instanz (die den Export durchführt) die Rolle Storage Object Creator (roles/storage.objectCreator ) hat, um den Export in den Bucket zu ermöglichen. Siehe IAM-Rollen für Cloud Storage. |
CSV-Export funktioniert, SQL-Export schlägt jedoch fehl. | Die Formate CSV und SQL werden unterschiedlich exportiert. Im SQL-Format wird die gesamte Datenbank exportiert, was wahrscheinlich länger dauert. Mit dem CSV-Format können Sie festlegen, welche Elemente der Datenbank in den Export einbezogen werden sollen.
Verwenden Sie CSV-Exporte, um nur das zu exportieren, was Sie benötigen. |
Export dauert zu lange. | Cloud SQL unterstützt keine gleichzeitigen synchronen Vorgänge.
Verwenden Sie die Exportauslagerung. Im Allgemeinen startet Cloud SQL bei der Exportauslagerung eine Auslagerungsinstanz zum Ausführen des Exports, anstatt einen Export für die Quellinstanz auszuführen. Die Exportauslagerung hat mehrere Vorteile, darunter eine höhere Leistung der Quellinstanz und die Aufhebung von Verwaltungsvorgängen, während der Export ausgeführt wird. Bei der Exportauslagerung kann sich die Gesamtlatenz um die Zeit erhöhen, die zum Erstellen der Auslagerungsinstanz erforderlich ist. Bei Exporten in angemessener Größe ist die Latenz im Allgemeinen nicht von Belang. Wenn der Export jedoch klein genug ist, können Sie einen Anstieg der Latenz feststellen. |
Sie möchten Exporte automatisieren. | Cloud SQL bietet keine Möglichkeit, Exporte zu automatisieren.
Sie können Ihr eigenes automatisiertes Exportsystem mit Google Cloud-Produkten wie Cloud Scheduler, Pub/Sub und Cloud Functions erstellen, ähnlich wie in diesem Artikel zur Automatisierung von Sicherungen. |
Externe primäre Instanz
Problem | Fehlerbehebung |
---|---|
Lost connection to MySQL server during query when dumping table . |
Die Quelle war möglicherweise nicht mehr verfügbar oder der Dump enthielt zu große Pakete.
Sorgen Sie dafür, dass die externe primäre Instanz für die Verbindungsherstellung verfügbar ist. Sie können die Werte der Flags net_read_timeout und net_write_timeout auf der Quellinstanz auch ändern, um den Fehler zu beenden. Weitere Informationen zu den zulässigen Werten für diese Flags finden Sie unter Datenbank-Flags konfigurieren. Weitere Informationen zur Verwendung von |
Die erste Datenmigration war erfolgreich, aber es werden keine Daten repliziert. | Dies kann daran liegen, dass in der Quelldatenbank bestimmte Replikations-Flags definiert sind, die die Replikation von manchen oder allen Datenbankänderungen verhindern.
Achten Sie darauf, dass Replikations-Flags wie Führen Sie den Befehl |
Die Datenmigration verlief anfangs erfolgreich, danach jedoch nicht mehr. | Versuchen Sie Folgendes:
|
mysqld check failed: data disk is full . |
Das Datenlaufwerk der Replikatinstanz ist voll.
Erhöhen Sie die Laufwerkgröße der Replikatinstanz. Sie können die Laufwerkgröße manuell erhöhen oder die automatische Speichererweiterung aktivieren. |
Externes Replikat
Problem | Fehlerbehebung |
---|---|
Fehlermeldung: The slave is connecting ... master has purged
binary logs containing GTIDs that the slave requires . |
Die primäre Cloud SQL-Instanz umfasst automatische Sicherungen und binäre Logs. Außerdem wird die Wiederherstellung zu einem bestimmten Zeitpunkt aktiviert. Sie sollte deshalb genügend Logs haben, damit das Replikat aufholen kann. In diesem Fall weiß das Replikat jedoch nicht, ab welcher Zeile mit dem Lesen begonnen werden soll, obwohl die Binärlogs vorhanden sind.
Erstellen Sie eine neue Dumpdatei mit den richtigen Flag-Einstellungen und konfigurieren Sie das externe Replikat mithilfe dieser Datei.
|
Flags
Problem | Fehlerbehebung |
---|---|
Nach dem Aktivieren eines Flags wechselt die Instanz zwischen einer Panik und einem Absturz. | Wenden Sie sich an den Kundensupport, um ein Entfernen des Flags mit anschließendem hard drain anzufordern. Dadurch wird die Instanz auf einem anderen Host mit einer neuen Konfiguration und ohne das Flag bzw. ohne die Einstellung neu gestartet.
|
Beim Festlegen eines Flags wird die Fehlermeldung Bad syntax for dict arg angezeigt.
| Komplexe Parameterwerte wie durch Kommas getrennte Listen erfordern eine besondere Behandlung, wenn sie mit gcloud-Befehlen verwendet werden. |
Hochverfügbarkeit
Problem | Fehlerbehebung |
---|---|
Sie können die Messwerte für ein manuelles Failover nicht finden. | Nur automatische Failovers werden in den Messwerten aufgenommen. |
Cloud SQL-Instanzressourcen (CPU und RAM) sind zu fast 100 % ausgelastet, wodurch die Hochverfügbarkeitsinstanz abstürzt. | Die Rechnerkapazitäten der Instanz reichen für die Arbeitslast nicht aus.
Bearbeiten Sie die Instanz, um ein Upgrade auf einen Rechner mit höherer Kapazität durchzuführen, sodass mehr CPUs und Speicherplatz verfügbar sind. |
Importieren
Problem | Fehlerbehebung |
---|---|
HTTP Error 409: Operation failed because another operation was already in progress . |
Für Ihre Instanz steht bereits ein Vorgang aus. Es ist jeweils nur ein Vorgang zulässig. Senden Sie Ihre Anfrage, nachdem der aktuelle Vorgang abgeschlossen ist. |
Der Importvorgang dauert zu lange. | Zu viele aktive Verbindungen können Importvorgänge beeinträchtigen.
Schließen Sie nicht verwendete Vorgänge. Prüfen Sie die CPU- und Arbeitsspeichernutzung Ihrer Cloud SQL-Instanz, um dafür zu sorgen, dass genügend Ressourcen verfügbar sind. Die beste Methode, um maximale Ressourcen für den Import zu gewährleisten, ist ein Neustart der Instanz vor Beginn des Vorgangs. Ein Neustart
|
Ein Importvorgang kann fehlschlagen, wenn ein oder mehrere Nutzer, auf die in der Dumpdatei verwiesen wird, nicht vorhanden sind. | Vor dem Importieren einer Dumpdatei müssen alle Datenbanknutzer, die Inhaber von Objekten sind oder Berechtigungen für Objekte in der Dumpdatenbank erhalten haben, in der Zieldatenbank vorhanden sein. Andernfalls kann der Importvorgang die Objekte nicht mit den ursprünglichen Eigentumsrechten oder Berechtigungen neu erstellen.
Erstellen Sie die Datenbanknutzer vor dem Import. |
Ein Importvorgang schlägt mit der Fehlermeldung fehl, dass keine Tabelle vorhanden ist. | Tabellen können Fremdschlüsselabhängigkeiten von anderen Tabellen haben. Abhängig von der Reihenfolge der Vorgänge kann eine oder mehrere dieser Tabellen während des Importvorgangs noch nicht vorhanden sein.
Versuchen Sie Folgendes: Fügen Sie am Anfang der Dumpdatei die folgende Zeile hinzu: SET FOREIGN_KEY_CHECKS=0; Fügen Sie außerdem am Ende der Dumpdatei die folgende Zeile hinzu: SET FOREIGN_KEY_CHECKS=1; Mit diesen Einstellungen werden Datenintegritätsprüfungen während des Importvorgangs deaktiviert und nach dem Laden der Daten wieder aktiviert. Dies wirkt sich nicht auf die Integrität der Daten in der Datenbank aus, da die Daten bereits beim Erstellen der Dumpdatei validiert wurden. |
Logging
Problem | Fehlerbehebung |
---|---|
Audit-Logs wurden nicht gefunden. | Logs zum Datenzugriff werden nur geschrieben, wenn der Vorgang ein authentifizierter, nutzergesteuerter API-Aufruf ist, der von Nutzern erstellte Daten erstellt, ändert oder liest, oder wenn der Vorgang auf Konfigurationsdateien oder Metadaten von Ressourcen zugreift. |
Vorgangsinformationen wurden nicht in Logs gefunden. | Sie möchten weitere Informationen zu einem Vorgang erhalten.
Beispiel: Ein Nutzer wurde gelöscht, aber Sie können nicht sehen, wer ihn gelöscht hat. Die Logs zeigen den gestarteten Vorgang an, enthalten jedoch keine weiteren Informationen. Für die Erfassung detaillierter und personenidentifizierbarer Informationen wie diesen müssen Sie Audit-Logging aktivieren. |
Logging beansprucht viel Speicherplatz. | Es gibt drei Arten von Logdateien, die Speicherplatz belegen: Redo-Logs, allgemeine Logs und binäre Logs.
Stellen Sie eine Verbindung zur Datenbank her und führen Sie die folgenden Befehle aus, um Details zu den einzelnen Arten zu erhalten: SHOW VARIABLES LIKE 'innodb_log_file%'; SELECT ROUND(SUM(LENGTH(argument)/POW(1024,2),2) AS GB from mysql.general_log; SHOW BINARY LOGS; |
Logdateien sind schwer zu lesen. | Sie können die Logs alternativ im JSON- oder Textformat aufrufen. Sie können zum Herunterladen der Logs den Befehl gcloud logging read zusammen mit Linux-Nachbearbeitungsbefehlen verwenden.
So laden Sie die Logs im JSON-Format herunter: gcloud logging read \ "resource.type=cloudsql_database \ AND logName=projects/PROJECT_ID \ /logs/cloudsql.googleapis.com%2FLOG_NAME" \ --format json \ --project=PROJECT_ID \ --freshness="1d" \ > downloaded-log.json So laden Sie die Logs als TEXT herunter: gcloud logging read \ "resource.type=cloudsql_database \ AND logName=projects/PROJECT_ID \ /logs/cloudsql.googleapis.com%2FLOG_NAME" \ --format json \ --project=PROJECT_ID \ --freshness="1d"| jq -rnc --stream 'fromstream(1|truncate_stream(inputs)) \ | .textPayload' \ --order=asc > downloaded-log.txt |
Instanzen verwalten
Problem | Fehlerbehebung |
---|---|
Beeinträchtigte Leistung nach dem Neustart von MySQL. | Cloud SQL ermöglicht das Caching von Daten im InnoDB-Pufferpool. Nach einem Neustart ist dieser Cache jedoch immer leer und alle Lesevorgänge erfordern einen Umlauf zum Backend, um Daten abzurufen. Dies kann dazu führen, dass Abfragen langsamer als erwartet sind, bis der Cache gefüllt ist. |
Langsame Wiederherstellung nach einem Absturz. | Möglicherweise hat sich ein großes general_log angesammelt.
Sie können die Absturzwiederherstellungszeit reduzieren, wenn Sie darauf achten, dass sich kein großes general_log ansammelt. Wenn Sie general_log aktiviert haben, kürzen Sie die Tabelle und aktivieren Sie general_log nur für kurze Zeit.
Sie können die Größe der allgemeinen Logs ermitteln. Stellen Sie dazu eine Verbindung zur Datenbank her und führen Sie die folgende Abfrage aus: SELECT ROUND(SUM(LENGTH(argument)/POW(1024,2)),2) from mysql.general_log;
|
Sie möchten herausfinden, was Speicherplatz verbraucht. | Sie stellen beispielsweise fest, dass Ihre Datenbank nur 3 GB verwendet, aber laut Cloud Storage werden 14 GB Speicherplatz verwendet. Der Großteil des Speicherplatzes, der nicht von Tabellen belegt wird, wird von binären Logs und/oder temporären Dateien genutzt.
Versuchen Sie Folgendes:
|
Abfragen werden blockiert. | Es ist möglich, dass Abfragen die MySQL-Datenbank sperren, wodurch alle nachfolgenden Abfragen blockiert werden oder eine Zeitüberschreitung auftritt.
Stellen Sie eine Verbindung zur Datenbank her und führen Sie die folgende Abfrage aus:
Das erste Element in der Liste kann das sperrende Element sein, wegen dem die nachfolgenden Elemente warten müssen. Die Abfrage |
Sie können binäre Logs nicht manuell löschen. | Binäre Logs können nicht manuell gelöscht werden. Sie werden automatisch mit der zugehörigen automatischen Sicherung gelöscht. Dies erfolgt grundsätzlich nach ca. sieben Tagen. |
Sie möchten Informationen zu temporären Dateien finden. | Die Datei ibtmp1 wird zum Speichern temporärer Daten verwendet. Diese Datei wird beim Neustart der Datenbank zurückgesetzt. Um Informationen zur Nutzung temporärer Dateien zu erhalten, stellen Sie eine Verbindung zur Datenbank her und führen Sie die folgende Abfrage aus:
|
Sie möchten mehr über Tabellengrößen erfahren. | Diese Informationen sind in der Datenbank verfügbar.
Stellen Sie eine Verbindung zur Datenbank her und führen Sie die folgende Abfrage aus:
|
mysqld hat das Signal 11. | Refaktorieren Sie die Abfragen so, dass damit nicht zu viele Verbindungen erstellt werden.
Wenn das Problem dadurch nicht behoben wird, wenden Sie sich an den Kundensupport.
Signal 11 stellt in der Regel ein MySQL-Softwareproblem dar.
|
InnoDB: page_cleaner: 1000ms intended loop took 5215ms. The
settings might not be optimal. |
Die Seitenbereinigung kann nicht mit der Änderungsrate auf der Instanz Schritt halten.
Einmal pro Sekunde prüft die Seitenbereinigung den Pufferpool auf schmutzige Seiten, um sie aus dem Pufferpool zu leeren und auf das Laufwerk zu übertragen. Der angezeigten Warnung können Sie entnehmen, dass viele schmutzige Seiten zu leeren sind und es länger als eine Sekunde dauert, um einen Satz dieser Seiten auf das Laufwerk zu übertragen.
Fragmentieren Sie die Instanz nach Möglichkeit. Mehrere kleine Cloud SQL-Instanzen sind oft besser als eine große Instanz. |
Automatischer Speicher wurde durch temporären Speicher erhöht. | Der automatische Speicher ist aktiviert.
Durch den Neustart werden die temporären Dateien gelöscht, der Speicherplatz wird jedoch nicht reduziert. Nur der Kundensupport kann die Instanzgröße zurücksetzen. |
Daten werden automatisch gelöscht. | Höchstwahrscheinlich wird irgendwo in Ihrer Umgebung ein Skript ausgeführt.
Sehen Sie in den Logs zur Zeit des Löschvorgangs nach, ob ein schädliches Skript über ein Dashboard oder einen anderen automatisierten Prozess ausgeführt wird. |
Instanz kann nicht gelöscht werden. | Sie sehen möglicherweise die Fehlermeldung ERROR: (gcloud.sql.instances.delete) HTTP Error
409: The instance or operation is not in an appropriate state to handle the
request oder die Instanz hat möglicherweise den Flag-Status INSTANCE_RISKY_FLAG_CONFIG .Im Folgenden sind einige mögliche Erklärungen aufgeführt:
|
Instanz bleibt aufgrund großer temporärer Datenmengen hängen. | Abhängig von den Abfragen und der Auslastung kann das System viele temporäre Tabellen gleichzeitig erstellen.
Sie können die Eine Möglichkeit, das Problem zu beheben, besteht darin, die temporäre Tabelle mit |
Schwerwiegender Fehler beim Upgrade. | Die Logs enthalten zwar möglicherweise weitere Informationen, aber wahrscheinlich benötigen Sie Hilfe vom Kundensupport, um die Neuerstellung der Instanz zu erzwingen. |
Instanz bleibt beim Neustart hängen, nachdem der Speicherplatz ausgeschöpft ist. | Die automatische Speichererweiterung ist nicht aktiviert.
Wenn der Speicherplatz Ihrer Instanz aufgebraucht ist und die automatische Speichererweiterung nicht aktiviert ist, wird die Instanz offline geschaltet. Dies können Sie vermeiden, wenn Sie die Instanz bearbeiten und die automatische Speichererweiterung aktivieren. |
Die lokale primäre Instanz bleibt hängen | Google Cloud bietet für Instanzen, die nicht in Cloud SQL enthalten sind, keine Unterstützung. |
Langsames Herunterfahren beim Neustart. | Beim Herunterfahren einer Instanz können alle ausstehenden Verbindungen, die nicht innerhalb von 60 Sekunden beendet werden, ein nicht ordnungsgemäßes Herunterfahren verursachen.
Wenn Sie Verbindungen von weniger als 60 Sekunden verwenden, kann in den meisten Fällen das nicht ordnungsgemäße Herunterfahren vermieden werden. Dies gilt auch für Verbindungen, die über die Eingabeaufforderung der Datenbank hergestellt werden. Wenn Sie diese Verbindungen mehrere Stunden oder Tage geöffnet lassen, kann dies das Herunterfahren beeinträchtigen. |
Nutzer kann nicht gelöscht werden. | Der Nutzer ist wahrscheinlich Inhaber von Objekten in der Datenbank, die davon abhängig sind. Sie müssen diese Objekte löschen oder einem anderen Nutzer zuweisen.
Finden Sie heraus, welche Objekte vom Nutzer abhängig sind, löschen Sie diese Objekte oder weisen Sie sie einem anderen Nutzer zu. In diesem Artikel wird erläutert, wie Sie die Objekte finden, deren Eigentümer der Nutzer ist. |
Bestimmte Abfragen werden langsam ausgeführt. | Abfragen können aus vielen Gründen langsam sein, hauptsächlich aufgrund bestimmter Aspekte der Datenbank. Ein Grund, der sich auf Cloud SQL auswirken kann, ist die Netzwerklatenz, wenn sich die Quellressource (Autor oder Leser) und die Zielressource (Cloud SQL) in verschiedenen Regionen befinden.
Lesen Sie insbesondere die Informationen unter Allgemeine Leistungstipps. Wenn Datenbankeinträge, Aktualisierungen oder Löschvorgänge sehr langsam sind, probieren Sie Folgendes:
Für eine möglichst geringe Latenz sollten sich die Quell- und Zielressourcen in derselben Region befinden. |
Es wird angegeben, dass nicht genügend Arbeitsspeicher vorhanden ist, aber in Monitoring-Diagrammen wird dies nicht angezeigt. | Eine Instanz kann fehlschlagen und Out of memory melden, aber in den Google Cloud Console- oder Cloud Monitoring-Diagrammen wird angezeigt, dass noch Arbeitsspeicher vorhanden ist.
Neben der Arbeitslast gibt es weitere Faktoren, die sich auf die Speichernutzung auswirken können, z. B. die Anzahl der aktiven Verbindungen und internen Overhead-Prozesse. Diese werden nicht immer in den Monitoring-Diagrammen widergespiegelt. Die Instanz muss genügend Kapazität für die Arbeitslast und zusätzlichen Overhead haben. |
Gelöschte Instanz wiederherstellen | Alle Daten einer Instanz, einschließlich Sicherungen, werden beim Löschen der Instanz dauerhaft entfernt.
Wenn Sie die Daten beibehalten möchten, exportieren Sie diese in Cloud Storage, bevor Sie eine Instanz löschen. Die Rolle "Cloud SQL-Administrator" enthält die Berechtigung zum Löschen der Instanz. Gewähren Sie diese Rolle nur, wenn nötig, um ein versehentliches Löschen zu vermeiden. |
Sie möchten eine vorhandene Cloud SQL-Instanz umbenennen. | Das Umbenennen einer vorhandenen Instanz wird nicht unterstützt.
Es gibt noch andere Möglichkeiten, das Ziel zu erreichen, indem eine neue Instanz erstellt wird.
In beiden Fällen können Sie Ihre alte Instanz löschen, nachdem der Vorgang abgeschlossen wurde. Es wird empfohlen, das Klonen zu verwenden, da dies keine Beeinträchtigung der Leistung nach sich zieht und Sie die Einstellungen der Instanzkonfiguration zu Flags, Maschinentyp, Speichergröße und Arbeitsspeicher nicht noch einmal festlegen müssen. |
Fehler beim Löschen einer Instanz. | Wenn der Löschschutz für eine Instanz aktiviert ist, bestätigen Sie Ihre Pläne, die Instanz zu löschen. Deaktivieren Sie dann den Löschschutz, bevor Sie die Instanz löschen. |
Private Service Connect
Problem | Fehlerbehebung |
---|---|
Der Dienstanhang der Instanz akzeptiert den Private Service Connect-Endpunkt nicht. |
|
Replikation
Problem | Fehlerbehebung |
---|---|
Beim Erstellen hat das Lesereplikat nicht repliziert. | Möglicherweise finden Sie in den Logdateien einen spezifischen Fehler. Prüfen Sie die Logs in Cloud Logging, um den tatsächlichen Fehler zu finden. |
Lesereplikat kann nicht erstellt werden – invalidFlagValue-Fehler | Eines der Flags in der Anfrage ist ungültig. Dies kann ein Flag sein, das Sie explizit angegeben haben, oder ein Flag, für das ein Standardwert festgelegt wurde.
Prüfen Sie als Erstes, ob der Wert des Flags Wenn das Flag |
Lesereplikat kann nicht erstellt werden – unbekannter Fehler. | Möglicherweise finden Sie in den Logdateien einen spezifischen Fehler.
Prüfen Sie die Logs in Cloud Logging, um den tatsächlichen Fehler zu finden.
Lautet der Fehler |
Laufwerk ist voll. | Das Laufwerk der primären Instanz kann während der Replikaterstellung zu voll werden. Bearbeiten Sie die primäre Instanz, um sie auf ein größeres Laufwerk zu aktualisieren. |
Die Replikatinstanz verwendet zu viel Arbeitsspeicher. | Das Replikat verwendet temporären Speicher zum Speichern häufig angeforderter Lesevorgänge im Cache, was dazu führen kann, dass es mehr Speicher als die primäre Instanz verwendet.
Starten Sie die Replikatinstanz neu, um den temporären Speicherplatz freizugeben. |
Replikation gestoppt. | Das maximale Speicherlimit wurde erreicht und die automatische Speichererweiterung ist nicht aktiviert.
Bearbeiten Sie die Instanz, um |
Replikationsverzögerung ist durchgehend hoch. | Die Schreiblast ist für das Replikat zu hoch. Die Replikationsverzögerung tritt auf, wenn der SQL-Thread auf einem Replikat nicht mit dem E/A-Thread Schritt halten kann. Einige Arten von Abfragen oder Arbeitslasten können vorübergehend oder dauerhaft zu einer hohen Replikationsverzögerung für ein bestimmtes Schema führen. Typische Ursachen für Replikationsverzögerungen sind:
Hier einige mögliche Lösungen:
|
Die Replikationsverzögerung steigt plötzlich stark an. | Dies wird durch lang andauernde Transaktionen verursacht. Wenn ein Commit einer Transaktion (einzelne oder mehrere Anweisungen) auf der Quellinstanz durchgeführt wird, wird die Startzeit der Transaktion im binären Log aufgezeichnet. Wenn das Replikat dieses binlog-Ereignis empfängt, vergleicht es den Zeitstempel mit dem aktuellen Zeitstempel, um die Replikationsverzögerung zu berechnen. Eine lang andauernde Transaktion in der Quelle würde daher zu einer sofortigen großen Replikationsverzögerung auf dem Replikat führen. Wenn die Menge der Zeilenänderungen in der Transaktion groß ist, würde das Replikat auch viel Zeit für die Ausführung benötigen. Während der Zeit erhöht sich die Replikationsverzögerung. Sobald das Replikat diese Transaktion abgeschlossen hat, hängt die Aufholphase von der Schreibarbeitslast auf der Quelle und der Verarbeitungsgeschwindigkeit des Replikats ab.
So vermeiden Sie lange Transaktionen z. B.:
|
Das Ändern der Flags für die parallele Replikation führt zu einem Fehler. | Für mindestens eines dieser Flags wurde ein falscher Wert festgelegt.
Legen Sie in der primären Instanz, die die Fehlermeldung anzeigt, die Flags für die parallele Replikation fest:
|
Die Replikaterstellung schlägt bei Zeitüberschreitung fehl. | Langlaufende Transaktionen ohne Commit auf der primären Instanz können dazu führen, dass die Lesereplikaterstellung fehlschlägt.
Erstellen Sie das Replikat neu, nachdem alle laufenden Abfragen beendet sind. |