질문 또는 문제가 다음 페이지 중 하나에서 이미 해결된 것인지 확인합니다.
이 페이지의 주제는 다음과 같습니다.
- 백업 및 복구
- 가져오기 및 내보내기 취소
- 클론
- 연결
- 인스턴스 만들기
- 플래그
- 고가용성
- 가져오기 및 내보내기
- Vertex AI와 통합
- 로깅
- 인스턴스 관리
- Private Service Connect
- 복제
백업 및 복구
문제 | 문제 해결 |
---|---|
현재 작업의 상태를 볼 수 없습니다. | Google Cloud 콘솔은 작업 완료 시에만 성공 또는 실패를 보고합니다. 경고 또는 기타 업데이트를 표시하도록 설계되지 않았습니다.
|
주문형 백업 작업을 실행한 사용자를 확인하려고 합니다. | 사용자 인터페이스에 작업을 시작한 사용자가 표시되지 않습니다.
로그를 살펴보고 텍스트를 기준으로 필터링하여 사용자를 찾습니다. 비공개 정보의 경우 감사 로그를 사용해야 할 수도 있습니다. 관련 로그 파일은 다음과 같습니다.
|
인스턴스가 삭제된 후에는 인스턴스를 백업할 수 없습니다. | 인스턴스가 삭제된 후에는 데이터를 복구할 수 없습니다. 그러나 인스턴스가 복원되면 해당 백업도 복원됩니다. 삭제된 인스턴스를 복구하는 방법에 대한 자세한 내용은 복구 백업을 참조하세요. 내보내기 작업을 완료한 경우 새 인스턴스를 만든 다음 가져오기 작업을 수행하여 데이터베이스를 다시 만들 수 있습니다. 내보내기는 Cloud Storage에 쓰이고 여기에서 가져오기를 읽습니다. |
자동 백업이 장시간 중단되고 취소할 수 없습니다. | 데이터베이스 크기에 따라 백업에 오랜 시간이 걸릴 수 있습니다.
작업을 취소해야 하는 경우 고객지원에 인스턴스 |
SQL 덤프 파일에 참조된 하나 이상의 사용자가 없으면 복원 작업이 실패할 수 있습니다. | SQL 덤프를 복원하기 전에 객체를 소유하거나 덤프된 데이터베이스의 객체에 대한 권한이 부여된 모든 데이터베이스 사용자가 대상 데이터베이스에 있어야 합니다. 그렇지 않으면 복원 작업이 원래 소유권이나 권한으로 객체를 다시 만들지 못합니다.
SQL 덤프를 복원하기 전에 데이터베이스 사용자를 만듭니다. |
자동 백업 보관 일수를 7일에서 30일 이상으로 늘리려고 합니다. | 1개부터 365개까지
유지할 자동 백업 수를 구성할 수 있습니다. 자동 백업은 구성된 보관 값에 따라 정기적으로 프루닝됩니다. 따라서 복원할 수 있는 자동 백업은 현재 표시되는 백업뿐입니다.
백업을 무기한 보관하려면 자동 백업과 동일한 방식으로 삭제되지 않는 주문형 백업을 만들면 됩니다. 주문형 백업은 무기한 유지됩니다. 즉, 백업이나 백업이 속한 인스턴스가 삭제될 때까지 유지됩니다. 이러한 유형의 백업은 자동으로 삭제되지 않으므로 결제에 영향을 미칠 수 있습니다. |
자동 백업에 실패했으며 이메일 알림을 받지 못했습니다. | Cloud SQL에서 백업 상태를 알리도록 설정하려면 로그 기반 알림을 구성합니다. |
인스턴스가 실패 및 백업 복원 상태 사이를 순환하며 반복적으로 실패합니다. 복원 후 데이터베이스에 대한 연결과 사용 시도가 실패합니다. |
해결 방법:
|
백업/복원 작업을 수행할 때 데이터가 누락됐음을 발견합니다. | 테이블이 로깅되지 않는 상태로 생성되었습니다. 예를 들면 다음과 같습니다.
이러한 테이블은 백업에서 복원에 포함되지 않습니다.
해결 방법은 백업을 통해 이러한 테이블을 복원하고 싶다면 로깅되지 않은 테이블을 사용하지 않는 것입니다. 이미 로깅되지 않은 테이블이 있는 데이터베이스에서 복원하는 경우 데이터베이스를 파일로 덤프하고 해당 테이블에 대하여 |
가져오기 및 내보내기 취소
문제 | 문제 해결 |
---|---|
오류 메시지: You can't cancel operation [operation-ID] because
this operation isn't in progress. |
완료되었거나 실패했거나 취소된 가져오기 또는 내보내기 작업을 취소하려고 합니다. 작업이 실행 중인 경우 취소할 수 있습니다. |
오류 메시지: You can't cancel operation [operation-ID] because
Cloud SQL doesn't support the cancellation of an [operation-type]
operation. |
Cloud SQL에는 |
오류 메시지: The [operation-type] operation isn't cancelled. Wait
and retry in a few seconds. |
Cloud SQL에서 현재 가져오기 또는 내보내기 작업을 취소할 수 없습니다. 잠시 후 다시 시도하세요. 문제가 계속되면 Google Cloud 지원팀에 문의하세요. |
클론
문제 | 문제 해결 |
---|---|
constraints/sql.restrictAuthorizedNetworks 오류와 함께 클론이 실패합니다. |
클론 작업이 Authorized Networks 구성에 의해 차단되었습니다.
Google Cloud 콘솔의 연결 섹션에서 공개 IP 주소에 Authorized Networks 가 구성되어 있으며 보안 고려사항으로 인해 클론이 허용되지 않습니다.
가능하면 Cloud SQL 인스턴스에서 모든 |
오류 메시지: Failed to create subnetwork. Couldn't find free
blocks in allocated IP ranges. Please allocate new ranges for this service
provider. Help Token: [help-token-id]. |
Google Cloud 콘솔을 사용하여 비공개 IP 주소로 인스턴스를 클론하려고 하지만 사용할 할당된 IP 범위를 지정하지 않았고 소스 인스턴스가 지정된 범위로 생성되지 않습니다. 따라서 클론된 인스턴스는 무작위 범위로 생성됩니다.
|
연결
문제 | 문제 해결 |
---|---|
Aborted connection . |
문제 원인:
애플리케이션은 네트워크 장애를 허용하고 연결 풀링 및 재시도와 같은 권장사항을 따라야 합니다. 대부분의 연결 풀러는 이러한 오류를 포착합니다(가능한 경우). 그렇지 않으면 애플리케이션이 다시 시도하거나 정상적으로 실패해야 합니다. 연결을 다시 시도하려면 다음 방법을 사용하는 것이 좋습니다.
이러한 방법을 조합하면 제한을 줄일 수 있습니다. |
Certificate verify failed . |
클라이언트 인증서가 만료되었거나 인증서 경로가 올바르지 않습니다. 인증서를 다시 만들어 다시 생성합니다. |
FATAL: database 'user' does not exist . |
gcloud sql connect --user 가 기본 postgres 사용자에서만 작동합니다.기본 사용자와 연결한 후 사용자를 변경합니다. |
연결된 사용자를 확인하려는 경우 | 데이터베이스에 로그인하고 아래 명령어를 실행합니다.SELECT datname, usename, application_name as appname, client_addr, state, now() - backend_start as conn_age, now() - state_change as last_activity_age FROM pg_stat_activity WHERE backend_type = 'client backend' ORDER BY 6 DESC LIMIT 20 |
Hostname/IP does not match certificate's altnames:
Host: localhost. is not in the cert's altnames . |
호스트 주소가 서버 인증서의 대체 이름에 있는 주소와 일치하지 않습니다. verify-full 또는 이에 상응하는 Node.js를 사용하는 경우 servername 매개변수에 DNS 이름을 사용하세요.
openssl을 사용하여 서버 인증서에서 DNS 이름을 찾을 수 있습니다. 예를 들면
|
인스턴스 만들기
문제 | 문제 해결 |
---|---|
오류 메시지: Failed to create subnetwork. Couldn't
find free blocks in allocated IP ranges. Please allocate new ranges for
this service provider . |
할당된 IP 범위에 사용 가능한 주소가 더 이상 없습니다. 다음과 같은 몇 가지 시나리오가 있을 수 있습니다.
이 문제를 해결하려면 기존 할당된 IP 범위를 확장하거나 추가 IP 범위를 비공개 서비스 연결에 할당할 수 있습니다. 자세한 내용은 IP 주소 범위 할당을 참조하세요. Cloud SQL 인스턴스를 만들 때 새 범위를 할당할 경우 할당이 기존 할당과 겹치지 않도록 합니다. 새 IP 범위를 만든 후 다음 명령어를 사용하여 VPC 피어링을 업데이트합니다. gcloud services vpc-peerings update \ --service=servicenetworking.googleapis.com \ --ranges=OLD_RESERVED_RANGE_NAME,NEW_RESERVED_RANGE_NAME \ --network=VPC_NETWORK \ --project=PROJECT_ID \ --force 기존 할당을 확장하는 경우 할당 범위를 늘리기만 하고 줄이지 않도록 합니다. 예를 들어 원래 할당이 10.0.10.0/24인 경우 새 할당을 최소 10.0.10.0/23으로 만듭니다. 일반적으로 /24 할당에서 시작하는 경우 각 조건(추가 인스턴스 유형 그룹, 추가 리전)에 대해 /mask를 1만큼 줄이는 것이 좋은 규칙입니다. 예를 들어 동일한 할당에서 두 인스턴스 유형 그룹을 모두 만들려는 경우 /24에서 /23으로 전환하면 충분합니다. 기존 IP 범위를 확장한 후 다음 명령어를 사용하여 VPC 피어링을 업데이트합니다. gcloud services vpc-peerings update \ --service=servicenetworking.googleapis.com \ --ranges=RESERVED_RANGE_NAME \ --network=VPC_NETWORK \ --project=PROJECT_ID |
오류 메시지: Failed to create subnetwork. Router status is
temporarily unavailable. Please try again later. Help Token:
[token-ID] . |
Cloud SQL 인스턴스를 다시 만들어 보세요. |
오류 메시지: Failed to create subnetwork. Required
'compute.projects.get' permission for PROJECT_ID . |
비공개 IP 주소를 사용하여 인스턴스를 만들면 Service Networking API를 사용하여 적시에 서비스 계정이 생성됩니다. 최근에 Service Networking API를 사용 설정한 경우 서비스 계정이 생성되지 않고 인스턴스 만들기가 실패할 수 있습니다. 이 경우 서비스 계정이 시스템 전체에 전파될 때까지 기다리거나 필요한 권한을 수동으로 추가해야 합니다. |
내보내기
문제 | 문제 해결 |
---|---|
HTTP Error 409: Operation failed because another operation was
already in progress. |
인스턴스에 대기 중인 작업이 이미 있습니다. 한 번에 하나의 작업만 허용됩니다. 현재 작업이 완료된 후 요청을 시도하세요. |
HTTP Error 403: The service account does not have the required
permissions for the bucket. |
버킷이 있고 내보내기를 수행하는 Cloud SQL 인스턴스의 서비스 계정에 버킷으로 내보낼 수 있는 Storage Object Creator 역할(roles/storage.objectCreator )이 있는지 확인합니다. Cloud Storage에 대한 IAM 역할을 참조하세요. |
CSV 내보내기에 성공했지만 SQL 내보내기에 실패했습니다. | CSV 형식과 SQL 형식은 내보내기 방식이 서로 다릅니다. SQL 형식은 전체 데이터베이스를 내보내며 완료하는 데 더 오래 걸릴 수 있습니다. CSV 형식은 내보내기에 포함할 데이터베이스 요소를 정의할 수 있습니다.
CSV 내보내기를 사용하여 필요한 항목만 내보냅니다. |
내보내기가 너무 오래 걸림 | Cloud SQL은 동시 동기 작업을 지원하지 않습니다.
내보내기 오프로딩을 사용합니다. 상위 수준의 내보내기 오프로드에서 Cloud SQL은 소스 인스턴스에서 내보내기를 실행하는 대신 오프로드 인스턴스를 가동하여 내보내기를 수행합니다. 내보내기 오프로드를 사용하면 소스 인스턴스의 성능을 향상하고 내보내기를 실행하는 중에 관리 작업 차단을 해제할 수 있는 등 여러 가지 이점이 있습니다. 내보내기 오프로드를 사용하면 오프로드 인스턴스를 불러오는 데 걸리는 시간에 따라 총 지연 시간이 늘어날 수 있습니다. 일반적으로 적절한 크기의 내보내기에서는 지연 시간이 중요하지 않습니다. 그러나 내보내기가 충분히 작으면 지연 시간이 증가될 수 있습니다. |
확장 프로그램 생성 오류 | 덤프 파일에 지원되지 않는 확장 프로그램에 대한 참조가 있습니다. |
pg_dumpall 사용 오류 |
pg_dumpall 유틸리티를 --global 플래그와 함께 사용하려면 수퍼유저 역할이 필요하지만 이 역할은 PostgreSQL용 Cloud SQL에서 지원되지 않습니다. 사용자 이름이 포함된 내보내기 작업을 수행하는 동안 오류가 발생하지 않도록 하려면 --no-role-passwords 플래그도 사용합니다.
|
내보내기 전에 내보내기 작업이 타임아웃되면 Could not receive data from client: Connection reset
by peer. 오류 메시지가 표시됩니다. |
Cloud Storage가 특정 기간(일반적으로 약 7분) 내에 데이터를 수신하지 않으면 연결이 재설정됩니다. 초기 내보내기 쿼리를 실행하는 데 시간이 너무 오래 걸릴 수 있습니다.
|
내보내기를 자동화하려고 합니다. | Cloud SQL은 내보내기를 자동화하는 방법을 제공하지 않습니다.
백업 자동화에 대한 이 문서와 마찬가지로 Cloud Scheduler, Pub/Sub, Cloud Run 함수와 같은 Google Cloud 제품을 사용하여 자체 자동 내보내기 시스템을 빌드할 수 있습니다. |
플래그
문제 | 문제 해결 |
---|---|
세션의 시간대를 설정했지만 로그오프하면 만료됩니다. |
데이터베이스에 연결하고 데이터베이스 시간대를 사용자 또는 데이터베이스별로 원하는 시간대로 설정합니다. PostgreSQL용 Cloud SQL에서는 다음을 지정할 수 있습니다.
이러한 설정은 세션이 닫혀도 ALTER DATABASE dbname SET TIMEZONE TO 'timezone'; ALTER USER username SET TIMEZONE TO 'timezone'; 이 설정은 데이터베이스에 대한 새 연결에만 적용됩니다. 시간대 변경사항을 확인하려면 인스턴스 연결을 해제한 후 다시 연결합니다. |
고가용성
문제 | 문제 해결 |
---|---|
수동 장애 조치에 대한 측정항목을 찾을 수 없습니다. | 자동 장애 조치만 측정항목에 포함됩니다. |
Cloud SQL 인스턴스 리소스(CPU 및 RAM) 사용량이 거의 100%여서 고가용성 인스턴스가 다운됩니다. | 인스턴스 머신 크기가 부하에 비해 너무 작습니다.
인스턴스를 수정하여 더 큰 머신 크기로 업그레이드하면 CPU와 메모리가 늘어납니다. |
가져오기
문제 | 문제 해결 |
---|---|
오류 메시지: permission denied for schema public |
PostgreSQL 버전 15 이상에서는 대상 데이터베이스가 template0 에서 생성되는 경우 데이터 가져오기가 실패할 수 있습니다. 이 문제를 해결하려면 GRANT ALL ON SCHEMA public TO cloudsqlsuperuser SQL 명령어를 실행하여 cloudsqlsuperuser 사용자에게 공개 스키마 권한을 제공합니다. |
HTTP Error 409: Operation failed because another operation was already in progress . |
인스턴스에 대기 중인 작업이 이미 있습니다. 한 번에 하나의 작업만 허용됩니다. 현재 작업이 완료된 후 요청을 시도하세요. |
가져오기 작업이 너무 오래 걸립니다. | 활성 연결이 너무 많으면 가져오기 작업을 방해할 수 있습니다.
사용하지 않는 작업을 종료합니다. Cloud SQL 인스턴스의 CPU 및 메모리 사용량을 확인하여 사용 가능한 리소스가 충분한지 확인합니다. 가져오기에 최대 리소스를 보장하는 가장 좋은 방법은 작업을 시작하기 전에 인스턴스를 다시 시작하는 것입니다. 다시 시작하면 다음과 같은 결과가 발생합니다.
|
덤프 파일에 참조된 하나 이상의 사용자가 없으면 가져오기 작업이 실패할 수 있습니다. | 덤프 파일을 가져오기 전에 객체를 소유하거나 덤프된 데이터베이스의 객체에 대한 권한이 부여된 모든 데이터베이스 사용자가 대상 데이터베이스에 있어야 합니다. 그렇지 않으면 가져오기 작업이 원래 소유권이나 권한으로 객체를 다시 만들지 못합니다.
가져오기 전에 데이터베이스 사용자를 만듭니다. |
데이터를 가져온 후 데이터 디스크 사용량의 크기가 훨씬 커집니다. | 데이터를 가져오면 예기치 않은 디스크 사용량이 생길 수 있습니다. 이 사용량은 point-in-time recovery를 사용하기 때문일 수 있습니다. 이 문제를 해결하려면 데이터를 가져온 후 로그를 삭제하고 저장용량을 복구하려면 point-in-time recovery를 사용 중지합니다. 사용되는 저장용량을 줄여도 인스턴스에 프로비저닝된 저장용량의 크기가 축소되는 것은 아닙니다. |
오류 메시지: GRANT stderr: ERROR: must be member of role ROLE_NAME |
Cloud Storage에 업로드된 SQL 덤프 파일을 Cloud SQL 데이터베이스로 가져오려고 하고 가져오기 작업이 약 4일 동안 실행된 경우에 이 오류 메시지가 표시됩니다. ROLE_NAME은 소스 PostgreSQL 데이터베이스에 정의된 커스텀 데이터베이스 역할입니다. 기본 이 문제를 해결하려면 다음 단계를 완료하시기 바랍니다.
|
Vertex AI와 통합
문제 | 문제 해결 |
---|---|
오류 메시지: Google ML integration API is supported only on Postgres version 12 or above. |
Cloud SQL에서 Vertex AI 통합을 사용 설정하려면 PostgreSQL용 Cloud SQL 데이터베이스 버전 12 이상이 필요합니다. 데이터베이스를 이 버전으로 업그레이드하려면 데이터베이스 주 버전 인플레이스 업그레이드를 참조하세요. |
오류 메시지: Google ML Integration API is not supported on shared core instance. Please upsize your machine type. |
인스턴스의 머신 유형에 공유 코어를 선택한 경우 Cloud SQL에서 Vertex AI 통합을 사용 설정할 수 없습니다. 머신 유형을 전용 코어로 업그레이드합니다. 자세한 내용은 머신 유형을 참조하세요. |
오류 메시지: Google ML Integration is unsupported for this maintenance version. Please follow https://cloud.google.com/sql/docs/postgres/self-service-maintenance to update the maintenance version of the instance. |
Cloud SQL에서 Vertex AI 통합을 사용 설정하려면 인스턴스의 유지보수 버전이 R20240130 이상이어야 합니다. 인스턴스를 이 버전으로 업그레이드하려면 셀프서비스 유지보수를 참조하세요. |
오류 메시지: Cannot invoke ml_predict_row if 'cloudsql.enable_google_ml_integration' is off. |
cloudsql.enable_google_ml_integration 데이터베이스 플래그가 사용 중지됩니다. Cloud SQL은 Vertex AI와 통합할 수 없습니다.이 플래그를 사용 설정하려면 gcloud sql instances patch 명령어를 사용합니다.gcloud sql instances patch INSTANCE_NAME --database-flags cloudsql.enable_google_ml_integration=on INSTANCE_NAME을 기본 Cloud SQL 인스턴스의 이름으로 바꿉니다. |
오류 메시지: Failed to connect to remote host: Connection refused. |
Cloud SQL과 Vertex AI 간의 통합이 사용 설정되지 않습니다. 이 통합을 사용 설정하려면 gcloud sql instances patch 명령어를 사용합니다.gcloud sql instances patch INSTANCE_NAME INSTANCE_NAME을 기본 Cloud SQL 인스턴스의 이름으로 바꿉니다. |
오류 메시지: Vertex AI API has not been used in project PROJECT_ID before or it is disabled. Enable it by visiting /apis/api/aiplatform.googleapis.com/overview?project=PROJECT_ID then retry. |
Vertex AI API가 사용 설정되지 않습니다. 이 API 사용 설정에 대한 자세한 내용은 Vertex AI와 데이터베이스 통합 사용 설정을 참조하세요. |
오류 메시지: Permission 'aiplatform.endpoints.predict' denied on resource. |
Vertex AI 권한은 Cloud SQL 인스턴스가 있는 프로젝트의 Cloud SQL 서비스 계정에 추가되지 않습니다. 서비스 계정에 이러한 권한을 추가하는 방법에 대한 자세한 내용은 Vertex AI와 데이터베이스 통합 사용 설정을 참조하세요. |
오류 메시지: Publisher Model `projects/PROJECT_ID/locations/REGION_NAME/publishers/google/models/MODEL_NAME` not found. |
Vertex AI에 머신러닝 모델 또는 LLM이 존재하지 않습니다. |
오류 메시지: Resource exhausted: grpc: received message larger than max. |
Cloud SQL이 Vertex AI에 전달하는 요청 크기가 요청당 gRPC 한도인 4MB를 초과합니다. |
오류 메시지: Cloud SQL attempts to send a request to Vertex AI. However, the instance is in the %s region, but the Vertex AI endpoint is in the %s region. Make sure the instance and endpoint are in the same region. |
Cloud SQL이 Vertex AI에 요청을 전송하려고 시도하지만 인스턴스는 한 리전에 있지만 Vertex AI 엔드포인트는 다른 리전에 있습니다. 이 문제를 해결하려면 인스턴스와 엔드포인트가 모두 동일한 리전에 있어야 합니다. |
오류 메시지: The Vertex AI endpoint isn't formatted properly. |
Vertex AI 엔드포인트의 형식이 올바르지 않습니다. 자세한 내용은 온라인 예측에 비공개 엔드포인트 사용을 참조하세요. |
오류 메시지: Quota exceeded for aiplatform.googleapis.com/online_prediction_requests_per_base_model with base model: textembedding-gecko. |
Cloud SQL이 Vertex AI에 전달하는 요청 수가 프로젝트별 모델당 리전별 분당 요청 한도인 1,500개를 초과합니다. |
로깅
문제 | 문제 해결 |
---|---|
Logging은 Cloud SQL 인스턴스에서 많은 CPU와 메모리를 사용합니다. | 로깅을 조정해야 합니다.
|
감사 로그를 찾을 수 없음 | 데이터 액세스 로그는 작업이 사용자가 만든 데이터를 생성 또는 수정하거나 읽는 인증된 사용자 주도 API 호출인 경우 또는 작업이 리소스의 구성 파일 또는 메타데이터에 액세스하는 경우에만 작성됩니다. |
로그에 작업 정보가 없음 | 작업에 대한 자세한 정보를 찾으려 합니다.
예를 들어 사용자가 삭제되었는데 누가 삭제했는지 알 수 없습니다. 로그는 작업이 시작되었음을 표시하지만 그 이상의 정보를 제공하지 않습니다. 이와 같은 자세한 개인 식별 정보(PII)를 로깅하려면 감사 로깅을 사용 설정해야 합니다. |
로그 파일을 읽기 어려움 | 로그를 json 또는 텍스트로 보는 것이 좋습니다.gcloud logging read 명령어를 Linux 후처리 명령어와 함께 사용하여 로그를 다운로드할 수 있습니다.
로그를 JSON으로 다운로드하려면 다음 명령어를 실행합니다. gcloud logging read \ "resource.type=cloudsql_database \ AND logName=projects/PROJECT_ID \ /logs/cloudsql.googleapis.com%2FLOG_NAME" \ --format json \ --project=PROJECT_ID \ --freshness="1d" \ > downloaded-log.json 로그를 TEXT로 다운로드하려면 다음 명령어를 실행합니다. gcloud logging read \ "resource.type=cloudsql_database \ AND logName=projects/PROJECT_ID \ /logs/cloudsql.googleapis.com%2FLOG_NAME" \ --format json \ --project=PROJECT_ID \ --freshness="1d"| jq -rnc --stream 'fromstream(1|truncate_stream(inputs)) \ | .textPayload' \ --order=asc > downloaded-log.txt |
PostgreSQL 로그에서 쿼리 로그를 찾을 수 없음 | pgaudit 플래그를 사용 설정해야 합니다.
|
인스턴스 관리
문제 | 문제 해결 |
---|---|
현재 실행 중인 쿼리를 확인하려는 경우 | 데이터베이스에 연결하고 다음 쿼리를 실행합니다.
|
특정 필드에 사용 중인 단위를 확인하려는 경우 | 데이터베이스에 연결하고 자체 FIELD_NAME 을 사용하여 다음 쿼리를 실행합니다.
|
데이터베이스 설정의 현재 값을 찾는 경우 | 데이터베이스에 연결하고 자체 SETTING_NAME 을 사용하여 다음 쿼리를 실행합니다.
|
차단된 백그라운드 프로세스를 중지하려고 합니다. | 사용자는 pg_signal_backend 역할이 있어야 합니다.
다음 명령어를 실행합니다.
|
인스턴스가 트랜잭션 ID를 100% 가까이 소비함 | 내부 모니터링에서 인스턴스가 트랜잭션 ID를 100% 가까이 소비하고 있음을 경고합니다. 쓰기를 차단할 수 있는 트랜잭션 래핑을 피하는 것이 좋습니다.
autovacuum 작업이 차단되었거나 워크로드를 감당할 수 있을 만큼 신속하게 트랜잭션 ID를 확보하지 못할 수 있습니다. 트랜잭션 래핑 문제로 인한 서비스 중단을 방지하려면 TXID 래핑을 다루는 다음 셀프서비스 도움말을 검토하세요. 일반 조정 관련 조언은 PostgreSQL의 청소 작업 최적화, 모니터링, 문제 해결을 참조하세요. |
임시 스토리지가 자동 스토리지를 늘림 | 자동 스토리지가 사용 설정되었습니다.
다시 시작하면 임시 파일은 삭제되지만 스토리지는 줄어들지 않습니다. 인스턴스 크기는 고객지원에서만 재설정할 수 있습니다. |
데이터가 자동으로 삭제됨 | 환경에서 스크립트가 실행되고 있을 가능성이 높습니다.
삭제 시점의 로그를 살펴보고 대시보드 또는 다른 자동화된 프로세스에서 실행 중인 악성 스크립트가 있는지 확인합니다. |
인스턴스를 삭제할 수 없음 | ERROR: (gcloud.sql.instances.delete) HTTP Error
409: The instance or operation is not in an appropriate state to handle the
request 오류 메시지가 표시되거나 인스턴스의 플래그 상태가 INSTANCE_RISKY_FLAG_CONFIG 일 수 있습니다.다음과 같이 설명할 수 있습니다.
|
큰 임시 데이터 크기로 인해 인스턴스가 중단됨 | 시스템은 쿼리와 부하에 따라 한 번에 여러 개의 임시 테이블을 만들 수 있습니다.
서비스 다시 시작 이외의 방법으로는 한 가지 완화 옵션은 |
업그레이드 중 치명적인 오류 발생 | 로그에 더 많은 정보가 표시될 수 있지만 어떤 경우에도 인스턴스를 강제로 다시 만들려면 고객지원이 필요할 수 있습니다. |
디스크 공간 부족 후 다시 시작할 때 인스턴스가 중단됨 | 스토리지 자동 증가 기능이 사용 설정되지 않았습니다.
인스턴스의 스토리지가 부족하고 스토리지 자동 증가 기능이 사용 설정되지 않은 경우 인스턴스가 오프라인 상태가 됩니다. 이 문제를 방지하려면 인스턴스를 수정하여 스토리지 자동 증가를 사용 설정하면 됩니다. |
온프레미스 기본 인스턴스가 멈췄습니다. | Google Cloud는 Cloud SQL에 없는 인스턴스를 지원할 수 없습니다. |
다시 시작 시 종료가 느림 | 인스턴스가 종료될 때 60초 이내에 종료되지 않는 연결로 인해 비정상 종료가 발생합니다.
60초 미만 지속되는 연결을 유지하면 데이터베이스 명령 프롬프트의 연결을 포함한 대부분의 비정상 종료를 방지할 수 있습니다. 이러한 연결을 몇 시간 또는 며칠 동안 열어두면 종료가 비정상적으로 될 수 있습니다. |
사용자를 삭제할 수 없음 | 사용자에게 종속된 객체가 데이터베이스에 있을 수 있습니다. 이러한 객체를 삭제하거나 다른 사용자에게 다시 할당해야 합니다.
사용자에게 종속된 객체를 찾은 후 이 객체를 삭제하거나 다른 사용자에게 다시 할당합니다. Stack Exchange의 이 스레드에서는 사용자가 소유한 객체를 찾는 방법을 설명합니다. |
특정 쿼리가 느리게 실행됨 | 쿼리는 여러 가지 이유로 느려질 수 있지만 주로 데이터베이스의 특정 부분이 원인입니다. Cloud SQL과 관련될 수 있는 한 가지 이유는 소스(작성자 또는 리더) 리소스와 대상(Cloud SQL) 리소스가 서로 다른 리전에 있는 경우의 네트워크 지연 시간입니다.
특히 일반 성능 팁을 참조하세요. 데이터베이스 삽입, 업데이트 또는 삭제 속도가 느리다면 다음과 같은 조치를 취하는 것이 좋습니다.
지연 시간을 줄이려면 소스 리소스와 대상 리소스를 동일한 리전에 두는 것이 좋습니다. |
메모리 부족이라고 표시되지만 모니터링 차트에는 표시되지 않음 | 인스턴스가 실패하고 Out of memory 를 보고하지만 Google Cloud 콘솔이나 Cloud Monitoring 차트에는 여전히 메모리가 남아 있는 것으로 표시됩니다.
워크로드 외에도 활성 연결 수 및 내부 오버헤드 프로세스와 같이 메모리 사용량에 영향을 줄 수 있는 다른 요소가 있습니다. 이러한 요소가 항상 모니터링 차트에 반영되는 것은 아닙니다. 인스턴스에 워크로드와 일부 추가 오버헤드를 처리할 수 있는 오버헤드가 충분한지 확인합니다. |
삭제된 인스턴스 복구 | 인스턴스를 삭제하면 백업을 포함한 인스턴스의 모든 데이터가 영구 삭제됩니다.
데이터를 보존하려면 인스턴스를 삭제하기 전에 Cloud Storage로 내보내기를 수행합니다. Cloud SQL 관리자 역할은 인스턴스를 삭제할 수 있는 권한을 포함합니다. 실수로 삭제하지 않도록 방지하려면 필요한 경우에만 이 역할을 부여하세요. |
기존 Cloud SQL 인스턴스의 이름을 바꾸려는 경우 | 기존 인스턴스의 이름 변경은 지원되지 않습니다.
새 인스턴스를 만들면 목표를 달성할 수 있습니다.
두 경우 모두 작업이 완료되면 기존 인스턴스를 삭제하시면 됩니다. 성능에 영향을 미치지 않고 플래그, 머신 유형, 스토리지 크기, 메모리와 같은 인스턴스 구성 설정을 다시 실행할 필요가 없으므로 클론 경로를 사용하는 것을 권장합니다. |
인스턴스를 삭제하는 중에 오류 발생 | 인스턴스에 삭제 보호가 사용 설정된 경우 인스턴스 삭제 계획을 확인합니다. 그런 다음 인스턴스를 삭제하기 전에 삭제 보호를 사용 중지합니다. |
Private Service Connect
문제 | 문제 해결 |
---|---|
인스턴스의 서비스 연결에서 Private Service Connect 엔드포인트를 수락하지 않습니다. |
|
복제
문제 | 문제 해결 |
---|---|
생성 시 읽기 복제본이 복제를 시작하지 않음 | 로그 파일에 더 구체적인 오류가 있을 수 있습니다. Cloud Logging의 로그를 검사하여 실제 오류를 찾으세요. |
읽기 복제본을 만들 수 없음 - invalidFlagValue 오류 | 요청의 플래그 중 하나가 잘못되었습니다. 명시적으로 제공한 플래그 또는 기본값으로 설정된 플래그일 수 있습니다.
먼저
|
읽기 복제본을 만들 수 없음 - 알 수 없는 오류 | 로그 파일에 더 구체적인 오류가 있을 수 있습니다.
Cloud Logging의 로그를 검사하여 실제 오류를 찾으세요.
오류가 |
디스크가 가득 참 | 복제본을 만드는 동안 기본 인스턴스 디스크 크기가 가득 찰 수 있습니다. 기본 인스턴스를 수정하여 더 큰 디스크 크기로 업그레이드합니다. |
디스크 공간이 현저하게 증가함 | 데이터를 추적하는 데 적극적으로 사용되지 않는 슬롯이 있으면 PostgreSQL이 WAL 세그먼트를 무기한 저장합니다. 그로 인해 디스크 공간도 무제한으로 증가합니다. Cloud SQL에서 논리적 복제 및 디코딩 기능을 사용하는 경우 복제 슬롯이 자동으로 생성 및 삭제됩니다. 사용되지 않는 복제 슬롯은 pg_replication_slots 시스템 뷰를 쿼리하고 active 열로 필터링을 수행하여 확인할 수 있습니다. pg_drop_replication_slot 명령어를 사용하여 WAL 세그먼트를 삭제하기 위해 사용하지 않는 슬롯을 삭제할 수 있습니다.
|
복제본 인스턴스가 너무 많은 메모리를 사용하고 있습니다. | 복제본은 임시 메모리를 사용하여 자주 요청되는 읽기 작업을 캐시하므로 기본 인스턴스보다 더 많은 메모리를 사용할 수 있습니다.
복제본 인스턴스를 다시 시작하여 임시 메모리 공간을 회수합니다. |
복제가 중지되었습니다. | 최대 스토리지 한도에 도달했고 스토리지 자동 증가가 사용 설정되지 않았습니다.
인스턴스를 수정하여 |
긴 복제 지연 시간이 지속적으로 발생함 | 쓰기 부하가 너무 높아 복제본이 처리할 수 없습니다. 복제본의 SQL 스레드가 IO 스레드를 따라잡을 수 없는 경우 복제 지연이 발생합니다. 일부 쿼리 또는 워크로드로 인해 특정 스키마에서 일시적이거나 영구적인 복제 지연이 발생할 수 있습니다. 복제 지연이 발생하는 일반적인 원인은 다음과 같습니다.
가능한 솔루션은 다음과 같습니다.
|
PostgreSQL 9.6에서 색인을 다시 빌드할 때 오류가 발생함 | PostgreSQL에서 특정 색인을 다시 빌드해야 한다는 오류 메시지가 표시됩니다. 이 작업은 기본 인스턴스에서만 수행할 수 있습니다. 새 복제본 인스턴스를 만들면 곧 같은 오류가 다시 발생합니다.
PostgreSQL 10 미만의 PostgreSQL에서는 해시 색인이 복제본에 전파되지 않습니다.
해시 색인을 사용해야 하는 경우 PostgreSQL 10 이상으로 업그레이드하세요. 그러지 않고 복제본도 사용하려면 PostgreSQL 9.6에서 해시 색인을 사용하지 마세요. |
기본 인스턴스에 대한 쿼리는 항상 실행됨 | 복제본을 만든 후에는 기본 인스턴스에서 SELECT * from pg_stat_activity where state = 'active' and pid = XXXX and username = 'cloudsqlreplica' 쿼리를 계속 실행해야 합니다.
|
제한 시간으로 인해 복제본을 만들지 못함 | 기본 인스턴스에서 커밋되지 않은 장기 실행 트랜잭션으로 인해 읽기 복제본을 만들지 못할 수 있습니다.
실행 중인 모든 쿼리를 중지한 후 복제본을 다시 만듭니다. |
기본 인스턴스와 복제본의 vCPU 크기가 다른 경우 쿼리 최적화 도구에서 vCPU 크기를 고려하므로 쿼리 성능 문제가 발생할 수 있습니다. |
이 문제를 해결하려면 다음 단계를 완료하시기 바랍니다.
특정 쿼리이면 쿼리를 수정합니다. 예를 들어 조인 순서를 변경하여 성능이 향상되는지 확인할 수 있습니다. |