バックアップのスケジュール設定

このチュートリアルでは、Cloud Scheduler と Cloud Run functions を使用して Filestore インスタンスのバックアップをスケジュールする方法について説明します。

目標

  • Cloud Run functions の関数を呼び出すために必要な認証情報を含む Cloud Scheduler のクライアント サービス アカウントを作成する。
  • Filestore エンドポイントを呼び出すための認証情報を持つ Cloud Run functions のクライアント サービス アカウントを作成します。
  • Filestore インスタンスのバックアップを作成する Cloud Run functions の関数を作成します。
  • Filestore インスタンスのバックアップを削除する Cloud Run functions の関数を作成します。
  • いずれかの関数を定期的に実行する Cloud Scheduler ジョブを作成します。

料金

このドキュメントでは、課金対象である次の Google Cloudコンポーネントを使用します。

料金計算ツールを使うと、予想使用量に基づいて費用の見積もりを生成できます。

新規の Google Cloud ユーザーは無料トライアルをご利用いただける場合があります。

始める前に

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Artifact Registry, Cloud Build, Filestore, Cloud Run functions, Cloud Logging, Pub/Sub, Cloud Run, and Cloud Scheduler APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. Install the Google Cloud CLI.

  6. 外部 ID プロバイダ(IdP)を使用している場合は、まず連携 ID を使用して gcloud CLI にログインする必要があります。

  7. gcloud CLI を初期化するには、次のコマンドを実行します。

    gcloud init
  8. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  9. Verify that billing is enabled for your Google Cloud project.

  10. Enable the Artifact Registry, Cloud Build, Filestore, Cloud Run functions, Cloud Logging, Pub/Sub, Cloud Run, and Cloud Scheduler APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  11. Install the Google Cloud CLI.

  12. 外部 ID プロバイダ(IdP)を使用している場合は、まず連携 ID を使用して gcloud CLI にログインする必要があります。

  13. gcloud CLI を初期化するには、次のコマンドを実行します。

    gcloud init
  14. プロジェクトに Filestore インスタンスがない場合は、最初に 1 つを作成する必要があります。
  15. Cloud Scheduler と Cloud Run functions 用のクライアント サービス アカウントを作成する

    1. まだ行っていない場合は、 Google Cloud コンソールで [Cloud Shell をアクティブにする] をクリックします。

    2. Cloud Scheduler が Cloud Run functions の呼び出しに応じて実行するクライアント サービス アカウントを作成します。この例では、iam service-accounts create コマンドを使用してアカウント schedulerunner に名前を付け、表示名を「Service Account for FS Backups-Schedule」に設定します。

      gcloud iam service-accounts create schedulerunner \
          --display-name="Service Account for FS Backups-Scheduler"
      
    3. Cloud Run functions が Filestore エンドポイントを呼び出すために実行するクライアント サービス アカウントを作成します。この例では、アカウントに backupagent という名前を付けて、表示名を「Service Account for FS Backups-GCF」に設定します。

      gcloud iam service-accounts create backupagent \
          --display-name="Service Account for FS Backups-GCF"
      

      サービス アカウントが作成されたかどうかを確認するには、iam service-accounts list コマンドを実行します。

      gcloud iam service-accounts list
      

      コマンドは次のような結果を返します。

      NAME                                         EMAIL                                                   DISABLED
      Service Account for FS Backups-GCF           backupagent@$PROJECT_ID.iam.gserviceaccount.com         False
      Service Account for FS Backups-Scheduler     schedulerunner@$PROJECT_ID.iam.gserviceaccount.com      False
      

    環境変数を設定する

    ローカル環境に、次の環境変数を設定します。

    • Google Cloud プロジェクト ID とプロジェクト:

      export PROJECT_ID=`gcloud config get-value core/project`
      export PROJECT_NUMBER=`gcloud projects describe $PROJECT_ID --format="value(projectNumber)"`
      
    • Cloud Scheduler サービス エージェント、および Cloud Scheduler と Cloud Run functions のクライアント サービス アカウント:

      export SCHEDULER_SA=service-$PROJECT_NUMBER@gcp-sa-cloudscheduler.iam.gserviceaccount.com
      export SCHEDULER_CLIENT_SA=schedulerunner@$PROJECT_ID.iam.gserviceaccount.com
      export GCF_CLIENT_SA=backupagent@$PROJECT_ID.iam.gserviceaccount.com
      
    • Filestore インスタンス:

      export SOURCE_INSTANCE_LOCATION=fs-location
      export SOURCE_INSTANCE_NAME=instance-id
      export SHARE_NAME=file-share-name
      

      以下を置き換えます。

      • fs-location は、ソース Filestore インスタンスが存在するゾーンまたはリージョンに置き換えます。
      • instance-id は、Filestore インスタンスのインスタンス ID に置き換えます。
      • file-share-name は、インスタンスから提供される NFS ファイル共有に指定する名前。
    • Filestore バックアップの環境変数を設定します。

      export BACKUP_REGION=backup-region
      

      backup-region は、バックアップを保存するリージョンに置き換えます。

    バックアップを作成する関数を作成する

    1. Google Cloud コンソールで、Cloud Run functions ページに移動します。

      [Cloud Run functions] ページに移動

    2. [関数を作成] をクリックして、次のように関数を構成します。

      • 構成:
        • サービス名: この例では、関数に fsbackup と名前を付けます。
        • リージョン: この例では us-central1 を選択します。
        • ランタイム: メニューから、Cloud Run functions で完全にサポートされているサポート対象の Python 3 ランタイムを選択します。
      • トリガー:
        • この例では、トリガーを設定する必要はありません。
      • Authentication: Require authentication を選択します。
      • Ingress: All を選択します。
      • コンテナ、ボリューム、ネットワーキング、セキュリティ
        • [セキュリティ] タブに移動し、メニューから Service Account for FS Backups-GCFbackupagent@$PROJECT_ID.iam.gserviceaccount.com)を選択します。
    3. [作成] をクリックし、次のように構成を続行します。

      • 関数のエントリ ポイント: 「create_backup」と入力します。
      • 次の依存関係を requirements.txt ファイルに追加します。

        functions-framework==3.*
        google-auth==2.29.0
        requests==2.31.0
        

        ユースケースによっては、他の依存関係、および対応するバージョン番号を指定しなければならない場合があります。詳細については、プリインストールされたパッケージをご覧ください。

      • インライン エディタを使用して、次の Python コードサンプルを main.py ファイルにコピーします。

        バックアップの作成

        このコードサンプルは、作成時間が付加された mybackup- という名前のバックアップを作成します。

        PROJECT_ID = 'project-id'
        SOURCE_INSTANCE_LOCATION = 'fs-location'
        SOURCE_INSTANCE_NAME = 'instance-id'
        SOURCE_FILE_SHARE_NAME = 'file-share-name'
        BACKUP_REGION = 'backup-region'
        
        import functions_framework
        import google.auth
        import google.auth.transport.requests
        from google.auth.transport.requests import AuthorizedSession
        import time
        import requests
        import json
        
        credentials, project = google.auth.default()
        request = google.auth.transport.requests.Request()
        credentials.refresh(request)
        authed_session = AuthorizedSession(credentials)
        
        def get_backup_id():
            return "mybackup-" + time.strftime("%Y%m%d-%H%M%S")
        
        @functions_framework.http
        def create_backup(request):
            trigger_run_url = "https://file.googleapis.com/v1/projects/{}/locations/{}/backups?backupId={}".format(PROJECT_ID, BACKUP_REGION, get_backup_id())
            headers = {
              'Content-Type': 'application/json'
            }
            post_data = {
              "description": "my new backup",
              "source_instance": "projects/{}/locations/{}/instances/{}".format(PROJECT_ID, SOURCE_INSTANCE_LOCATION, SOURCE_INSTANCE_NAME),
              "source_file_share": "{}".format(SOURCE_FILE_SHARE_NAME)
            }
            print("Making a request to " + trigger_run_url)
            r = authed_session.post(url=trigger_run_url, headers=headers, data=json.dumps(post_data))
            data = r.json()
            print(data)
            if r.status_code == requests.codes.ok:
              print(str(r.status_code) + ": The backup is uploading in the background.")
            else:
              raise RuntimeError(data['error'])
            return "Backup creation has begun!"
        

        次のように置き換えます。

        • project-id は、ソース Filestore インスタンスの Google Cloud プロジェクト ID に置き換えます。
        • fs-location は、ソース Filestore インスタンスのゾーンまたはリージョンに置き換えます。
        • instance-id を、ソース Filestore インスタンスの名前に置き換えます。
        • file-share-name を、ファイル共有の名前に置き換えます。
        • backup-region を、バックアップを保存するリージョンに置き換えます。
        1. [テスト] をクリックします。

          Cloud Shell で新しいタブ セッションが開きます。成功すると、次のメッセージが返されます。

          Backup creation has begun!
          
        2. [保存して再デプロイ] をクリックし、デプロイが完了するまで待ちます。

        3. 前の Cloud Shell タブに戻ります。

        バックアップを削除する

        このサンプルコードは、事前定義された期間よりも古いバックアップを削除します。

        一度に削除できるバックアップは、ソース インスタンスごとに 1 つだけです。詳細については、バックアップをご覧ください。

        この関数は、次の変更を加えて、バックアップの作成に使用した関数と同じように構成します。

        • 関数名: deletefsbackup
        • エントリ ポイント: delete_backup
        PROJECT_ID = 'project-id'
        BACKUP_REGION = 'region'
        BACKUP_RETENTION_TIME_HRS = hours
        
        import functions_framework
        import google.auth
        import google.auth.transport.requests
        from google.auth.transport.requests import AuthorizedSession
        import time
        import requests
        import json
        
        credentials, project = google.auth.default()
        request = google.auth.transport.requests.Request()
        credentials.refresh(request)
        authed_session = AuthorizedSession(credentials)
        
        retention_seconds = BACKUP_RETENTION_TIME_HRS * 60 * 60
        
        @functions_framework.http
        def delete_backup(request):
            now = time.time()
            backup_list = []
            trigger_run_url = "https://file.googleapis.com/v1/projects/{}/locations/{}/backups".format(PROJECT_ID, BACKUP_REGION)
            r = authed_session.get(trigger_run_url)
            data = r.json()
            if not data:
                print("No backups to delete.")
                return "No backups to delete."
            else:
                backup_list.extend(data['backups'])
                while "nextPageToken" in data.keys():
                    nextPageToken = data['nextPageToken']
                    trigger_run_url_next = "https://file.googleapis.com/v1/projects/{}/locations/{}/backups?pageToken={}".format(PROJECT_ID, BACKUP_REGION, nextPageToken)
                    r = authed_session.get(trigger_run_url_next)
                    data = r.json()
                    backup_list.extend(data['backups'])
            for i in backup_list:
                backup_time = i['createTime']
                backup_time = backup_time[:-4]
                backup_time = float(time.mktime(time.strptime(backup_time, "%Y-%m-%dT%H:%M:%S.%f")))
                i['backup_timestamp'] = backup_time
            sorted_backup_list = sorted(backup_list, key=lambda d: d['backup_timestamp'])
            oldest_backup = sorted_backup_list[0]
            if now - oldest_backup['backup_timestamp'] > retention_seconds:
                print(oldest_backup['name'] + " is older than the indicated retention time.")
                r = authed_session.delete("https://file.googleapis.com/v1/{}".format(oldest_backup['name']))
                data = r.json()
                print(data)
                if r.status_code == requests.codes.ok:
                    print(str(r.status_code) + ": Deleting " + oldest_backup['name'] + " in the background.")
                else:
                    raise RuntimeError(data['error'])
                return "Backup deletion has begun!"
            return "All backups are within the indicated retention period."
        

        次のように置き換えます。

        • project-id は、バックアップの Google Cloud プロジェクト ID に置き換えます。
        • region は、バックアップが存在するリージョンです。バックアップ、Scheduler ジョブ、関数はすべて同じロケーションに存在する必要があります。
        • hours をバックアップを保持する時間に置き換えます。たとえば、バックアップを 10 日間保持する場合は「240」を入力します。

    クライアント サービス アカウントに IAM のロールを割り当てる

    1. Cloud Scheduler サービス エージェントを、roles/cloudscheduler.serviceAgent のロールを持つ Cloud Scheduler クライアント サービス アカウントの IAM ポリシーに追加します。これにより、サービス エージェントは、バックアップを作成する関数を呼び出すために、クライアント サービス アカウントの権限を借用できます。iam service-accounts add-iam-policy-binding コマンドを実行する

      gcloud iam service-accounts add-iam-policy-binding $SCHEDULER_CLIENT_SA \
          --member=serviceAccount:$SCHEDULER_SA \
          --role=roles/cloudscheduler.serviceAgent
      
    2. Cloud Run functions のクライアント サービス アカウントに roles/file.editor ロールを付与して、Filestore エンドポイントを呼び出せるようにします。projects add-iam-policy-binding コマンドを実行する

      gcloud projects add-iam-policy-binding $PROJECT_ID \
          --member=serviceAccount:$GCF_CLIENT_SA \
          --role=roles/file.editor
      
    3. Cloud Scheduler のクライアント サービス アカウントに、使用する関数の roles/run.invoker ロールを付与します。次の run services add-iam-policy-binding コマンドを実行します。

      バックアップの作成

      gcloud run services add-iam-policy-binding fsbackup \
          --member serviceAccount:$SCHEDULER_CLIENT_SA \
          --role roles/run.invoker \
          --region=us-central1
      

      これで、Cloud Scheduler のクライアント サービス アカウントだけが fsbackup を呼び出せるようになりました。

      バックアップを削除する

      gcloud run services add-iam-policy-binding deletefsbackup \
          --member serviceAccount:$SCHEDULER_CLIENT_SA \
          --role roles/run.invoker
      

      これで、Cloud Scheduler のクライアント サービス アカウントだけが deletefsbackup を呼び出せるようになりました。

    指定されたスケジュールで関数をトリガーする Cloud Scheduler ジョブを作成する

    バックアップの作成

    1. このチュートリアルの例では、毎週午後 10 時にバックアップをスケジュールを設定する場合に、scheduler jobs create http のようなコマンドを使用します。

      gcloud scheduler jobs create http fsbackupschedule \
          --schedule "0 22 * * 1-5" \
          --http-method=GET \
          --uri=https://fsbackup-$PROJECT_NUMBER.us-central1.run.app \
          --oidc-service-account-email=$SCHEDULER_CLIENT_SA \
          --location=us-central1
      

      --schedule フラグでは、unix-cron 形式を使用して、ジョブの実行頻度を指定します。詳細については、cron ジョブ スケジュールの構成をご覧ください。

      インスタンスごとに 1 時間あたり最大 6 つのバックアップを作成できます。

    2. 前の手順で作成した Cloud Scheduler ジョブを開始します。この例では、scheduler jobs runs コマンドを使用して、すぐに実行します。

      gcloud scheduler jobs run fsbackupschedule
      

      fsbackupschedule ジョブは、コマンドの実行後すぐに fsbackup 関数を呼び出し、ジョブが一時停止されるまで毎週午後 10 時に関数が呼び出されます。

    3. 関数が適切に実行され、status 200 を返しているかどうかを確認するには、fsbackup 関数のログを調べます。

      Google Cloud コンソールでログを表示するには、ログ エクスプローラを使用します。

      1. Google Cloud コンソールで [ログ エクスプローラ] ページに移動します。

        [ログ エクスプローラ] に移動

        このページを検索バーで検索する場合は、小見出しが「Logging」の結果を選択します。

        最新のログが [クエリ結果] ペインに表示されます。

    4. backups list コマンドを使用して、既存のバックアップのステータスを確認します。

      gcloud filestore backups list
      

      このコマンドは次のような出力を返します。

      NAME                      LOCATION     SRC_INSTANCE                        SRC_FILE_SHARE  STATE
      mybackup-20201123-184500  us-central1  us-central1-c/instances/nfs-server  vol1            READY
      

    バックアップを削除する

    1. このチュートリアルの例では、毎週午後 10 時にバックアップを削除するオペレーションをスケジュール設定する場合に、scheduler jobs create http のようなコマンドを使用します。

      gcloud scheduler jobs create http deletefsbackupschedule \
          --schedule "0 22 * * 1-5" \
          --http-method=GET \
          --uri=https://us-central1-$PROJECT_ID.cloudfunctions.net/deletefsbackup \
          --oidc-service-account-email=$SCHEDULER_CLIENT_SA    \
          --oidc-token-audience=https://us-central1-$PROJECT_ID.cloudfunctions.net/deletefsbackup
      

      --schedule フラグでは、unix-cron 形式を使用して、ジョブの実行頻度を指定します。詳細については、cron ジョブ スケジュールの構成をご覧ください。

      同じソース インスタンスに関連付けられるバックアップ delete オペレーションは、一度に 1 つずつ実行する必要があります。詳細については、バックアップをご覧ください。

    2. 前の手順で作成した Cloud Scheduler ジョブを開始します。この例では、scheduler jobs runs コマンドを使用してすぐに実行します。

      gcloud scheduler jobs run deletefsbackupschedule
      

      deletefsbackupschedule ジョブは、コマンドの実行後すぐに deletefsbackup 関数を呼び出し、ジョブが一時停止されるまで毎週午後 10 時に関数が呼び出されます。

    3. 関数が適切に実行され、status 200 を返しているかどうかを確認するには、deletefsbackup 関数のログを調べます。

      Google Cloud コンソールでログを表示するには、ログ エクスプローラを使用します。

      1. Google Cloud コンソールで [ログ エクスプローラ] ページに移動します。

        [ログ エクスプローラ] に移動

        このページを検索バーで検索する場合は、小見出しが「Logging」の結果を選択します。

        最新のログが [クエリ結果] ペインに表示されます。

    4. backups list コマンドを使用して、既存のバックアップのステータスを確認します。

      gcloud filestore backups list
      

      このコマンドは次のような出力を返します。

      NAME                      LOCATION     SRC_INSTANCE                        SRC_FILE_SHARE  STATE
      mybackup-20201123-184500  us-central1  us-central1-c/instances/nfs-server  vol1            READY
      

    バックアップの割り当て不足のアラート

    バックアップのスケジュールを実装すると、バックアップの割り当てが不足するおそれがあります。その場合、バックアップの割り当て不足のアラートを設定することをおすすめします。そうすれば、バックアップの割り当てが不足している際に通知を受け取ることができます。

    クリーンアップ

    チュートリアルが終了したら、作成したリソースをクリーンアップして、割り当ての使用を停止し、課金されないようにできます。次のセクションで、リソースを削除または無効にする方法を説明します。

    プロジェクトの削除

    課金されないようにする最も簡単な方法は、チュートリアル用に作成したプロジェクトを削除することです。

    プロジェクトを削除するには:

    1. In the Google Cloud console, go to the Manage resources page.

      Go to Manage resources

    2. In the project list, select the project that you want to delete, and then click Delete.
    3. In the dialog, type the project ID, and then click Shut down to delete the project.

    次のステップ