このページでは、ボリューム移行を作成する方法について説明します。
始める前に
ボリューム移行を設定する前に、移行ワークフローを確認することをおすすめします。ボリューム移行プロセスは、移行先ボリュームを作成し、移行元システムの詳細を指定することから始まります。このアクションにより、レプリケーションを管理するためのレプリケーション先ボリューム リソースとレプリケーション子リソースが NetApp Volumes 内に作成されます。
考慮事項
移行プロセス中、移行先ボリュームでは次の機能はサポートされていません。
大量のボリューム(ソースの FlexGroup ボリュームを移行する場合を除く)。
自動階層化: この機能は移行後に有効にできます。
ボリューム レプリケーション、カスケードのソースとしての宛先ボリューム。ボリューム レプリケーションは、移行後に有効にできます。
Flex サービスレベル
宛先ボリュームのバックアップを行う場合は、手動バックアップを使用する必要があります。バックアップ ポリシーを宛先ボリュームに割り当てようとすると、失敗します。
正しいストレージ プールを選択し、移行先のボリュームが移行元ボリュームの論理サイズ(物理サイズではない)を格納するのに十分な大きさであることを確認します。
正しい共有名とプロトコル タイプを指定します。共有名はソースと一致している必要があります。また、プロトコル タイプはボリュームの作成後に変更できないため、慎重に選択する必要があります。選択したプロトコル設定は、ボリューム セキュリティ スタイルにもマッピングされます。
作成する宛先ボリュームのボリューム セキュリティ スタイルが、移行元ボリュームのボリューム セキュリティ スタイルと一致していることを確認します。
ボリューム移行を作成する前に、移行元の ONTAP システムに対する CLI アクセスと必要な権限があることを確認してください。移行プロセスの 1 時間以内に、移行元の ONTAP システムで CLI コマンドを実行する必要があります。
ボリューム移行を作成する
Google Cloud コンソールまたは Google Cloud CLI を使用してボリューム移行を作成するには、次の操作を行います。
コンソール
Google Cloud コンソールで、[NetApp Volumes] ページに移動します。
[データ保護] メニューから [移行] をクリックします。
[ONTAP から移行] をクリックします。
[宛先ボリュームの詳細] セクションの [宛先ボリューム名] フィールドに、宛先ボリュームの名前を入力します。
[ストレージ プールの詳細] セクションで、[ストレージ プールを選択] をクリックします。
表示されたストレージ プールのリストから、必要なストレージ プールを選択します。
[選択] をクリックします。
[ボリュームの詳細] セクションの [共有名] フィールドに、ボリュームの共有名を入力します。共有名はロケーション内で一意である必要があります。宛先ボリュームの名前を共有名として使用することをおすすめします。
[容量構成] セクションで、[容量] フィールドにボリューム容量を入力します。
[プロトコル構成] セクションで、ソース ボリュームと同じプロトコルを選択します。一部のプロトコルでは、さまざまなオプションが表示されます。プロトコル オプションの詳細については、新しいボリュームを作成するをご覧ください。
省略可: [スナップショット構成] セクションで、次の操作を行います。
[スナップショット ディレクトリを表示する] を選択して、クライアントによるスナップショット バージョンへのファイル システム アクセスを有効にします。詳細については、NetApp Volumes ボリューム スナップショットの概要をご覧ください。
[スケジュールされたスナップショットを許可する] を選択して、スナップショットを自動的に取得するようにボリュームを構成します。スナップショットを保持する数を、時間単位、日単位、週単位、月単位のスナップショット間隔で指定できます。時刻は UTC で指定します。スナップショットの最大数に達すると、最も古いスナップショットが削除されます。
スナップショットの選択内容を確認します。
[次へ] をクリックします。
[移行の詳細] セクションの [移行名] フィールドに、移行リソースの名前を入力します。
[次へ] をクリックします。
[ソース クラスタの詳細] セクションで、次の操作を行います。
[クラスタ名] フィールドに、移行元クラスタの名前を入力します。
[ストレージ VM 名] フィールドに、ストレージ仮想マシン(SVM)(vserver とも呼ばれます)の名前を入力します。ソース ボリュームをホストする SVM。
[ボリューム名] フィールドに、ソース ボリュームの名前を入力します。
[クラスタ間 IP] フィールドに Intercluster-LIF(IC-LIF)IP アドレスを入力します。ソースクラスタの各ノードには IC-LIF が必要です。すべての IC-LIF をカンマ区切りのリストとして指定します。
省略可: [ロケーション] フィールドに、ソース クラスタのロケーションの説明を入力します。
[次へ] をクリックします。
設定を確認し、[作成] をクリックして移行プロセスを開始します。
移行プロセスを作成すると、ボリュームの詳細ビューにリダイレクトされます。[移行] タブをクリックして、移行ステータスをモニタリングします。
移行元の ONTAP システムと NetApp Volumes 間の SnapMirror 接続を認証する必要があります。ソース ONTAP クラスタで cluster peer create
コマンドを実行します。以前のピアリングが存在しない場合、[移行] タブに Migration pending cluster peering from ONTAP source cluster
が表示されます。
[ピアリングを開始] をクリックすると、手順が記載されたサイドページが表示されます。手順に沿って、[ピアリングを確認] をクリックします。ピアリングが成功すると、サイドページが消え、移行の転送ステータスが [準備中] に変わります。ベースラインの転送が実行されています。ベースライン転送には、転送するデータの量とネットワーク速度に応じて、数分、数時間、または数日かかることがあります。ベースライン転送が完了すると、転送ステータスが [Mirrored] に切り替わります。
gcloud
ボリューム移行を作成するには:
gcloud netapp volumes create VOLUME_NAME --location=LOCATION \ --capacity=CAPACITY --protocols=PROTOCOL \ --share-name=SHARE_NAME --storage-pool=STORAGE_POOL \ --hybrid-replication-parameters=cluster-location=CLUSTER_LOCATION,peer-cluster-name=PEER_CLUSTER_NAME,peer-ip-addresses=PEER_IP_ADDRESSES,peer-svm-name=PEER_SVM_NAME,peer-volume-name=PEER_VOLUME_NAME,replication=REPLICATION,description=DESCRIPTION,labels=LABELS
hybrid-replication-parameters
ブロックは移行ワークフローを開始します。
次の情報を置き換えます。
VOLUME_NAME
: ボリュームの名前。この名前は、ロケーションごとに一意である必要があります。LOCATION
: ボリュームのロケーション。CAPACITY
: ボリュームの容量。これは、NAS クライアントに表示される容量を定義します。PROTOCOLS
: ボリュームのエクスポートに使用される NAS プロトコル。SHARE_NAME
: ボリュームの NFS エクスポート パスまたは SMB 共有名。STORAGE_POOL
: ボリュームを作成するストレージ プール。PEER_CLUSTER_NAME
: ソース ボリュームをホストする ONTAP クラスタの名前。PEER_IP_ADDRESSES
: ONTAP クラスタの InterCluster-LIF IP アドレス。ソース クラスタは、ノードごとに 1 つの IC-LIF を提供する必要があります。IC-LIF は # 記号で区切ります。必ずすべて指定してください。次の例は、ONTAP クラスタの複数の IC-LIF IP アドレスを追加する方法を示しています。
peer-ip-addresses=10.0.0.25#10.0.0.26
PEER_SVM_NAME
: 移行元ボリュームを所有するストレージ仮想マシン(SVM)(vserver とも呼ばれます)の名前。PEER_VOLUME_NAME
: ソース ボリュームの名前。REPLICATION
: 作成されるレプリケーション リソースの名前。LARGE_VOLUME_CONSTITUENT_COUNT
: このパラメータは、ソース ボリュームが FlexGroup の場合にのみ必要です。詳細については、FlexGroup と大容量ボリュームをご覧ください。大容量ボリュームを作成するには、
specify --large-volume true
と--multiple-endpoints true
も作成パラメータとして指定します。CLUSTER_LOCATION
: 省略可。ソース クラスタのロケーションの説明。DESCRIPTION
: 省略可。レプリケーション リソースの説明テキスト。LABELS
: 省略可。レプリケーション リソースのラベル。
呼び出しの例:
$ gcloud netapp volumes create ok-destination --location australia-southeast1 \ --capacity 100 --protocols=nfsv3 \ --share-name ok-destination --storage-pool okrause-pool \ --hybrid-replication-parameters=peer-cluster-name=au2se1cvo2sqa,peer-ip-addresses=10.0.0.25#10.0.0.26,peer-svm-name=svm_au2se1cvo2sqa,peer-volume-name=okrause_source,replication=okrause-replication
ボリューム要件を満たすには、該当するオプション パラメータをすべて指定します。たとえば、NFS ボリュームでエクスポート ポリシーが必要になることがあります。
すべてのオプションを検索します。
gcloud netapp volumes create --help
宛先ボリュームとレプリケーション リソースを作成すると、NetApp Volumes は移行元の ONTAP システムとのピアリングを試みます。このピアリング プロセスは、認証と認可の手順として機能し、悪意のある SnapMirror リクエストからソース クラスタを保護します。したがって、信頼できるシステムとのみピアリングするようにしてください。
次の手順を確認します。
gcloud netapp volumes replications list --volume=DESTINATION_VOLUME --location=REGION
現在の認証ステータスはいつでも印刷できます。ただし、アクションによってプロセスが次のステップに進んでから、ステータスが変更されるまでに最大 5 分かかることがあります。
ピアリングが成功するには、次の手順が必要です。
NetApp Volumes の宛先ボリュームは、指定された
peer-ip-addresses
を使用してソースシステムに ping を送信します。クラスタ ピアリングがまだ確立されていない場合、NetApp Volumes は、ソースシステムで実行する必要があるクラスタ ピアリング コマンドを出力します。
また、SVM ピアリングがまだ確立されていない場合は、NetApp Volumes によって、移行元システムで実行する必要がある vserver ピアリング コマンドが出力されます。
以前に完了した手順はスキップされ、次の手順に自動的に進みます。
ネットワーク接続の確認
NetApp Volumes は、peer-ip-addresses
で指定した IC-LIF に ICMP(ping)リクエストを送信しようとします。失敗した場合は、stateDetails
に Cluster peering failed, please try again
が表示され、ネットワークの問題を示します。詳細については、 Google Cloud プロジェクトへのネットワーク接続をご覧ください。移行元システムと NetApp Volumes 間のネットワーク接続を確立するまで、先に進むことはできません。デバッグのため、NetApp Volumes IC-LIF をホストする /27
CIDR のゲートウェイ IP に ping を試してください。
gcloud netapp volumes replications list --volume=DESTINATION_VOLUME --location=REGION \ --format="table(hybridPeeringDetails.subnetIp)"
これにより、CIDR が出力されます。ソース ONTAP システムから、ソース IC-LIF のいずれかを使用して、そのネットワークの最初の IP に ping を実行します。
例:
source> ping -lif=YOUR_IC_LIF -vserver=VSERVER_HOSTING_SOURCE_VOLUME -destination=FIRST_IP_OF_SUBNET_IP
クラスタ ピアリング:
ICMP が機能している場合、プロセスはクラスタ ピアリングに進みます。ピアリングがまだ確立されていない場合は、ステータス PENDING_CLUSTER_PEERING
が表示されます。
クラスタ ピアリングの手順を確認します。
gcloud netapp volumes replications list --volume=DESTINATION_VOLUME --location=REGION \ --format="table(hybridPeeringDetails.command,hybridPeeringDetails.passphrase)"
このプロセスでは、実行に必要なコマンドとパスフレーズが出力されます。クラスタ ピアの作成コマンドをコピーして、ソース クラスタに貼り付けて実行します。パスフレーズを 2 回入力するように求められます。
SVM ピアリング:
前の手順の cluster peer create
コマンドは、SVM ピアリングも自動的に実行します。この状態にならない場合、数秒後に状態が PENDING_SVM_PEERING
に変わります。
SVM ピアリングを確認します。
gcloud netapp volumes replications list --volume=DESTINATION_VOLUME --location=REGION
状態が PENDING_SVM_PEERING
の場合は、vserver ピアリング コマンドを実行します。
gcloud netapp volumes replications list --volume=DESTINATION_VOLUME --location=REGION \ --format="table(hybridPeeringDetails.command)"
数秒後、状態が [準備完了] に変わり、mirrorState が [準備中] に変わります。これは、ベースライン転送が開始されたことを示します。ベースライン転送が完了すると、mirrorState が Mirrored に変わります。1 時間ごとのボリューム移行では、増分転送がトリガーされます。これは、mirrorState が Transferring として示されます。