5.4. テスト 2: プライマリーノードをパッシブな 3 番目のサイトを使用してフェイルオーバーする
| テストの内容 | 3 番目のサイトの登録なし。 3 番目のサイトが停止している場合でも、フェイルオーバーが機能する。 |
| テストの前提条件 |
|
| テストの手順 |
|
| テストの開始 | クラスターコマンドを実行します。
|
| テストのモニタリング |
3 番目のサイトで
クラスターノード上で root として |
| 期待される結果 | DC3 には何も変化がありません。レプリケーションは古い関係を維持します。 |
| 初期状態に戻す方法 | 新しいプライマリーに DC3 を再登録し、SAP HANA を起動します。 |
詳細な説明:
clusternode1 または clusternode2 で root としてクラスターの初期状態を確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例のこの出力は、HANA がプライマリー SAP HANA サーバーである clusternode1 上でプロモートされていること、およびクローンリソースの名前が
SAPHana_RH2_02-cloneであり、プロモート可能であることを示しています。HANA の前にテスト 3 を実行すると、clusternode2 でテスト 3 がプロモートされる可能性があります。remotehost3 上のデータベースを停止します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow remotehost3 上のプライマリーデータベースを確認します。
remotehost3:rh2adm> hdbnsutil -sr_stateConfiguration| grep -i "primary masters" primary masters: clusternode2
remotehost3:rh2adm> hdbnsutil -sr_stateConfiguration| grep -i "primary masters" primary masters: clusternode2Copy to Clipboard Copied! Toggle word wrap Toggle overflow クラスターノード上のクラスター内の現在のプライマリーを確認します。
pcs resource | grep Masters * Masters: [ clusternode2 ][root@clusternode1]# pcs resource | grep Masters * Masters: [ clusternode2 ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow sr_stateを確認して、SAP HANA System Replication 関係を確認します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow SAP HANA System Replication 関係には、依然として 1 つのプライマリー (DC1) があり、DC2 と DC3 にレプリケートされます。
ダウンしている remotehost3 上のレプリケーション関係は、次のコマンドを使用して表示できます。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow オフラインの remotehost3 上のデータベースは、
global.iniファイル内のエントリーをチェックします。テストの開始: クラスター内でフェイルオーバーを開始し、
SAPHana-clone-resourceの例を移動します。pcs resource move SAPHana_RH2_02-clone clusternode2
[root@clusternode1]# pcs resource move SAPHana_RH2_02-clone clusternode2Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記SAPHana が clusternode2 でプロモートされている場合は、クローンリソースを clusternode1 に移動する必要があります。この例では、SAPHana が clusternode1 でプロモートされることを想定しています。
出力はありません。前のテストと同様に、場所の制約が作成され、次のように表示できます。
pcs constraint location Location Constraints: Resource: SAPHana_RH2_02-clone Enabled on: Node: clusternode1 (score:INFINITY) (role:Started)[root@clusternode1]# pcs constraint location Location Constraints: Resource: SAPHana_RH2_02-clone Enabled on: Node: clusternode1 (score:INFINITY) (role:Started)Copy to Clipboard Copied! Toggle word wrap Toggle overflow クラスターが再び正常に見える場合でも、この制約により、制約が削除されない限り、別のフェイルオーバーが回避されます。1 つの方法は、リソースをクリアすることです。
リソースをクリアします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow リソースをクリーンアップします。
pcs resource cleanup SAPHana_RH2_02-clone Cleaned up SAPHana_RH2_02:0 on clusternode2 Cleaned up SAPHana_RH2_02:1 on clusternode1 Waiting for 1 reply from the controller ... got reply (done)
[root@clusternode1]# pcs resource cleanup SAPHana_RH2_02-clone Cleaned up SAPHana_RH2_02:0 on clusternode2 Cleaned up SAPHana_RH2_02:1 on clusternode1 Waiting for 1 reply from the controller ... got reply (done)Copy to Clipboard Copied! Toggle word wrap Toggle overflow 現在のステータスを確認します。
レプリケーションのステータスを表示するには 3 つの方法があり、同期している必要があります。まずは remotehost3 のプライマリーから始めます。
remotehost3clusternode2:rh2adm> hdbnsutil -sr_stateConfiguration| grep -i primary active primary site: 1 primary masters: clusternode1
remotehost3clusternode2:rh2adm> hdbnsutil -sr_stateConfiguration| grep -i primary active primary site: 1 primary masters: clusternode1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 出力には、サイト 1 または clusternode1 が表示されます。これは、プライマリーを clusternode2 に移動するテストを開始する前はプライマリーでした。
次に、新しいプライマリーのシステムレプリケーションステータスを確認します。
まず新しいプライマリーを検出します。
pcs resource | grep Master * Masters: [ clusternode2 ][root@clusternode1]# pcs resource | grep Master * Masters: [ clusternode2 ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow ここでは不整合が発生しているため、remotehost3 を再登録する必要があります。テストを再度実行すると、プライマリーを元の clusternode1 に戻すのではないかと思うかもしれません。この場合、システムレプリケーションが機能しているかどうかを確認する 3 番目の方法があります。プライマリーノードで次のコマンドを実行します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow この出力に remotehost3 が表示されない場合は、remotehost3 を再登録する必要があります。登録する前に、プライマリーノードで次のコマンドを実行して、登録の進行状況を確認してください。
clusternode2:rh2adm> watch python ${DIR_EXECUTABLES}/python_support/systemReplicationStatus.pyclusternode2:rh2adm> watch python ${DIR_EXECUTABLES}/python_support/systemReplicationStatus.pyCopy to Clipboard Copied! Toggle word wrap Toggle overflow これで、このコマンドを使用して、remotehost3 を再登録できます。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow remotehost3 上のデータベースがまだ起動していない場合でも、システムレプリケーションステータスの出力で 3 番目のサイトを確認できます。登録は、remotehost3 でデータベースを起動することで完了できます。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 上記で開始されたモニターには、remotehost3 の同期がすぐに表示されます。
-
元に戻すには、テストを再度実行します。オプションのテストの 1 つは、プライマリーをノードに切り替えて、remotehost3 の
global.iniで設定してデータベースを起動することです。データベースが起動する場合もありますが、再登録しない限り、システムレプリケーションステータスの出力には表示されません。 - 欠落しているエントリーがすぐに作成され、SAP HANA データベースが起動するとすぐにシステムレプリケーションが開始されます。
これは、次を実行して確認できます。
sidadm@clusternode1% hdbnsutil -sr_state sidadm@clusternode1% python systemReplicationStatus.py ; echo $?
sidadm@clusternode1% hdbnsutil -sr_state sidadm@clusternode1% python systemReplicationStatus.py ; echo $?Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 詳細は、SAP HANA System Replication ステータスの確認 を参照してください。