RHEL HA Add-On を使用した SAP HANA Scale-Out System Replication の自動化
概要
多様性を受け入れるオープンソースの強化 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat では、コード、ドキュメントにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。多様性を受け入れる用語に変更する取り組みの詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
Red Hat ドキュメントへのフィードバック (英語のみ) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat ドキュメントに関するご意見やご感想をお寄せください。また、改善点があればお知らせください。
Jira からのフィードバック送信 (アカウントが必要)
第1章 はじめに リンクのコピーリンクがクリップボードにコピーされました!
このドキュメントでは、SAP HANA スケールアウトシステムレプリケーションのデプロイメントの自動テイクオーバーの計画と実装に関する情報を提供します。このソリューションの SAP HANA System Replication は、2 つの SAP HANA データベース間の継続的な同期を提供し、高可用性と障害復旧をサポートします。実際の実装の課題は、通常、事前のテストでカバーできるものよりも複雑です。ご使用の環境が十分にテストされていることを確認してください。
Red Hat では、セットアップとその後の操作を実施するために、SAP HANA と Pacemaker ベースの RHEL High Availability Add-On の両方に精通した認定コンサルタントと契約することを推奨しています。
SAP HANA が SAP ランドスケープのプライマリーデータベースプラットフォームとして中心的な機能を果たすようになると、安定性と信頼性に対する要件が大幅に高まります。Red Hat Enterprise Linux (RHEL) for SAP Solutions は、ネイティブの SAP HANA レプリケーションおよびフェイルオーバーテクノロジーを強化して、テイクオーバープロセスを自動化することで、これらの要件を満たします。SAP HANA Scale-Out System Replication のデプロイメントにおけるフェイルオーバー中、プライマリー環境に問題が発生した場合に備えて、システム管理者はアプリケーションにセカンダリー環境へのテイクオーバーを実行するように手動で指示する必要があります。
このプロセスを自動化するために、Red Hat は、RHEL for SAP Solutions サブスクリプションの一部である RHEL HA Add-On に基づいて、SAP HANA Scale-Out System Replication を管理するための完全なソリューションを提供します。このドキュメントでは、RHEL for SAP Solutions を使用して自動化された SAP HANA Scale-Out System Replication ソリューションをセットアップする方法に関する概念、計画、および概要的な手順を説明します。このソリューションは広範囲でテストされ、機能することが実証されていますが、実際の実装の課題は通常、このソリューションでカバーできるものよりも複雑です。したがって、Red Hat では、SAP HANA と Pacemaker ベースの RHEL High Availability Add-On の両方を十分に理解した認定コンサルタントがこのソリューションをセットアップし、その後サービス提供することを推奨しています。
RHEL for SAP Solutions の詳細は、Red Hat Enterprise Linux for SAP Solutions サブスクリプションの概要 を参照してください。
このソリューションは、経験豊富な Linux 管理者および SAP Certified Technology Associates を対象としています。このソリューションには、SAP HANA Scale-Out with System Replication の計画とデプロイメントに関する情報、および RHEL 8 以降との Pacemaker インテグレーションに関する情報が含まれています。
HANA System Replication と Pacemaker 接続を備えた SAP HANA scale-out 環境を構築するには、いくつかの複雑なテクノロジーを組み合わせる必要があります。このドキュメントには、SAP Notes または SAP HANA の設定を説明するドキュメントへの参照が含まれています。
scale-out クラスターとしての SAP HANA システムは、主に、成長を続ける SAP HANA ランドスケープを新しいハードウェアで簡単に拡張します。この機能では、ストレージやネットワークなどのインフラストラクチャーの重要なコンポーネントで共有リソースを使用する必要があります。この設定に基づいて、スタンバイノードを使用して環境の可用性を拡張し、サイトのテイクオーバーが開始される前に別のレベルの高可用性ソリューションを提供できます。
SAP HANA scale-out ソリューションは、追加のミラーとして機能する 2 つ以上の完全に独立した scale-out ソリューションを含めるように拡張できます。システムレプリケーションプロセスは、Active/Passive 方式に従ってデータベースをミラーリングし、最大のパフォーマンスを実現します。通信は完全にネットワーク経由で行われます。追加のインフラストラクチャーコンポーネントは必要ありません。
Pacemaker は、重要なコンポーネントに障害が発生した場合にシステムレプリケーションプロセスを自動化します。この目的のために、scale-out 環境のデータとシステムレプリケーションプロセスからのデータが評価され、継続的な操作が実行されます。クラスターは、クライアントがデータベースに接続するために使用するプライマリー IP アドレスを管理します。これにより、クラスターがデータベースのテイクオーバーをトリガーした場合でも、クライアントは引き続きアクティブなインスタンスに接続できます。
1.1. サポート責任 リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA アプライアンスのセットアップについては、SAP、ハードウェアパートナー/クラウドプロバイダーが以下をサポートします。
- サポートされているハードウェアと環境
- SAP HANA
- ストレージの設定
- SAP HANA Scale-Out 設定 (SAP クラスターのセットアップ)
- SAP HANA System Replication (SAP クラスターのセットアップ)
Red Hat は以下をサポートしています。
- SAP ガイドラインに基づいた、RHEL 上で SAP HANA を実行するための基本的な OS 設定
- RHEL HA Add-On
- SAP HANA Scale-Out System Replication 向け Red Hat HA ソリューション
詳細は、SAP HANA Master Guide - Operating SAP HANA - SAP HANA Appliance - Roles and Responsibilities を参照してください。TDI セットアップについては、SAP HANA Master Guide - Operating SAP HANA - SAP HANA Tailored Data Center Intergration を参照してください。
1.2. SAP HANA Scale-Out リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA のスケーリングのプロセスは非常に動的です。scale-up SAP HANA データベースのサーバーインスタンスの初期セットアップ中に、追加の CPU とメモリーによってシステムを拡張できます。この拡張レベルでは不十分になった場合、SAP は環境を scale-out 環境に拡張します。適切に準備されたインフラストラクチャーがあれば、追加のサーバーインスタンスをデータベースに追加できます。
“scale-out” するには、既存のシングルノードデータベースに SAP HANA データベース 1-n サーバーを追加します。現在、すべてのノードは CPU と RAM に関して同じサイズである必要があります。すべてのレプリケートされたデータベースサイトの設定は、同じである必要があります。したがって、データベースを再同期する前に、最初にすべてのサイトで HANA ノードの数をアップグレードする必要があります。
前提条件は、共有ストレージと、すべてのノードに対応するネットワーク接続です。共有ストレージは、データを交換し、障害発生時に既存のノードの機能を引き継ぐことができるスタンバイノードを使用するために使用されます。
図 1: scale-up および scale-out システムの概要
マスターネームサーバー
HANA Scale-Out 環境には、ノードの 1 つで実行中のマスターインスタンスを定義するマスター設定があります。これらのマスターインスタンスは、アプリケーションサーバーの主な連絡先です。scale-out 高可用性設定には、最大 3 つのマスターロールを定義できます。障害が発生した場合、マスターのロールは自動的に切り替わります。このマスター設定は、障害が発生したホストが障害が発生したマスターノードのタスクを引き継ぐことができるスタンバイホスト設定と互換性があります。
図 2: 使用済みストレージの Scale-Out 機能
1.3. Scale-Out ストレージ設定 リンクのコピーリンクがクリップボードにコピーされました!
scale-out ストレージ設定により、SAP HANA は scale-out 環境で柔軟に対応し、障害発生時にノードの機能を動的に移動できるようになります。データはすべてのノードで利用可能になるため、SAP インスタンスは、障害が発生したコンポーネントのプロセスを引き継ぐために読み取るだけで済みます。
SAP HANA scale-out 環境には、次の 2 つの異なる共有ストレージシナリオがあります。
- 最初のシナリオは共有ファイルシステムであり、NFS または IBM の GPFS を介してすべてのディレクトリーのファイルシステムを提供します。このシナリオでは、データはすべてのノードで常に利用できます。
- 2 番目のシナリオは、必要なときに必要なデータを排他的に統合するために使用される非共有ストレージです。すべてのデータは SAP HANA ストレージコネクター API を介して管理され、SCSI 3 予約などの適切なメカニズムを使用してノードからのアクセスが削除されます。
どちらのシナリオでも、/hana/shared ディレクトリーが共有ファイルシステムとして使用可能であることを確認します。このディレクトリーは、シナリオとは独立して使用可能かつ共有可能である必要があります。
これらの共有ファイルシステムを監視する場合は、オプションでファイルシステムリソースを作成できます。/etc/fstab 内のエントリーを削除する必要があります。マウントはファイルシステムリソースによってのみ管理されます。
1.3.2. 非共有ストレージ リンクのコピーリンクがクリップボードにコピーされました!
非共有ストレージ設定は、共有ストレージ設定よりも複雑です。SAP HANA インストールプロセスでは、サポートされているストレージコンポーネントとストレージコネクターの個別の設定が必要です。SAP HANA データベースは、sudo アクセス、lvm、マルチパスなどのいくつかの内部変更を加えて RHEL システムを再設定します。ノード定義が変更されるたびに、SAP HANA は SCSI3 予約を介して直接ストレージへのアクセスを変更します。非共有ストレージ設定は、ストレージシステムに直接アクセスできるため、共有ストレージ設定よりも最適化されています。
図 4: ストレージコネクターを使用した scale-out プロセスの機能とワーキングパス
1.4. SAP HANA System Replication リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA System Replication は、SAP HANA 環境で複数のサイトにわたってデータベースをレプリケートする方法を提供します。ネットワークはデータをレプリケートし、2 番目の SAP HANA インストールにプリロードします。SAP HANA System Replication により、プライマリー HANA Scale-Out サイトに障害が発生した場合のリカバリー時間が大幅に短縮されます。すべてのレプリケートされた環境が、ハードウェア、ソフトウェア、および設定全体で同一の仕様で構築されていることを確認する必要があります。
1.5. ネットワーク設定 リンクのコピーリンクがクリップボードにコピーされました!
RHEL HA アドオンによって管理される SAP HANA スケールアウトシステムレプリケーションセットアップには、3 つのネットワークが最小ネットワーク要件です。ただし、高性能な実稼働環境を構築するには、SAP 推奨のネットワーク設定を使用する必要があります。
3 つのネットワークは次のとおりです。
- パブリックネットワーク: アプリケーションサーバーとクライアントの接続に必要 (最小要件)。
- 通信ネットワーク: システムレプリケーション通信、ノード間通信、およびストレージ設定に必要。
- ハートビートネットワーク: HA クラスター通信に必要。
推奨設定は、次のネットワークで設計されています。
- アプリケーションサーバーネットワーク
- クライアントネットワーク
- レプリケーションネットワーク
- ストレージネットワーク
- 2 つのノード間ネットワーク
- バックアップネットワーク
- 管理者ネットワーク
- Pacemaker ネットワーク
このソリューションの設定に基づいて、SAP HANA 設定プロセスの変更が必要になります。システムレプリケーションのホスト名解決は、システムレプリケーションに使用されるネットワークに合わせて調整されます。詳細は、SAP HANA network Requirements ドキュメントを参照してください。
図 5: SAP HANA system replication を介して接続された 2 つの scale-out システムのネットワーク設定の例
1.6. RHEL HA Add-On リンクのコピーリンクがクリップボードにコピーされました!
このドキュメントで説明するソリューションでは、RHEL HA Add-On を使用して、SAP HANA Scale-Out System Replication が 2 つのサイト間で確実に動作するようにします。このため、SAP HANA スケールアウト環境専用に公開されたリソースエージェントが使用され、SAP HANA スケールアウトシステムレプリケーション環境が管理されます。SAP HANA スケールアウトシステムレプリケーション環境の現在のステータスに基づいて、アクティブなマスターノードを別の利用可能なスタンバイノードに切り替えるか、スケールアウトシステムレプリケーション環境のアクティブな方すべてを 2 番目のサイトに切り替えるかを決定できます。このソリューションでは、スプリットブレインコンステレーションを回避するために、フェンシングメカニズムが設定されています。
図 6: System Replication 環境に基づく Pacemaker インテグレーションの概要
RHEL HA アドオンを使用して RHEL 9 で HA クラスターを設定する方法の詳細は、次のドキュメントを参照してください。
SAP HANA scale-out リソースエージェントはあらゆる環境からのデータを使用するため、SAP HANA データベースからの scale-out およびシステムレプリケーションの方法を理解することが重要です。
まず、リソースエージェントは、すべてのサイトで安定した scale-out 環境を監視します。これは、十分な数の SAP HANA scale-out マスターネームサーバーノードが設定され、有効な状態にあるか確認します。その後、リソースエージェントはシステムレプリケーション状態をチェックします。すべてが正常に動作している場合は、システムレプリケーションのマスターサイトのアクティブマスターノードに仮想 IP アドレスが接続されます。障害状態では、クラスターはシステムレプリケーション設定を自動的に切り替えるように設定されます。
障害状態の定義は、マスターネームサーバーの設定によって異なります。たとえば、マスターネームサーバーが 1 つ設定されている場合に、マスターノードに障害が発生すると、クラスターは他のデータセンターに直接切り替わります。最大 3 つのマスターネームサーバーが設定されている場合、SAP HANA 環境は他のデータセンターに切り替える前に自動的に修復されます。Pacemaker はスコアリング数値を使用して、何をすべきかを決定します。SAP HANA を実行する場合、クラスターセットアップでこれらのパラメーターが変更されないことが非常に重要です。
Pacemaker 設定も、Shoot The Other Node In The Head (STONITH) を使用するフェンシング設定に基づいています。応答しないノードは、データにアクセスしていないことを意味するものではありません。STONITH を使用してノードをフェンスし、データが安全であることを確認します。STONITH は、不正なノードまたは同時アクセスによるデータの破損を防ぎます。2 つのサイト間の通信が失われた場合、両方のサイトが動作を継続できると認識する可能性があり、これが原因でデータが破損する可能性があります。これはスプリットブレインシナリオとも呼ばれます。これを防ぐために、クォーラムを追加して、誰が続行できるかを決定できます。クォーラムは、追加のノードまたは qdevice のいずれかになります。この例では、追加のノード majoritymaker を使用しています。
図 7: scale out によるシステムレプリケーションの例
1.7. リソースエージェント リンクのコピーリンクがクリップボードにコピーされました!
クラスター設定は 2 つのリソースエージェントを使用しています。
1.7.1. SAPHanaTopology リソースエージェント リンクのコピーリンクがクリップボードにコピーされました!
SAPHanaTopology リソースエージェントは、SAP HANA 環境からすべてのデータを受信するクローン作成されたリソースです。このデータは、SAP HANA の「システムレプリケーションフック」と呼ばれる設定プロセスによって生成されます。このデータに基づいて、リソースエージェントは Pacemaker サービスの Pacemaker スコアリングを計算します。スコアリングは、クラスターがシステムレプリケーションを一方から他方へ切り替える必要があるか決定するために使用されます。スコアリング値が事前定義された値よりも高い場合、クラスターはシステムレプリケーションを切り替えます。
1.7.2. SAPHanaController リソースエージェント リンクのコピーリンクがクリップボードにコピーされました!
SAPHanaController リソースエージェントは、SAP HANA 環境を制御し、自動切り替えのすべてのコマンドを実行したり、システムレプリケーションのアクティブサイトを変更したりします。
第2章 SAP HANA Scale-Out 環境の準備 リンクのコピーリンクがクリップボードにコピーされました!
System Replication と Pacemaker インテグレーションを備えた完全な SAP HANA Scale-Out 環境を実現するには、事前に必要なデータをすべて収集し、インストールプロセス用のインフラストラクチャーを準備することを推奨します。SAP HANA のインストールには、SAP 自体を含むさまざまなオペレーティングシステムコンポーネントからの多数の変数が必要です。この章では、最小要件を説明します。
2.1. サブスクリプションおよびリポジトリー リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA デプロイメントの要件:
- RHEL for SAP Solutions サブスクリプションは、SAP HANA を実行しているすべての RHEL サーバーで有効にする必要があります。
- 正しいパッケージバージョンがすべてのシステムにインストールされていることを確認する Satellite サーバーを使用したステージング環境。RHEL 8 に SAP HANA をインストールするには、以下のリポジトリーを有効にする必要があります。
rhel-8-SAP-Solutions:
- rhel-9-for-<arch>-sap-solutions-rpms
- rhel-8-for-<arch>-sap-solutions-e4s-rpms (RHEL 8.0 から 8.8)
<arch> は、以下のように特定のハードウェアアーキテクチャーを表しています。
- x86_64
- ppc64le
詳細は、Red Hat Enterprise Linux for SAP Solutions サブスクリプションの概要 および RHEL for SAP サブスクリプションおよびリポジトリー を参照してください。
このソリューションには、個別のストレージネットワーク、バックアップネットワーク、管理ネットワークは必要ありません。ネットワーク設定に加えて、Pacemaker を使用して追加の仮想 IP を設定します。この IP アドレスにより、SAP アプリケーションサーバーと特定のエンドユーザーは SAP HANA 環境と通信できるようになります。
次の例は、8 つの SAP HANA ノードのネットワーク設定の最小要件を示しています。
| パラメーター | 値 |
| domainname | example.com |
| NTP Server 1 | 0.de.pool.ntp.org |
| NTP Server 2 | 1.de.pool.ntp.org |
| Virtual IP | 10.111.222.52/24 |
注記: Pacemaker は、SAP アプリケーションサーバーと SAP HANA データベース間の通信用に、パブリックネットワーク内の仮想 IP (VIP) アドレスを管理します。次の例では、3 つのネットワークインターフェイスカード (NIC) を持つホストにマップされている物理アドレスがリスト表示されています。
| ホスト名 | パブリックネットワーク | HANA コミュニケーション | Pacemaker |
| dc1hana01 | 10.0.1.21/24 | 192.168.101.101/24 | 192.168.102.101/24 |
| dc1hana02 | 10.0.1.22/24 | 192.168.101.102/24 | 192.168.102.102/24 |
| dc1hana03 | 10.0.1.23/24 | 192.168.101.103/24 | 192.168.102.103/24 |
| dc1hana04 | 10.0.1.24/24 | 192.168.101.104/24 | 192.168.102.104/24 |
| ホスト名 | パブリックネットワーク | HANA コミュニケーション | Pacemaker |
| dc2hana01 | 10.0.1.31/24 | 192.168.101.201/24 | 192.168.102.201/24 |
| dc2hana02 | 10.0.1.32/24 | 192.168.101.202/24 | 192.168.102.202/24 |
| dc2hana03 | 10.0.1.33/24 | 192.168.101.203/24 | 192.168.102.203/24 |
| dc2hana04 | 10.0.1.34/24 | 192.168.101.204/24 | 192.168.102.204/24 |
| ホスト名 | パブリックネットワーク | Pacemaker |
| majoritymaker | 10.0.1.41/24 | 192.168.102.100/24 |
2.2. Storage リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA Scale-Out シナリオのストレージの設定には、次の 2 つの方法があります。
- 共有ストレージ
- 非共有ストレージ
ストレージレベルでは、両方の scale-out 環境間の通信は行われません。そのため、SAP HANA System Replication が期待どおりに動作していることを確認するには、各 scale-out 環境でストレージ設定を完了する必要があります。
2.2.2. 非共有ストレージ リンクのコピーリンクがクリップボードにコピーされました!
非共有ストレージ設定では、ストレージコネクターのインテグレーションが必要です。ストレージコネクターは、SCSI または LVM ロックメカニズムを介して LUN または LVM デバイスへのアクセスを管理します。この設定タイプでは、WWID または LVM デバイスが必要です。非共有ストレージ設定の場合、scale-out 環境ごとに 1 つの共有ディレクトリーが必要です。この設定は、SAP HANA Fiber Channel Storage Connector Admin Guide で説明されています。
| パラメーター | 値 |
| ha_provider | hdb_ha.fcClient |
| メソッド | パラメーター名 | WWID |
| SAN | partition_1_data wwid | 3600508b400105e210000900000491000 |
| SAN | partition_1_log wwid | 3600508b400105e210000900000492000 |
| SAN | partition_2_data wwid | 3600508b400105e210000900000493000 |
| SAN | partition_2_log wwid | 3600508b400105e210000900000494000 |
| SAN | partition_3_data wwid | 3600508b400105e210000900000495000 |
| SAN | partition_3_log wwid | 3600508b400105e210000900000496000 |
| メソッド | パラメーター名 | WWID |
| SAN | partition_1_data wwid | 3600508b400105e210000900000491000 |
| SAN | partition_1_log wwid | 3600508b400105e210000900000492000 |
| SAN | partition_2_data wwid | 3600508b400105e210000900000493000 |
| SAN | partition_2_log wwid | 3600508b400105e210000900000494000 |
| SAN | partition_3_data wwid | 3600508b400105e210000900000495000 |
| SAN | partition_3_log wwid | 3600508b400105e210000900000496000 |
2.2.3. 共有デバイス リンクのコピーリンクがクリップボードにコピーされました!
| メソッド | NFS サーバー | NFS パス | マウントポイント |
| NFS | 10.0.1.61 | /data/dc1/shared | /hana/shared |
| メソッド | NFS サーバー | NFS パス | マウントポイント |
| NFS | 10.0.1.61 | /data/dc2/shared | /hana/shared |
共有ストレージがファイルシステムリソースによって管理されている場合は、マウントを /etc/fstab に追加しないでください。
2.3. SAP HANA リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA System Replication を使用した scale-out 環境向けの SAP HANA デプロイメントの構築には、次の 4 つの手順があります。
- オペレーティングシステムを設定します。
- SAP Host Agent をインストールします。
- 2 つの scale-out 環境をデプロイします。
- 両方の SAP HANA Scale-Out 環境が実行中になった後、HANA System Replication をアクティブ化します。
RHEL 環境の準備には、SAP HANA インストールソースのプロビジョニングが含まれます。インストールソースは SAP から入手できます。インストールソースをダウンロードするには、SAP アカウントが必要です。インストールソースは共有ディレクトリー経由で提供されるか、各ホストに手動でコピーされます。
SAP ソフトウェアは、SAP Software Centre からダウンロードできます。この例では、ソフトウェアを共有ディレクトリー/インストールに配置します。
| ソフトウェア | Path |
| Host Agent | /install/51053381/DATA_UNITS/HDB_SERVER_LINUX_X86_64/server/HOSTAGEN T.TGZ |
| SAP HANA | /install/51053381/DATA_UNITS/HDB_SERVER_LINUX_X86_64/ |
SAP HANA Host Agent のデプロイメントには、次の情報が必要です。
| パラメーター | 値 |
| sapadm user password | Us3Your0wnS3cur3Password |
| Hostagent SSL certificate password | Us3Your0wnS3cur3Password |
| sapadm User ID | 996 |
SAP HANA のデプロイメントでは、次の追加パラメーターが必要です。
| パラメーター | 値 |
| shmadm group ID | 20201 |
| sapsys group ID | 996 |
| SID | RH1 |
| System number | 10 |
| <sid>adm password | Us3Your0wnS3cur3Password |
| HANA components | client,server |
| System type | Master |
| System usage | custom |
| System User Password (SAP) | Us3Your0wnS3cur3Password |
| hdblcm パラメーター | 値 |
| hostname | dc1hana01 |
| Addhosts parameter | dc1hana02:role=worker、dc1hana03:role=worke r、dc1hana04:role=standby |
| ScaleOut Network DC1 internal_network | 192.168.101.0/24 |
| hdblcm パラメーター | 値 |
| hostname | dc2hana01 |
| Addhosts parameter | dc2hana02:role=worker、dc2hana03:role=worke r、dc2hana04:role=standby |
| ScaleOut Network DC2 internal_network | 192.168.101.0/24 |
| パラメーター | 値 |
| Operation mode | logrelay |
| Replication mode | sync |
| Backup directory | /hana/shared/L01/HDB10/backup/ |
| パラメーター | 値 |
| System replication name | DC1 |
| HSR type | PRIMARY |
| HSR remote host | dc1hana01 |
| SR network | 192.168.101.0/24 |
| パラメーター | 値 |
| System replication name | DC2 |
| HSR type | Secondary |
| HSR remote host | dc2hana01 |
| SR network | 192.168.101.0/24 |
2.4. Pacemaker リンクのコピーリンクがクリップボードにコピーされました!
Pacemaker は、SAP HANA、scale-out、システムレプリケーションの設定を管理します。動作設定では、Pacemaker にフェンシングメソッドが必要です。これは、STONITH Pacemaker 設定によって実現できます。STONITH メソッドの概要は、RHEL High Availability クラスターのサポートポリシー - フェンシング/STONITH を参照してください。利用できる fence-agents は多数あります。以下も確認してください。
yum search fence-agents
yum search fence-agents
Pacemaker フェンシング設定は、基盤となるハードウェアまたは仮想化環境に依存します。このソリューションでは、Red Hat Virtualization (RHV) が使用されるため、環境に応じて fence_rhevm フェンシングメソッドを設定する必要があります。
スプリットブレインシナリオを防ぐには、クォーラム が必要です。これは、追加のクラスターノード majoritymaker を使用して実現されます。クォーラムに関する詳細情報が必要な場合は、Design Guidance for RHEL High Availability Clusters - Considerations with qdevice Quorum Arbitration および Exploring Concepts of RHEL High Availability Clusters-Quorum を参照してください。
| ホスト名 | パブリックネットワーク | Pacemaker |
| Majoritymaker | 10.0.1.42/24 | 192.168.101.100/24 |
| パラメーター | 値 |
| Cluster name | hana-scaleout-sr |
| Fencing method | fence_rhevm |
| Fencing ipaddr/hostname | 10.20.30.40 |
| Fencing parameter | fencing_user/password |
| Corosync network | 192.168.101.0/24 |
| Password hacluster user | Us3Your0wnS3cur3Password |
この例では、fence_rhevm を使用します。fence_rhevm の設定に関する詳細は、How do I configure a fence_rhevm stonith device in a Red Hat High Availability cluster? を参照してください。
第3章 SAP HANA Scale-Out 環境の設定 リンクのコピーリンクがクリップボードにコピーされました!
このソリューションは、System Replication および Pacemaker を使用して SAP HANA Scale-Out 環境をセットアップおよび設定する方法に関するものです。これは、2 つの部分に分かれています。1 つは、基本的な RHEL 設定のセットアップに関する部分で、これは環境ごとに異なります。もう 1 つは、SAP HANA Scale-Out System Replication と Pacemaker 用の SAP HANA Scale-Out のデプロイと設定に関する部分です。
最小要件は、サイトごとに 2 つのノードと、この例では追加の majoritymaker ノードであるクォーラムデバイスを使用することです。ここで説明するテスト環境は、8 つの SAP HANA ノードと、クラスタークォーラム用の追加の majoritymaker ノードで構築されています。すべての SAP HANA ノードには 50 GB のルートディスクと、/usr/sap ディレクトリー用の追加の 80 GB パーティションがあります。すべての SAP HANA ノードには 32 GB の RAM があります。majoritymaker ノードは、たとえば 50 GB のルートディスクと 8 GB の RAM のように、より小さくすることができます。共有ディレクトリーには、128 GB の NFS プールが 2 つあります。スムーズなデプロイメントを確実に行うために、このドキュメントの SAP HANA Scale-Out 環境の準備 セクションで説明されているように、必要なすべてのパラメーターを記録することを推奨します。次の例は、必要な設定パラメーターの概要を示しています。
環境
| Pacemaker | ||
| 4 ノード (3 + 1) | Majoritymaker | 4 ノード (3 + 1) |
| 共有ストレージ (DC1 の NFS) | ← システムレプリケーション → | 共有ストレージ (DC2 の NFS) |
| Network
| Network
| |
3.1. 基本的な RHEL 設定のセットアップ リンクのコピーリンクがクリップボードにコピーされました!
このセクションの手順を使用して、使用中の環境に基本的な RHEL 設定をセットアップします。RHEL 9 については、SAP Note 3108316 - Red Hat Enterprise Linux 9.x: Installation and Configuration および 3108302 - SAP HANA DB: Recommended OS Settings for RHEL 9 でも確認できます。
SAP Note 2235581 - SAP HANA: Supported Operating Systems をチェックして、使用する RHEL 9 マイナーリリースが SAP HANA の実行にサポートされていることを確認してください。さらに、使用するサーバー/ストレージまたはクラウドインスタンスで SAP HANA と RHEL 9 の組み合わせがサポートされているかどうかをサーバー/ストレージベンダーまたはクラウドプロバイダーに確認することも必要です。
最新の RHEL リリースの詳細は、カスタマーポータル で入手可能なリリースノートのドキュメントを参照してください。インストールされているバージョンを見つけて更新が必要か確認するには、次のコマンドを実行します。
[root:~]# subscription-manager release Release: 8.2 [root:~]# cat /etc/redhat-release Red Hat Enterprise Linux release 8.2 (Ootpa) [root:~]#
[root:~]# subscription-manager release
Release: 8.2
[root:~]# cat /etc/redhat-release Red Hat Enterprise Linux
release 8.2 (Ootpa)
[root:~]#
3.1.1. RHEL システムの登録およびリポジトリーの有効化 リンクのコピーリンクがクリップボードにコピーされました!
-
このソリューションでは、ステージング設定がないため、Red Hat はシステム登録を直接受け取ります。再現可能な環境を実現するために、SAP HANA システムのステージング設定を作成することを推奨します。Satellite Server はパケット管理を提供しますが、これにはステージングプロセス (
dev/qa/prod) も含まれます。詳細は、Satellite Server 製品情報を参照してください。 - システムを登録する前にホスト名が正しいことを確認する必要があります。これにより、サブスクリプションを管理するときにシステムを識別しやすくなります。詳細は、ソリューション How to set the hostname in Red Hat Enterprise Linux 7, 8, 9 を参照してください。RHEL 9 の場合は、基本的なシステム設定 を確認してください。
前提条件
- RHEL 8 がインストールされている。
- Subscription Management の ’majoritymaker` を含むすべてのホストに root ユーザーとしてログインしている。
手順
ステージング設定が存在しない場合は、次のコマンドを使用して、SAP HANA テストデプロイメントの登録を Red Hat Subscription Management (RHSM) に直接割り当てることができます。
[root:~]# subscription-manager register
[root:~]# subscription-manager registerCopy to Clipboard Copied! Toggle word wrap Toggle overflow - ユーザー名とパスワードを入力します。
rhel-8-for-x86_64-sap-solutions-rpmsリポジトリーで利用可能なすべてのプールをリスト表示します。[root:~]# subscription-manager list --available --matches="rhel-8-for-x86_64-sap-solutions-rpms"
[root:~]# subscription-manager list --available --matches="rhel-8-for-x86_64-sap-solutions-rpms"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 詳細は、基本的なシステム設定 を参照してください。
注記企業プール ID が必要です。リストが空の場合は、Red Hat に問い合わせて企業のサブスクリプションのリストを入手してください。
プール ID をサーバーインスタンスにアタッチします。
[root:~]# subscription-manager attach --pool=XXXXXXXXXXXXXXXXXXXXXXXXXXXXX
[root:~]# subscription-manager attach --pool=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXCopy to Clipboard Copied! Toggle word wrap Toggle overflow 'sap-solutions' のリポジトリーが有効になっているかどうかを確認します。
[root:~]# yum repolist | grep sap-solution rhel-8-for-x86_64-sap-solutions-rpms RHEL for x86_64 - SAP Solutions (RPMs)
[root:~]# yum repolist | grep sap-solution rhel-8-for-x86_64-sap-solutions-rpms RHEL for x86_64 - SAP Solutions (RPMs)Copy to Clipboard Copied! Toggle word wrap Toggle overflow RHEL 8 に必要なリポジトリーを有効化することができます:
[root:~]# subscription-manager repos --enable=rhel-8-for-x86_64-sap-solutions-rpms --enable=rhel-8-for-x86_64-highavailability-rpms
[root:~]# subscription-manager repos --enable=rhel-8-for-x86_64-sap-solutions-rpms --enable=rhel-8-for-x86_64-highavailability-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 詳細は、RHEL for SAP サブスクリプションおよびリポジトリー を参照してください。
すべてのシステムでパッケージを更新し、正しい RPM パッケージとバージョンがインストールされていることを確認します。
[root:~]# yum update -y
[root:~]# yum update -yCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.1.2. ネットワーク設定 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、このソリューションで使用されるネットワークパラメーターを説明します。このソリューションの設定は環境に依存するため、例として考慮する必要があります。ネットワークの設定は SAP 仕様に従って行う必要があります。ノード dc1hana01 の例は、このドキュメントの SAP HANA Scale-Out 環境の準備 セクションに含まれています。
[root:~]# nmcli con add con-name eth1 ifname eth1 autoconnect yes type ethernet ip4 192.168.101.101/24 nmcli con add con-name eth2 ifname eth2 autoconnect yes type ethernet ip4 192.168.102.101/24
[root:~]# nmcli con add con-name eth1 ifname eth1 autoconnect yes type ethernet ip4 192.168.101.101/24 nmcli con add con-name eth2 ifname eth2 autoconnect yes type ethernet ip4 192.168.102.101/24
3.1.3. /etc/hosts の設定 リンクのコピーリンクがクリップボードにコピーされました!
この手順を使用して、RHEL システムで /etc/hosts を設定します。この設定は、一貫したホスト名解決に必要です。
手順
-
すべてのホストに root ユーザーとしてログインし、
/etc/hostsファイルを設定します。 - scale-out 環境内のすべての SAP HANA ホストに対してホストエントリーを作成します。
ホストファイルをすべてのノードにコピーします。次の出力例に示す順序でホスト名を設定することが重要です。この順序で設定されない場合、SAP HANA 環境はデプロイメントまたは運用プロセス中に失敗します。
注記この設定は、このドキュメントの SAP HANA Scale-Out 環境の準備 セクションに記載されているパラメーターに基づいています。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.1.4. ディスクの設定 リンクのコピーリンクがクリップボードにコピーされました!
RHEL システム上のディスクを設定するには、この手順を完了します。
手順
追加の
/usr/sapパーティションのすべての SAP HANA ホストに root ユーザーとしてログインします。注記一般に、デフォルトの XFS 形式とマウントオプションは、ほとんどのワークロードに最適です。Red Hat では、特定の設定変更がファイルシステムのワークロードにメリットをもたらすと予想される場合を除き、デフォルト値を使用することを推奨します。サポートされているすべてのファイルシステムを使用できます。詳細は、SAP Note 2972496 - SAP HANA Filesystem Types を参照してください。ソフトウェア RAID が使用されている場合、
mks.xfsコマンドは、ハードウェアに合わせて正しいストライプユニットと幅を自動的に設定します。必要なマウントポイントを作成します。
[root:~]# mkdir -p /usr/sap
[root:~]# mkdir -p /usr/sapCopy to Clipboard Copied! Toggle word wrap Toggle overflow 論理ボリューム上に、XFS に基づくファイルシステムを作成します。
[root:~]# mkfs -t xfs -b size=4096 /dev/sdb
[root:~]# mkfs -t xfs -b size=4096 /dev/sdbCopy to Clipboard Copied! Toggle word wrap Toggle overflow XFS ファイルシステムの作成とチューニングの可能性に関する詳細は、
man mkfs.xfsコマンドを実行してください。XFS ファイルシステムの最適なパフォーマンスについては、ソリューション記事 What are some of best practices for tuning XFS filesystems を参照してください。/etc/fstabにマウントディレクティブを記述します。[root:~]# echo "/dev/sdb /usr/sap xfs defaults 1 6" >> /etc/fstab
[root:~]# echo "/dev/sdb /usr/sap xfs defaults 1 6" >> /etc/fstabCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記マウントポイントがファイルシステムリソースによって管理されている場合、これらのファイルシステムは後で
/etc/fstabファイルで再度コメントアウトする必要があります。/etc/fstabの XFS ファイルシステムをマウントできるか確認します。[root:~]# mount /usr/sap
[root:~]# mount /usr/sapCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.1.5. 各データセンターの共有ストレージを使用した Scale-Out の設定 リンクのコピーリンクがクリップボードにコピーされました!
クラウド環境では、異なるアベイラビリティーゾーンに同じマウントポイントの異なるソースが存在する場合があります。
各データセンターの共有サービスを使用して scale-out を設定するには、この手順を使用します。
手順
共有ストレージ設定のすべての SAP HANA ホストに root ユーザーとしてログインします。
注記nfs-utilsパッケージが必要です。すべてのデータセンターには独自のストレージ設定が必要です。この例では、ストレージ設定は共有ストレージ環境として構築されます。両方の scale-out 環境は、独自の NFS 共有を使用しています。この設定は、このドキュメントの SAP HANA Scale-Out 環境の準備 セクションの情報に基づいています。実稼働環境では、この手順は、任意のハードウェアベンダーによってサポートされるように設定する必要があります。nfs-utilsパッケージをインストールします。[root:~]# yum install -y nfs-utils
[root:~]# yum install -y nfs-utilsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Datacenter 1 のノードを設定します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ボリュームをマウントするには、次のコマンドを実行します。
[root:~]# mount -a
[root:~]# mount -aCopy to Clipboard Copied! Toggle word wrap Toggle overflow Datacenter 2 のノードを設定します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ボリュームをマウントするには、次のコマンドを実行します。
[root:~]# mount -a
[root:~]# mount -aCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.2. SAP HANA の設定とデプロイ リンクのコピーリンクがクリップボードにコピーされました!
3.2.1. SAP HANA の実行に必要な RHEL 設定 リンクのコピーリンクがクリップボードにコピーされました!
この手順を使用して、SAP HANA を実行するための HA クラスターノードを設定します。HANA インスタンスが実行されている各 RHEL システムでこれらの手順を実行する必要があります。
前提条件
- 共有ストレージ設定のすべてのホストに root ユーザーとしてログインしている。
- SAP HANA のインストールソースを準備している。
SAP HANA と互換性のあるホスト名を設定している。
[root:~]# hostnamectl set-hostname dc1hana01
[root:~]# hostnamectl set-hostname dc1hana01Copy to Clipboard Copied! Toggle word wrap Toggle overflow
手順: /etc/hosts の確認
/etc/hostsにシステムのホスト名と IP アドレスに一致するエントリーが含まれていることを確認します:.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow システム言語を英語に設定します。
[root:~]# localectl set-locale LANG=en_US.UTF-8
[root:~]# localectl set-locale LANG=en_US.UTF-8Copy to Clipboard Copied! Toggle word wrap Toggle overflow
手順: NTP の設定
/etc/chrony.confを編集し、サーバー行が NTP サーバーを反映していることを確認します。[root:~]# yum -y install chrony [root:~]# systemctl stop chronyd.service
[root:~]# yum -y install chrony [root:~]# systemctl stop chronyd.serviceCopy to Clipboard Copied! Toggle word wrap Toggle overflow タイムサーバーのエントリーを確認します。
[root:~]# grep ^server /etc/chrony.conf server 0.de.pool.ntp.org server 1.de.pool.ntp.org
[root:~]# grep ^server /etc/chrony.conf server 0.de.pool.ntp.org server 1.de.pool.ntp.orgCopy to Clipboard Copied! Toggle word wrap Toggle overflow chrony サービスを有効にして起動します。
[root:~]# systemctl enable chronyd.service [root:~]# systemctl start chronyd.service [root:~]# systemctl restart systemd-timedated.service
[root:~]# systemctl enable chronyd.service [root:~]# systemctl start chronyd.service [root:~]# systemctl restart systemd-timedated.serviceCopy to Clipboard Copied! Toggle word wrap Toggle overflow chronyサービスが有効化されていることを確認します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.2.2. RHEL for SAP HANA の事前設定 リンクのコピーリンクがクリップボードにコピーされました!
この手順を使用して、RHEL システムを SAP HANA 用に事前設定します。この設定は公開されている SAP Notes に基づいています。クラスター内のすべての SAP HANA ホストで、ユーザー root としてこの手順を実行します。
- この手順は、SAP Note 2777782: SAP HANA DB: Recommended OS Settings for RHEL 8 and SAP Note 2772999 - Red Hat Enterprise Linux 8.x: Installation and Configuration に基づいています。
- RHEL 9 では、SAP 用の RHEL システムロールを使用して、HA クラスターノードのインストールと設定を自動化することもできます。詳細は、Red Hat Enterprise Linux System Roles for SAP を参照してください。
3.2.3. SAP Host Agent のインストール リンクのコピーリンクがクリップボードにコピーされました!
SAP Host Agent は、すべての新しい SAP システムインスタンスまたは SAP kernel 7.20 以降のインスタンスのインストール中に自動的にインストールされます。ほとんどの場合、この手動インストールは必要ありません。最初に SAP HANA をインストールしてから、saphostagent のインストールが引き続き必要か確認してください。
前提条件
-
umask設定が標準値として設定されていることを確認している (umask コマンドは 0022 を応答する必要がある)。設定されていない場合、SAP Host Agent のインストールが失敗する可能性があります。 - SAP Host Agent のインストールにおけるすべてのホストに root ユーザーとしてログインしている。
ユーザー/グループが存在せず、SAP ソフトウェアのインストールを通じて SAPHOSTAGENT がインストール/アップグレードされている場合、ユーザーとグループは SAP HANA のインストール中に作成されます。
手順 (オプション)
SAP Host Agent の
sapadmおよびsapsysユーザーを作成し、sapadmユーザーのパスワードを設定します。ユーザーsapadmの UID 996 とグループsapsysの GID 79 は、このドキュメントの SAP HANA Scale-Out 環境の準備 セクションのパラメーターに基づいています。[root:~]# adduser sapadm --uid 996 [root:~]# groupadd sapsys --gid 79 [root:~]# passwd sapadm
[root:~]# adduser sapadm --uid 996 [root:~]# groupadd sapsys --gid 79 [root:~]# passwd sapadmCopy to Clipboard Copied! Toggle word wrap Toggle overflow 一時ディレクトリーを作成し、インストールソースを展開して、一時ディレクトリーから SAP Host Agent をインストールします。
INSTALLDIRHOSTAGENT変数は、例として挙げています。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 安全な操作は暗号化された接続でのみ機能します。これを実現するには、正しく機能する SSL 接続を設定します。SSL パスワードが必要です。次の例は、このドキュメントの SAP HANA Scale-Out 環境の準備 セクションのパラメーターに基づいています。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow SAP Host Agent がすべての SAP HANA ノードで使用可能であることを確認します。
[root:~]# netstat -tulpen | grep sapstartsrv tcp 0 0 0.0.0.0:50014 0.0.0.0:* LISTEN 1002 84028 4319/sapstartsrv tcp 0 0 0.0.0.0:50013 0.0.0.0:* LISTEN 1002 47542 4319/sapstartsrv
[root:~]# netstat -tulpen | grep sapstartsrv tcp 0 0 0.0.0.0:50014 0.0.0.0:* LISTEN 1002 84028 4319/sapstartsrv tcp 0 0 0.0.0.0:50013 0.0.0.0:* LISTEN 1002 47542 4319/sapstartsrvCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記すべてのプロセスが識別されるわけではありません。所有されていないプロセスの情報は表示されません。すべてのプロセスを表示するには、root ユーザーである必要があります。
[root:~]# netstat -tulpen | grep 1129 tcp 0 0 0.0.0.0:1129 0.0.0.0:* LISTEN 996 25632 1345/sapstartsrv
[root:~]# netstat -tulpen | grep 1129 tcp 0 0 0.0.0.0:1129 0.0.0.0:* LISTEN 996 25632 1345/sapstartsrvCopy to Clipboard Copied! Toggle word wrap Toggle overflow SAP Host Agent のインストール方法の詳細は、SAP Host Agent Installation を参照してください。
3.2.4. Scale-Out と System Replication による SAP HANA のデプロイ リンクのコピーリンクがクリップボードにコピーされました!
Scale-Out および System Replication を備えた SAP HANA をデプロイする前に、SAP ネットワークマッピングを理解しておく必要があります。このソリューションは、ラボ環境でのデプロイメントに必要な最小限の設定に関する詳細を提供します。ただし、実稼働環境を設定する場合は、scale-out ネットワーク通信とシステムレプリケーション通信を別々のネットワークにマッピングする必要があります。この設定については Network Configuration for SAP HANA System Replication で説明されています。
SAP HANA データベースは、SAP HANA Server Installation and Update Guide に従ってインストールする必要があります。
SAP HANA データベースをセットアップするには、さまざまなオプションがあります。両方のデータセンターに同じ SID を持つデータベースをインストールする必要があります。scale-out 設定では、サイトごとに少なくとも 2 つの HANA インスタンスが必要です。
各 HANA サイトのインストールには、次の手順が含まれます。
-
hdblcmを使用して最初のノードに SAP HANA データベースをインストールします (SAP HANA インストールメディアのSAP_HANA_DATABASEサブディレクトリーにあるhdblcmを確認します)。 この最初のノードで scale-out 設定用の内部ネットワークを設定します (これは 1 回だけ必要です)。
[root:~]# ./hdblcm --action=configure_internal_network
[root:~]# ./hdblcm --action=configure_internal_networkCopy to Clipboard Copied! Toggle word wrap Toggle overflow 最初のインストールで作成された共有実行可能ファイルを使用して、他のノードに追加の HANA インスタンスをインストールします。
[root:~]# /hana/shared/RH1/hdblcm/hdblcm
[root:~]# /hana/shared/RH1/hdblcm/hdblcmCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 各 HANA インスタンスに適切な HANA ロール (ワーカーまたはスタンバイ) を選択します。
- セカンダリー HANA サイトに対しても同じ手順を繰り返します。
両サイト間で SAP HANA System Replication をセットアップします。
- キーをコピーします。
-
プライマリーデータベース (
SYSTEMDBとテナント) をバックアップします。 - セカンダリーサイトで HANA を停止します。
- セカンダリー HANA サイトをプライマリー HANA サイトに登録します。
- セカンダリーサイトで HANA を起動します。
HANA データベースのインストールは、hdblcm コマンドを使用してバッチモードで実行することもできます。完全な自動インストールの応答ファイルとして使用される設定ファイルテンプレートを使用できます。
このソリューションでは、各データセンターの SAP Host Agent を介して自動デプロイメントを実行する追加のホストを統合して、SAP データベースがバッチモードでインストールされます。必要なデプロイメントパスワードがすべて含まれる一時パスワードファイルが生成されます。このファイルに基づいて、コマンドベースのバッチモードインストールが開始されます。
バッチモードインストールの場合、次のパラメーターを変更する必要があります。
- SID
- System number
-
インストールインスタンスのホスト名 (
hostname) -
すべてのホスト名とロール (
addhosts) -
システムタイプ (
system_usage) -
<sid>admユーザーのホームディレクトリー -
ユーザー
sapadmのuserid -
sapsysのgroupid
ほとんどのパラメーターは SAP によって提供されます。
手順
- 各データセンターの 1 つの SAP HANA ノードに root ユーザーとしてログインし、SAP HANA Scale-Out のインストールを開始します。
このソリューションでは、各データセンターの 1 つのノードで次のコマンドが実行されます。
[root:~]# INSTALLDIR=/install/51053381/DATA_UNITS HDB_SERVER_LINUX_X86_64/ [root:~]# cd $INSTALLDIR [root:~]# ./hdblcm --dump_configfile_template=/tmp/templateFile
[root:~]# INSTALLDIR=/install/51053381/DATA_UNITS HDB_SERVER_LINUX_X86_64/ [root:~]# cd $INSTALLDIR [root:~]# ./hdblcm --dump_configfile_template=/tmp/templateFileCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要正しい addhosts パラメーターを使用する必要があります。これにはインストールノードを含めないでください。
/tmp/templateFile.xml内のパスワードを変更します。注記internal_networkパラメーターは、内部 scale-out 通信ネットワーク用です。これにより、インストールプロセス中に、SAP HANA 設定ファイルglobal.iniに正しい設定が事前に入力されます。Datacenter 1 の例:
[root:~]# cat /tmp/templateFile.xml | ./hdblcm \ --batch \ --sid=RH1 \ --number=10 \ --action=install \ --hostname=dc1hana01 \ --addhosts=dc1hana02:role=worker,dc1hana03:role=worker,dc1hana04:role =standby \ --install_hostagent \ --system_usage=test \ --sapmnt=/hana/shared \ --datapath=/hana/data \ --logpath=/hana/log \ --root_user=root \ --workergroup=default \ --home=/usr/sap/RH1/home \ --userid=79 \ --shell=/bin/bash \ --groupid=79 \ --read_password_from_stdin=xml \ --internal_network=192.168.101.0/24 \ --remote_execution=saphostagent
[root:~]# cat /tmp/templateFile.xml | ./hdblcm \ --batch \ --sid=RH1 \ --number=10 \ --action=install \ --hostname=dc1hana01 \ --addhosts=dc1hana02:role=worker,dc1hana03:role=worker,dc1hana04:role =standby \ --install_hostagent \ --system_usage=test \ --sapmnt=/hana/shared \ --datapath=/hana/data \ --logpath=/hana/log \ --root_user=root \ --workergroup=default \ --home=/usr/sap/RH1/home \ --userid=79 \ --shell=/bin/bash \ --groupid=79 \ --read_password_from_stdin=xml \ --internal_network=192.168.101.0/24 \ --remote_execution=saphostagentCopy to Clipboard Copied! Toggle word wrap Toggle overflow Datacenter 2 の例:
[root:~]# cat /tmp/templateFile.xml | ./hdblcm \ --batch \ --sid=RH1 \ --number=10 \ --action=install \ --hostname=dc2hana01 \ --addhosts=dc2hana02:role=worker,dc2hana03:role=worker,dc2hana04:role =standby \ --install_hostagent \ --system_usage=test \ --sapmnt=/hana/shared \ --datapath=/hana/data \ --logpath=/hana/log \ --root_user=root \ --workergroup=default \ --home=/usr/sap/RH1/home \ --userid=79 \ --shell=/bin/bash \ --groupid=79 \ --read_password_from_stdin=xml \ --internal_network=192.168.101.0/24 \ --remote_execution=saphostagent
[root:~]# cat /tmp/templateFile.xml | ./hdblcm \ --batch \ --sid=RH1 \ --number=10 \ --action=install \ --hostname=dc2hana01 \ --addhosts=dc2hana02:role=worker,dc2hana03:role=worker,dc2hana04:role =standby \ --install_hostagent \ --system_usage=test \ --sapmnt=/hana/shared \ --datapath=/hana/data \ --logpath=/hana/log \ --root_user=root \ --workergroup=default \ --home=/usr/sap/RH1/home \ --userid=79 \ --shell=/bin/bash \ --groupid=79 \ --read_password_from_stdin=xml \ --internal_network=192.168.101.0/24 \ --remote_execution=saphostagentCopy to Clipboard Copied! Toggle word wrap Toggle overflow インストールプロセスが完了したら、データセンターごとに 1 つのホストですべてが動作していることを確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.2.5. SAP HANA System Replication の設定 リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA System Replication の設定は、両方の scale-out 環境がインストールされた後に行われます。設定手順は次のとおりです。
- プライマリーデータベースをバックアップします。
- プライマリーデータベースでシステムレプリケーションを有効にします。
- セカンダリーデータベースを停止します。
- データベースキーをコピーします。
- セカンダリーデータベースを登録します。
- セカンダリーデータベースを起動します。
- システムレプリケーションを確認します。
このソリューションは、各ステップに関する概要を提供します。
3.2.5.1. プライマリーデータベースのバックアップ リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA System Replication には、プライマリーデータベースのバックアップが必要です。これがないと、SAP HANA をシステムレプリケーション設定に組み込むことはできません。
- このソリューションでは、簡単な例を提供します。実稼働環境では、バックアップインフラストラクチャーとセットアップを考慮する必要があります。
-
SQL コマンドに “/” を含めることが非常に重要です。たとえば、
/hana/shared/backup/などです。含まれていない場合、SAP HANA はディレクトリーを使用せず、代わりにPATH_databackup*という名前のファイルを作成するため、ディレクトリーへの書き込みアクセス権が必要になります。
3.2.5.2. HANA システムレプリケーションの有効化 リンクのコピーリンクがクリップボードにコピーされました!
データセンターでバックアップ機能を作成したら、システムレプリケーションの設定を開始できます。最初のデータセンターは、ソースサイトとしての設定から始まります。
scale-out システムの 1 つのホスト上の最初のデータセンター (DC1) で、システムレプリケーションを有効にします。
su - rh1adm [rh1adm@dc1hana01]% hdbnsutil -sr_enable --name=DC1 nameserver is active, proceeding … successfully enabled system as system replication source site done.
[root@dc1hana01]# su - rh1adm [rh1adm@dc1hana01]% hdbnsutil -sr_enable --name=DC1 nameserver is active, proceeding … successfully enabled system as system replication source site done.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 最初のデータセンターでシステムレプリケーションが有効になった後、2 番目のデータセンターを最初のデータセンターに登録する必要があります。有効なソースシステムから 2 番目のデータセンターに 2 つのキーをコピーする必要があります。これはデータベースが停止しているときに実行する必要があります。
キーとキーデータファイルをプライマリーサイトからセカンダリーサイトにコピーします。これは各データセンター内の 1 つのノードでのみ実行されます。このファイルは、分離された scale-out 環境内の
/hana/sharedディレクトリーを介して共有されます。詳細は、SAP Note 2369981 - Required configuration steps for authentication with HANA System Replication を参照してください。Datacenter 1 (DC1) の 1 つのノードでこのコマンドを開始します。
scp -rp /usr/sap/RH1/SYS/global/security/rsecssfs/data/SSFS_RH1.DAT root@dc2hana01:/usr/sap/RH1/SYS/global/security/rsecssfs/data/SSFS_RH 1.DAT scp -rp /usr/sap/RH1/SYS/global/security/rsecssfs/key/SSFS_RH1.KEY root@dc2hana01:/usr/sap/RH1/SYS/global/security/rsecssfs/key/SSFS_RH1 .KEY
[root@dc1hana01]# scp -rp /usr/sap/RH1/SYS/global/security/rsecssfs/data/SSFS_RH1.DAT root@dc2hana01:/usr/sap/RH1/SYS/global/security/rsecssfs/data/SSFS_RH 1.DAT [root@dc1hana01]# scp -rp /usr/sap/RH1/SYS/global/security/rsecssfs/key/SSFS_RH1.KEY root@dc2hana01:/usr/sap/RH1/SYS/global/security/rsecssfs/key/SSFS_RH1 .KEYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 両方のキーをセカンダリーサイトにコピーした後、2 番目のデータセンター (セカンダリー SAP HANA インスタンス) をプライマリー SAP HANA インスタンスに登録できます。これは、Datacenter 2 (DC2) のノードで
`user <sid>admとして実行する必要があります。注記現時点では、レプリケーションタイプの 2 つのモードが利用可能です。
- delta_datashipping
- logreplay
レプリケーションモードは
syncまたはsyncmemのいずれかである必要があります。"classic" 操作モードはdelta_datashippingです。HA の推奨モードはlogreplayです。操作モードlogreplayを使用すると、SAP HANA System Replication のセカンダリーサイトがホットスタンバイシステムになります。詳細は、SAP HANA システムレプリケーション を参照してください。優先操作モードでは、システムレプリケーションは DC2 ノード上で
<sid>admユーザーとして設定されます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow システムが起動したら、次のコマンドを実行して、すべてが期待どおりに動作することを確認します。HANA スケールアウト環境が正しく実行されている場合、
sapcontrolのGetSystemInstanceList関数の出力で、dispstatusはすべてのノードに対してGREENを表示する必要があります (最初の起動後、数分かかる場合があります)。また、ランドスケープホストの設定はOK状態である必要があります。Copy to Clipboard Copied! Toggle word wrap Toggle overflow Datacenter 1 サイトでは、
sapcontrolのGetSystemInstanceList関数の出力で、すべてのノードのdispstatusがGREENを示し、ランドスケープホスト設定がOK状態である必要があります。Copy to Clipboard Copied! Toggle word wrap Toggle overflow HANA システムレプリケーションがアクティブかどうかを確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記この設定が実稼働環境に実装されている場合は、
global.iniファイルでネットワーク通信を変更することを推奨します。このアクションは、システムレプリケーションネットワークへの指定されたアダプターへの通信を制限します。詳細は、Network Configuration for SAP HANA system replication を参照してください。重要完全な SAP HANA スケールアウトシステムレプリケーション環境を手動でテストし、すべての SAP HANA 機能が動作していることを確認する必要があります。詳細は、SAP HANA システムレプリケーション を参照してください。
3.3. Pacemaker の設定 リンクのコピーリンクがクリップボードにコピーされました!
HANA スケールアウト環境が設定され、HANA システムレプリケーションが想定どおりに動作している場合は、RHEL HA アドオンを使用して HANA スケールアウトシステムレプリケーション環境を管理するように HA クラスターを設定できます。
Pacemaker のスプリットブレイン設定を防ぐには、追加のクォーラムインスタンスが必要です。この例では、ノードを追加します。このソリューションで majoritymaker と呼ばれるこのノードは、適切な設定の奇数個のクラスターノードに必要です。これは、Pacemaker とパブリックネットワークのみを必要とする追加のミニマリストホストです。このノードでは、SAP HANA データベースはインストールされておらず、ストレージ設定は廃止されています。
前提条件
-
saphostagentをインストールし、/usr/sap/hostcontrol/exe/sapcontrol が存在するか確認している。詳細は、1031096 - Installing Package SAPHOSTAGENT を参照してください。 - RHEL High Availability リポジトリーがシステムに設定されていることを確認している。この設定なしでは Pacemaker をインストールできません。
- すべてのシステムに root としてログインしている。
このドキュメントの RHEL システムの登録およびリポジトリーの有効化 セクションで説明されているように、クラスターのパッケージをインストールするために、すべてのクラスターノードが登録され、必要なリポジトリーが有効化されていることを確認している。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
手順
- クラスターを設定します。詳細は、高可用性クラスターの設定と管理 を参照してください。
クラスター内の各ノード (
majoritymakerを含む) に、Red Hat High Availability Add-On ソフトウェアパッケージと、High Availability チャネルから利用可能なすべてのフェンスエージェントをインストールします。yum -y install pcs pacemaker fence-agents
[root]# yum -y install pcs pacemaker fence-agentsCopy to Clipboard Copied! Toggle word wrap Toggle overflow または、特定の fence-agents のみをインストールすることもできます。
yum install fence-agents-sbd fence-agents-ipmilan
[root]# yum install fence-agents-sbd fence-agents-ipmilanCopy to Clipboard Copied! Toggle word wrap Toggle overflow firewalledデーモンを実行している場合は、以下のコマンドを実行して Red Hat High Availability Add-On が必要とするポートを有効にします。firewall-cmd --permanent --add-service=high-availability firewall-cmd --add-service=high-availability
[root]# firewall-cmd --permanent --add-service=high-availability [root]# firewall-cmd --add-service=high-availabilityCopy to Clipboard Copied! Toggle word wrap Toggle overflow この設定の後、各クラスターノードでユーザー
haclusterのパスワードを設定します。passwd hacluster Changing password for user hacluster. New password: Retype new password: passwd: all authentication tokens updated successfully.
[root]# passwd hacluster Changing password for user hacluster. New password: Retype new password: passwd: all authentication tokens updated successfully.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 各ノードで次のコマンドを実行してデーモンを起動し、有効にします。
systemctl start [root]# pcsd.service systemctl enable pcsd.service
[root]# systemctl start [root]# pcsd.service systemctl enable pcsd.serviceCopy to Clipboard Copied! Toggle word wrap Toggle overflow 1 つのノードのみで、
haclusterユーザーを認証する必要があります。このコマンドには、クラスターの一部であるすべてのノードを含めることが重要です。パスワードを指定しない場合は、前の手順で定義したhaclusterパスワードの入力を求められます。RHEL 8.x の場合は以下を実行します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 同じノード上の
pcs clusterセットアップを使用して、corosync設定を生成および同期します。RHEL 8 の例では、2 つのクラスターネットワークを使用している場合も示されています。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 次のクラスターコマンドを使用して、すべてのノードでサービスを有効にします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow すべての手順を完了すると、クラスターとノードが設定されます。リソースエージェントを設定する最初の手順は、アクセスできなくなったノードを再起動する STONITH を使用してフェンシングメソッドを設定することです。サポートされている環境では、この STONITH 設定が必要です。
ハードウェアまたは仮想化環境に適したフェンスエージェントを使用して、環境に合わせて STONITH を設定します。以下は、STONITH 用のフェンスデバイスを設定する一般的な例です。
pcs stonith create <stonith id> <fence_agent> ipaddr=<fence device> login=<login> passwd=<passwd>
[root@dc1hana01]# pcs stonith create <stonith id> <fence_agent> ipaddr=<fence device> login=<login> passwd=<passwd>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記各デバイスの設定は異なり、この環境では STONITH を設定することが必須です。サポートが必要な場合は、Red Hat Support チームに直接お問い合わせください。詳細は、RHEL High Availability クラスターのサポートポリシー - フェンシング/STONITH の一般的な要件 および フェンシング設定 を参照してください。
設定後、クラスターのステータスは次の出力のようになります。これは、Red Hat Enterprise 仮想化環境のフェンシングデバイスの例です。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.3.1. Scale-Out システム用の SAP HANA リソースエージェントのインストール リンクのコピーリンクがクリップボードにコピーされました!
リソースエージェントを設定する際に、resource-agent-sap-hana-scaleout パッケージが、majoritymaker を含むすべてのシステムにインストールされました。
yum install resource-agents-sap-hana-scaleout
[root@dc1hana01]# yum install resource-agents-sap-hana-scaleout
正しいリポジトリーが接続されていることを確認します。yum repolist には、以下が含まれている必要があります。
root# yum repolist "rhel-x86_64-server-sap-hana-<version>” RHEL Server SAP HANA (v. <version> for 64-bit <architecture>).
root# yum repolist
"rhel-x86_64-server-sap-hana-<version>” RHEL Server SAP HANA (v. <version> for 64-bit <architecture>).
3.3.2. すべての SAP HANA インスタンスでの srConnectionChanged() フックの有効化 リンクのコピーリンクがクリップボードにコピーされました!
SAP の Implementing a HA/DR Provider に記載されているように、SAP HANA の最新バージョンでは、SAP HANA が特定のイベントの通知を送信できるようにする「フック」が提供されています。srConnectionChanged() フックを使用すると、クラスターのアクションを必要とする SAP HANA System Replication のステータスの変更が発生したことを検出するクラスターの機能を向上させ、偶発的なテイクオーバーが回避すべき状況でトリガーされないようにすることで、データ損失/データ破損を避けることができます。SAP HANA 2.0 SPS06 以降およびsrConnectionChanged() フックをサポートするためのコンポーネントを提供する resource-agents-sap-hana-scaleout パッケージのバージョンを使用する場合は、クラスターのセットアップを続行する前にフックを有効にする必要があります。
手順
- 共有デバイス上の各データセンターの 1 つのノードにフックをインストールします。詳細は、Implementing a HA/DR Provider を参照してください。
フックを設定するために、hana 共有フォルダーにディレクトリーを作成します。これは、SAP HANA データベースから追加データを作成するように設定されています。これを有効にするには、システムを停止し、
global.iniファイルに 2 つの設定パラメーターを追加する必要があります。このソリューションの次の例では、ha_dr_provider_SAPHanaSrとtraceの設定を示しています。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 各クラスターノードで、
sudo visudo /etc/sudoers.d/20-saphanaを実行して/etc/sudoers.d/20-saphanaファイルを作成し、以下の内容を追加して、srConnectionChanged()フックが呼び出されたときにフックスクリプトがノード属性を更新できるようにします。rh1adm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_rh1_glob_srHook -v * -t crm_config -s SAPHanaSR rh1adm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_rh1_gsh -v * -l reboot -t crm_config -s SAPHanaSR Defaults:rh1adm !requiretty
rh1adm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_rh1_glob_srHook -v * -t crm_config -s SAPHanaSR rh1adm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_rh1_gsh -v * -l reboot -t crm_config -s SAPHanaSR Defaults:rh1adm !requirettyCopy to Clipboard Copied! Toggle word wrap Toggle overflow デフォルト設定が必要な理由に関する詳細は、The srHook attribute is set to SFAIL in a Pacemaker cluster managing SAP HANA system replication, even though replication is in a healthy state を参照してください。
インテグレーションが成功したら、SAP HANA データベースを起動します。
# Execute the following commands on one HANA node in every datacenter [root]# su - rh1adm [rh1adm]% sapcontrol -nr 10 -function StartSystem
# Execute the following commands on one HANA node in every datacenter [root]# su - rh1adm [rh1adm]% sapcontrol -nr 10 -function StartSystemCopy to Clipboard Copied! Toggle word wrap Toggle overflow フックスクリプトが期待どおりに動作していることを確認します。HANA インスタンスの停止など、フックをトリガーするアクションを実行します。次に、以下のメソッドを使用して、フックがログに何か記録したか確認します。
[rh1adm@dc1hana01]% cdtrace [rh1adm@dc1hana01]% awk '/ha_dr_SAPHanaSR.*crm_attribute/ \ { printf "%s %s %s %s\n",$2,$3,$5,$16 }' nameserver_* 2018-05-04 12:34:04.476445 ha_dr_SAPHanaSR SFAIL 2018-05-04 12:53:06.316973 ha_dr_SAPHanaSR SOK[rh1adm@dc1hana01]% cdtrace [rh1adm@dc1hana01]% awk '/ha_dr_SAPHanaSR.*crm_attribute/ \ { printf "%s %s %s %s\n",$2,$3,$5,$16 }' nameserver_* 2018-05-04 12:34:04.476445 ha_dr_SAPHanaSR SFAIL 2018-05-04 12:53:06.316973 ha_dr_SAPHanaSR SOKCopy to Clipboard Copied! Toggle word wrap Toggle overflow SAP HANA フックが機能していることを確認する方法は、M_HA_DR_PROVIDERS の監視 を参照してください。
3.3.3. Pacemaker リソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
Pacemaker 設定プロセスでは、HANA と Pacemaker 環境を制御する 2 つのリソースエージェント (SAPHanaTopology と SAPHanaController) を作成する必要があります。さらに、エンドユーザーと SAP アプリケーションサーバーの接続用に、Pacemaker で仮想 IP アドレスを設定する必要があります。実行されたアクションに基づいて、リソースエージェントが正しい順序で実行され、仮想 IP アドレスが適切なホストにマップされるように、2 つの依存関係が追加されます。
前提条件
設定中に不要な影響を回避するために、クラスターの
maintenance-modeを設定している。pcs property set maintenance-mode=true
[root@dc1hana01]# pcs property set maintenance-mode=trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.3.3.1. SAPHanaTopology リソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
SAPHanaTopologyリソースエージェントは、各ノード上の SAP HANA System Replication のステータスと設定を収集します。さらに、SAP HANA インスタンスの起動、停止、監視に必要なローカル SAP HostAgent を起動および監視します。リソースエージェントには、インストールされている SAP HANA 環境に応じて次の属性があります。Expand 属性名
必須/オプション
デフォルト値
説明
SID
はい
null
SAP HANA インストールの SAP システム識別子 (SID) (すべてのノードで同一である必要があります)。例: RH2
InstanceNumber
はい
null
SAP HANA インストールのインスタンス番号 (すべてのノードで同一である必要があります)。例: 02
このソリューションでは、SID は RH1 に設定され、インスタンス番号は 10 に設定されています。
注記タイムアウトとモニターのパラメーターは最初のデプロイメントに推奨され、環境のテスト中に変更できます。環境内のノードのサイズや数など、いくつかの依存関係があります。
クラスター全体の 1 つのホストで、RHEL 8.x に対して root として次のコマンドを実行します。
pcs resource create rsc_SAPHanaTopology_RH1_HDB10 SAPHanaTopology SID=RH1 InstanceNumber=10 op methods interval=0s timeout=5 op monitor interval=10 timeout=600 clone clone-max=6 clone-node-max=1 interleave=true --disabled
[root@dc1hana01]# pcs resource create rsc_SAPHanaTopology_RH1_HDB10 SAPHanaTopology SID=RH1 InstanceNumber=10 op methods interval=0s timeout=5 op monitor interval=10 timeout=600 clone clone-max=6 clone-node-max=1 interleave=true --disabledCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pacemaker でリソースが作成されると、クローンが作成されます。
注記clone-node-maxパラメーターは、シングルノード上で起動できるリソースエージェントのコピーの数を定義します。インターリーブとは、このクローンが順序制約を使用して別のクローンに依存している場合、その別のクローンのすべてのインスタンスが起動するのを待つのではなく、その別のクローンのローカルインスタンスが起動した後に起動できることを意味します。clone-maxパラメーターは、起動できるクローンの数を定義します。たとえば、サイトあたり 2 ノードの最小設定の場合は、SAPHanaControllerおよびSAPHanaTopologyにclone-max=4を使用する必要があります。サイトあたり 3 ノード (スタンバイノードは含まない) の場合は、6 を使用する必要があります。次のコマンドを使用してリソースが起動したら、ノード属性の形式で保存された収集情報を表示できます。
root# pcs status --full
root# pcs status --fullCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.3.3.2. SAPHanaController リソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
SAPHanaTopology リソースエージェントの設定プロセスが完了すると、SAPHanaController リソースエージェントを設定できます。SAP Hana Topology リソースエージェントはデータのみを収集しますが、SAPHanaTopology リソースエージェントは以前に収集されたデータに基づいて SAP 環境を制御します。次の表に示すように、5 つの重要な設定パラメーターによってクラスター機能が定義されます。
| 属性名 | 必須/オプション | デフォルト値 | 説明 |
| SID | はい | null | SAP HANA インストールの SAP システム識別子 (SID) (すべてのノードで同一である必要があります)。例: RH2 |
| InstanceNumber | はい | null | SAP HANA インストールのインスタンス番号 (すべてのノードで同一である必要があります)。例: 02 |
| PREFER_SITE_TAKEOVER | いいえ | null | リソースエージェントは、プライマリーをローカルで再起動するのではなく、セカンダリーインスタンスに切り替えることを優先する必要がありますか? true: セカンダリーサイトへのテイクオーバーを優先します。false: ローカルでの再起動を優先します。never: いかなる状況でも他のノードへのテイクオーバーを開始しません。 |
| AUTOMATED_REGISTER | いいえ | false | テイクオーバーイベントが発生し、DUPLICATE_PRIMARY_TIMEOUT の有効期限が切れた場合、以前のプライマリーインスタンスをセカンダリーとして登録する必要がありますか? ("false": いいえ、手動介入が必要になります。"true": はい、以前のプライマリーはリソースエージェントによってセカンダリーとして登録されます) [1]。 |
| DUPLICATE_PRIMARY_TIMEOUT | いいえ | 7200 | デュアルプライマリー状況が発生した場合に、2 つのプライマリータイムスタンプ間に必要な時間差 (秒単位)。時間差が時間ギャップより小さい場合、クラスターは 1 つまたは両方のインスタンスを "WAITING" ステータスで保持します。これは、システム管理者にテイクオーバーに対応する機会を与えるためです。時間差が経過した後、AUTOMATED_REGISTER が true に設定されている場合、障害が発生した以前のプライマリーはセカンダリーとして登録されます。新しいプライマリーへの登録後、以前のプライマリー上のすべてのデータはシステムレプリケーションによって上書きされます。 |
[1] - テストおよび概念実証 (PoC) 環境のベストプラクティスとして、障害が発生したプライマリーインスタンスが自動的にセカンダリーインスタンスとして登録されるのを防ぐために、AUTOMATED_REGISTER をデフォルト値 (AUTOMATED_REGISTER="false") のままにしておくことを推奨します。テスト後、フェイルオーバーシナリオが期待どおりに機能する場合 (特に実稼働環境の場合)、テイクオーバー後にシステムレプリケーションがタイムリーに再開され、中断が回避されるように AUTOMATED_REGISTER="true" を設定することを推奨します。AUTOMATED_REGISTER="false" の場合、プライマリーノードで障害が発生したときは、セカンダリー HANA System Replication ノードとして手動で登録する必要があります。
次のコマンドは、RHEL 8.x で SAPHanaController プロモート可能リソースを作成する方法の例です。この例は、SID RH1、InstanceNumber 10、Prefer Site Takeover と Automated_REGISTER の値が true、および Duplicate Primary Timeout が 7200 というパラメーターに基づいています。
pcs resource create rsc_SAPHana_RH1_HDB10 SAPHanaController SID=RH1 InstanceNumber=10 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true op demote interval=0s timeout=320 op methods interval=0s timeout=5 op monitor interval=59 role="Promoted" timeout=700 op monitor interval=61 role="Unpromoted" timeout=700 op promote interval=0 timeout=3600 op start interval=0 timeout=3600 op stop interval=0 timeout=3600 promotable clone-max=6 promoted-node-max=1 interleave=true --disabled
[root@dc1hana01]# pcs resource create rsc_SAPHana_RH1_HDB10 SAPHanaController SID=RH1 InstanceNumber=10 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true op demote interval=0s timeout=320 op methods interval=0s timeout=5 op monitor interval=59 role="Promoted" timeout=700 op monitor interval=61 role="Unpromoted" timeout=700 op promote interval=0 timeout=3600 op start interval=0 timeout=3600 op stop interval=0 timeout=3600 promotable clone-max=6 promoted-node-max=1 interleave=true --disabled
clone-max の場合、コマンドにリストされている HDB_WORKER の数の 2 倍を使用してください。
このソリューションでは、SAPHanaController の作成後、次のコマンドを使用してリソースをプロモート可能なリソースとして定義します (SID は RH1、InstanceNumber は 10)。
詳細は、マルチステートリソース: 複数のモードを持つリソース を参照してください。
3.3.3.3. 仮想 IP アドレスを管理するためのリソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
クラスターには、プライマリー SAP HANA スケールアウトサイトのマスターネームサーバーにアクセスするためにクライアントが使用する仮想 IP アドレスを管理するためのリソースを含める必要があります。
次のコマンドは、仮想 IP 10.0.0.250 を持つ IPaddr2 リソースを作成する方法の例です。
pcs resource create rsc_ip_SAPHana_RH1_HDB10 ocf:heartbeat:IPaddr2 ip=10.0.0.250 op monitor interval="10s" timeout="20s"
[root@dc1hana01]# pcs resource create rsc_ip_SAPHana_RH1_HDB10 ocf:heartbeat:IPaddr2 ip=10.0.0.250 op monitor interval="10s" timeout="20s"
3.3.4. 制約の作成 リンクのコピーリンクがクリップボードにコピーされました!
正しく動作させるには、SAPHanaController リソースが起動する前に SAPHanaTopology リソースが起動していること、また、SAPHanaController のマスターリソースが実行されるノードに仮想 IP アドレスが存在することを確認します。この手順を使用して、必要な 4 つの制約を作成します。
手順: SAPHana の前に SAPHanaTopology を起動する
次のコマンドは、リソースの開始順序を義務付ける制約を作成する方法の例です。
制約を作成します。
pcs constraint order start rsc_SAPHanaTopology_RH1_HDB10-clone then start rsc_SAPHana_RH1_HDB10-clone
[root@dc1hana01]# pcs constraint order start rsc_SAPHanaTopology_RH1_HDB10-clone then start rsc_SAPHana_RH1_HDB10-cloneCopy to Clipboard Copied! Toggle word wrap Toggle overflow IPaddr2リソースをプロモートしたSAPHanaリソースと同じ場所に配置します。pcs constraint colocation add rsc_ip_SAPHana_RH1_HDB10 with promoted rsc_SAPHana_RH1_HDB10-clone
[root@dc1hana01]# pcs constraint colocation add rsc_ip_SAPHana_RH1_HDB10 with promoted rsc_SAPHana_RH1_HDB10-cloneCopy to Clipboard Copied! Toggle word wrap Toggle overflow クラスター環境でアクティブなロールを使用するために、
majoritymakerを回避します。pcs constraint location add topology-avoids-majoritymaker rsc_SAPHanaTopology_RH1_HDB10-clone majoritymaker -INFINITY resource-discovery=never pcs constraint location add hana-avoids-majoritymaker rsc_SAPHana_RH1_HDB10-clone majoritymaker -INFINITY resource-discovery=never
[root@dc1hana01]# pcs constraint location add topology-avoids-majoritymaker rsc_SAPHanaTopology_RH1_HDB10-clone majoritymaker -INFINITY resource-discovery=never [root@dc1hana01]# pcs constraint location add hana-avoids-majoritymaker rsc_SAPHana_RH1_HDB10-clone majoritymaker -INFINITY resource-discovery=neverCopy to Clipboard Copied! Toggle word wrap Toggle overflow maintenance-modeを無効にします。maintenance-modeを false に設定した後、maintenance-modeを使用してリソースを起動します。すべての設定が完了する前に pacemaker の動作を回避するために、上記の例では--disabledを使用しています。デフォルトでは、リソースは作成されるとすぐに起動されます。--disabledの場合、次のコマンドを使用してリソースを起動できます。pcs resource enable <resource-name>
[root@dc1hana01]# pcs resource enable <resource-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow maintenance-modeを終了するには、以下を使用してください。pcs property set maintenance-mode=false
[root@dc1hana01]# pcs property set maintenance-mode=falseCopy to Clipboard Copied! Toggle word wrap Toggle overflow 次の 3 つのコマンドを実行して、クラスター環境が正しく動作していることを確認します。
-
pcs statusは、すべてのリソースの概要と、それらが正しく機能しているかを示します。 -
pcs status --fullは、クラスター環境のすべてのリソースの概要と追加の属性情報を提供します。 SAPHanaSR-showAttr --sid=RH1は、属性情報に基づいた読みやすい概要を提供します。maintenance-modeを無効にしてから数分後に正しいステータスが表示されます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
-
第4章 オプション設定 リンクのコピーリンクがクリップボードにコピーされました!
4.1. Active/Active (読み取り有効) セットアップ用のセカンダリー仮想 IP アドレスリソースの追加 リンクのコピーリンクがクリップボードにコピーされました!
SAP HANA 2.0 SPS1 以降、SAP では SAP HANA System Replication に対して 'Active/Active (読み取り有効)' セットアップが許可されます。これにより、以下が可能になります。
- セカンダリーシステムでの読み取りアクセスをサポートするには、SAP HANA System Replication を有効にします。
- セカンダリーシステムで読み取り集中型レポートを実行し、プライマリーシステムからこのワークロードを削除します。
- 継続的な操作における帯域幅の必要性を削減します。
詳細は、SAP HANA システムレプリケーション も確認してください。
クライアントがセカンダリー SAP HANA データベースにアクセスできるようにするには、2 番目の仮想 IP アドレスが必要です。障害が発生した場合に、セカンダリーサイトにアクセスできない場合は、読み取り専用アクセスのダウンタイムを回避するために、2 番目の IP がプライマリーサイトに切り替えられます。
operationMode は logreplay_readaccess に設定する必要があります。2 番目の仮想 IP と追加の必要な制約は、次のコマンドを使用して設定できます。
root# pcs resource create rsc_ip2_SAPHana_RH1_HDB10 ocf:heartbeat:IPaddr2 ip=10.0.0.251 op monitor interval="10s" timeout="20s
root# pcs resource create rsc_ip2_SAPHana_RH1_HDB10 ocf:heartbeat:IPaddr2 ip=10.0.0.251 op monitor interval="10s" timeout="20s
4.1.1. 追加の制約設定 リンクのコピーリンクがクリップボードにコピーされました!
上記の制約は強く推奨されます。動作を環境に合わせて調整するには、追加の制約が必要です。以下に例を示します。
root# pcs constraint location rsc_ip_SAPHana_RH1_HDB10 rule score=500 role=master hana_rh1_roles eq "master1:master:worker:master" and hana_rh1_clone_state eq PROMOTED
root# pcs constraint location rsc_ip_SAPHana_RH1_HDB10 rule score=500 role=master hana_rh1_roles eq "master1:master:worker:master" and hana_rh1_clone_state eq PROMOTED
セカンダリーサイトがダウンした場合に備えて、IP2 をプライマリーサイトに移動します。
root# pcs constraint location rsc_ip2_SAPHana_RH1_HDB10 rule score=50 id=vip_slave_master_constraint hana_rh1_roles eq 'master1:master:worker:master'
root# pcs constraint location rsc_ip2_SAPHana_RH1_HDB10 rule score=50 id=vip_slave_master_constraint hana_rh1_roles eq 'master1:master:worker:master'
root# pcs constraint order promote rsc_SAPHana_RH1_HDB10-clone then start rsc_ip_SAPHana_RH1_HDB10
root# pcs constraint order promote rsc_SAPHana_RH1_HDB10-clone then start rsc_ip_SAPHana_RH1_HDB10
root# pcs constraint order start rsc_ip_SAPHana_RH1_HDB10 then start rsc_ip2_SAPHana_RH1_HDB10
root# pcs constraint order start rsc_ip_SAPHana_RH1_HDB10 then start rsc_ip2_SAPHana_RH1_HDB10
root# pcs constraint colocation add rsc_ip_SAPHana_RH1_HDB10 with Master rsc_SAPHana_RH1_HDB10-clone 2000
root# pcs constraint colocation add rsc_ip_SAPHana_RH1_HDB10 with Master rsc_SAPHana_RH1_HDB10-clone 2000
root# pcs constraint colocation add rsc_ip2_SAPHana_RH1_HDB10 with Slave rsc_SAPHana_RH1_HDB10-clone 5
root# pcs constraint colocation add rsc_ip2_SAPHana_RH1_HDB10 with Slave rsc_SAPHana_RH1_HDB10-clone 5
手順
クラスターが起動して実行されている場合は、動作をテストできます。
root# watch pcs status
root# watch pcs statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 次のコマンドを使用して、セカンダリー HANA インスタンスを手動で停止します。
sidadm% sapcontrol -nr ${TINSTANCE} -function StopSystem HDBsidadm% sapcontrol -nr ${TINSTANCE} -function StopSystem HDBCopy to Clipboard Copied! Toggle word wrap Toggle overflow 数秒後、2 番目の IP アドレスがプライマリーホストに移動されます。その後、次のコマンドでデータベースを手動で再起動できます。
sidadm% sapcontrol -nr ${TINSTANCE} -function StartSystem HDBsidadm% sapcontrol -nr ${TINSTANCE} -function StartSystem HDBCopy to Clipboard Copied! Toggle word wrap Toggle overflow - さらに使用するために、クラスターを再起動します。
4.2. ファイルシステム監視の追加 リンクのコピーリンクがクリップボードにコピーされました!
Pacemaker は、ファイルシステムリソースがマウントポイントを管理しない限り、マウントポイントを積極的に監視しません。スケールアウト環境では、データベースを異なるアベイラビリティーゾーンに分散できます。マウントポイントはゾーンに固有のものとして使用できますが、その場合はノード属性として指定する必要があります。マウントをファイルシステムリソース内でのみ処理する場合は、/etc/fstab から削除する必要があります。SAP HANA サービスを実行するにはマウントが必要であるため、SAP HANA サービスを開始する前に、順序制約によってファイルシステムがマウントされていることを確認する必要があります。詳細は、How do I configure SAP HANA Scale-Out System Replication in a Pacemaker cluster when the HANA filesystems are on NFS shares? を参照してください。
4.2.1. ファイルシステムリソースの例 リンクのコピーリンクがクリップボードにコピーされました!
設定例を以下に示します。
pcs node 属性のリスト表示:
pcs node 属性と saphdb1 hana_hdb_site=DC1 属性名は小文字であることに注意してください。
現在の設定が次のとおりであると仮定します。
-
SID=RH1 -
Instance_Number=10
| Node | アベイラビリティーゾーン (AZ) | 属性 | 値 |
| dc1hana01 | DC1 | NFS_SHARED_RH1_SITE | DC1 |
| dc1hana02 | DC1 | NFS_SHARED_RH1_SITE | DC1 |
| dc2hana01 | DC2 | NFS_SHARED_RH1_SITE | DC2 |
| dc2hana02 | DC2 | NFS_SHARED_RH1_SITE | DC2 |
以下は、同様に処理できるデータとログのノード属性マウントポイントを設定する例です。
4.3. Systemd が管理する SAP サービス リンクのコピーリンクがクリップボードにコピーされました!
systemd が有効な SAP HANA バージョン (SAP HANA 2.0 SPS07 以降) が使用されている場合、シャットダウンすることでこれらのサービスが正常に停止されます。一部の環境ではフェンシングが原因でシャットダウンされ、サービスが正常に停止します。場合によっては、Pacemaker が期待どおりに機能しないことがあります。
ドロップインファイルを追加すると、サービスが停止するのを防ぐことができます (例: /etc/systemd/system/resource-agents-deps.target.d/sap_systemd_hdb_00.conf)。他のファイル名を使用することもできます。
これらのファイルをアクティブ化する必要があります。以下のコマンドを使用します。
systemctl daemon-reload
[root]# systemctl daemon-reload
詳細は Why does the stop operation of a SAPHana resource agent fail when the systemd based SAP startup framework is enabled? を参照してください。
4.4. 追加のフック リンクのコピーリンクがクリップボードにコピーされました!
上記では、srConnectionChanged() フックを設定しました。また、srServiceStateChanged() の追加フックを使用して、SAP HANA インスタンスの hdbindexserver プロセスの変更を管理することもできます。
すべての HA クラスターノードにある各 SAP HANA インスタンスの srServiceStateChanged() フックをアクティブ化するには、以下の手順を実行します。
このソリューションは テクノロジープレビュー機能 です。Red Hat グローバルサポートサービスは、サポートケースを作成しているサブスクリプションカスタマーに代わってバグレポートを作成する場合があります。
手順
各ノードの SAP HANA
global.iniファイルを更新して、(ファイル/hana/shared/RH1/global/hdb/custom/config/global.iniなどの) 両方の SAP HANA インスタンスでフックスクリプトを使用できるようにします。Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプションのパラメーターを以下のように設定します。
-
action_on_lost(デフォルト: ignore) -
stop_timeout(デフォルト: 20) kill_signal(デフォルト: 9)以下は、
action_on_lostで使用可能なオプションの説明です。-
ignore: この機能を有効にしますが、イベントのみをログに記録します。これは、設定された環境でのフックのアクティビティーを監視するのに役立ちます。 -
stop:sapcontrol -nr <nr> -function StopSystemを正常に実行します。 kill: 最速の停止のために HDBkill-<signal>を実行します。注記stop_timeoutは stop および kill アクションのコマンド実行に追加され、kill_signalはHDB kill-<signal>コマンドの一部として kill アクションで使用されることに注意してください。
-
HANA の実行中に
HA/DRプロバイダーをリロードして、新しいフックをアクティブ化します。hdbnsutil -reloadHADRProviders
[rh1adm]$ hdbnsutil -reloadHADRProvidersCopy to Clipboard Copied! Toggle word wrap Toggle overflow 新しいトレースファイルをチェックして、フックの初期化を確認します。
cdtrace [rh1adm]$ cat nameserver_chksrv.trc
[rh1adm]$ cdtrace [rh1adm]$ cat nameserver_chksrv.trcCopy to Clipboard Copied! Toggle word wrap Toggle overflow 詳細は、Implementing a HA/DR Provider を参照してください。
第5章 例およびベストプラクティス リンクのコピーリンクがクリップボードにコピーされました!
5.1. 環境のテスト リンクのコピーリンクがクリップボードにコピーされました!
すべてが期待どおりに動作しているかどうかを確認するには、次の手順を実行します。
手順
テイクオーバーを実行します。
フェイルオーバーを実行するには、マスターノードのスコアを変更します。この例では、
SAPHanaクローンリソースはrsc_SAPHana_HDB_HDB00-cloneで、saphdb3は 2 番目のアベイラビリティーゾーンの 1 つのノードです。pcs constraint location rsc_SAPHana_HDB_HDB00-clone rule role=master score=100 \#uname eq saphdb3
pcs constraint location rsc_SAPHana_HDB_HDB00-clone rule role=master score=100 \#uname eq saphdb3Copy to Clipboard Copied! Toggle word wrap Toggle overflow この制約は次を実行して再度削除する必要があります。
pcs constraint remove rsc_SAPHana_HDB_HDB00
pcs constraint remove rsc_SAPHana_HDB_HDB00Copy to Clipboard Copied! Toggle word wrap Toggle overflow それ以外の場合、Pacemaker は
SAPHDB1で HANA を起動しようとします。ノードをフェンスします。
次のコマンドでノードをフェンスできます。
pcs stonith fence <nodename>
pcs stonith fence <nodename>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 他のフェンシングオプションと使用されるインフラストラクチャーに合わせて、このノードはダウンしたままになるか、復帰します。
HANA を
強制終了します。データベースを
強制終了して、SAP リソースエージェントが動作しているかどうかを確認することもできます。sidadmとして、以下を呼び出すことができます。sidadm% HDB kill
sidadm% HDB killCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pacemaker はこの問題を検出し、解決します。
5.2. 便利なエイリアス リンクのコピーリンクがクリップボードにコピーされました!
5.2.1. ユーザー root のエイリアス リンクのコピーリンクがクリップボードにコピーされました!
これらのエイリアスは −/.bashrc に追加されます。
5.2.2. SIDadm ユーザーのエイリアス リンクのコピーリンクがクリップボードにコピーされました!
これらのエイリアスは ~/.customer.sh に追加されます。
5.3. フェイルオーバーの監視例 リンクのコピーリンクがクリップボードにコピーされました!
強制的にテイクオーバーする方法は数多くあります。この例では、ノードをシャットオフせずに強制的にテイクオーバーします。SAP リソースエージェントはスコアと連携して、SAPHana クローンリソースをプロモートするノードを決定します。現在のステータスは次のコマンドを使用して確認できます。
この例では、SAPHana クローンリソースが saphdb1 にプロモートされます。したがって、プライマリーデータベースは saphdb1 上で実行されます。このノードのスコアは 150 であり、セカンダリー saphdb3 のスコアを調整して、pacemaker にデータベースをセカンダリーに強制的にテイクオーバーさせるようにできます。
第6章 メンテナンス手順 リンクのコピーリンクがクリップボードにコピーされました!
次のセクションでは、HANA スケールアウトシステムレプリケーションの管理に使用される HA クラスター設定のメンテナンスを実行するための推奨手順について説明します。これらの手順は、互いに独立して使用する必要があります。
これらの手順を使用する場合、クラスターをメンテナンスモードにする必要はありません。詳細は、When to use "maintenance-mode" in RHEL High Availability Add-on for pacemaker based cluster? を参照してください。
6.1. OS と HA クラスターコンポーネントの更新 リンクのコピーリンクがクリップボードにコピーされました!
詳細は、Recommended Practices for Applying Software Updates to a RHEL High Availability or Resilient Storage Cluster を参照してください。
6.2. SAP HANA インスタンスの更新 リンクのコピーリンクがクリップボードにコピーされました!
手順
このドキュメントで説明されている HA クラスター設定で SAP HANA システムレプリケーションのセットアップを管理する場合は、更新の前後に SAP HANA インスタンスを更新する実際のプロセスとは別に、いくつかの追加手順を実行する必要があります。次の手順を実行します。
SAPHanaリソースを管理対象外モードにします。pcs resource unmanage SAPHana_RH1_HDB10-clone
[root]# pcs resource unmanage SAPHana_RH1_HDB10-cloneCopy to Clipboard Copied! Toggle word wrap Toggle overflow - SAP が提供する手順を使用して、SAP HANA インスタンスを更新します。
SAP HANA インスタンスの更新が完了し、SAP HANA システムレプリケーションが再び動作していることが確認されたら、
SAPHanaリソースのステータスを更新して、クラスターが SAP HANA システムレプリケーションセットアップの現在の状態を認識していることを確認します。pcs resource refresh SAPHana_RH1_HDB10-clone
[root]# pcs resource refresh SAPHana_RH1_HDB10-cloneCopy to Clipboard Copied! Toggle word wrap Toggle overflow SAPHanaリソースを管理モードに戻して、HA クラスターが SAP HANA システムレプリケーションセットアップの現在のステータスを正しく取得したときに、HA クラスターが SAP HANA システムレプリケーションセットアップの問題に再び対応できるようにします。pcs resource manage SAPHana_RH1_HDB10-clone
[root]# pcs resource manage SAPHana_RH1_HDB10-cloneCopy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3. SAPHana リソースを別のノードに手動で移動する (HA クラスターによる SAP HANA システムレプリケーションの引き継ぎ) リンクのコピーリンクがクリップボードにコピーされました!
プロモート可能なクローンリソースを移動して、SAP HANA システムレプリケーションの手動テイクオーバーをトリガーします。
pcs resource move SAPHana_RH1_HDB10-clone
[root]# pcs resource move SAPHana_RH1_HDB10-clone
このコマンドが正しく動作するには、pcs-0.10.8-1.el8 以降が必要です。詳細は、The pcs resource move command fails for a promotable clone unless "--master" is specified を参照してください。
pcs resource move コマンドを呼び出すたびに、HA クラスターはリソースを移動させるための場所の制約を作成します。詳細は、Is there a way to manage constraints when running pcs resource move? を参照してください。
HA クラスターが以前のプライマリー SAP HANA インスタンスを再び管理できるようにするには、SAP HANA システムレプリケーションのテイクオーバーが完了したことを確認した後、この制約を削除する必要があります。
pcs resource move によって作成された制約を削除するには、次のコマンドを使用します。
pcs resource clear SAPHana_RH1_HDB10-clone
[root]# pcs resource clear SAPHana_RH1_HDB10-clone
テイクオーバーが完了し、制約が削除された後に以前の SAP HANA プライマリーインスタンスに何が起こるかは、SAPHana リソースの AUTOMATED_REGISTER パラメーターの設定によって異なります。
-
Automated_REGISTER=trueの場合、以前の SAP HANA プライマリーインスタンスが新しいセカンダリーとして登録され、SAP HANA システムレプリケーションが再びアクティブになります。 -
AUTOMATED_REGISTER=falseの場合、テイクオーバー後に以前の SAP HANA プライマリーインスタンスに何が起こるかは、オペレーターが決定します。
第7章 参考資料 リンクのコピーリンクがクリップボードにコピーされました!
7.1. Red Hat リンクのコピーリンクがクリップボードにコピーされました!
- RHEL 8 for SAP HANA2 インストールの設定
- 高可用性クラスターの設定および管理
- Support Policies for RHEL High Availability Clusters
- Support Policies for RHEL High Availability Clusters - Fencing/STONITH
- Support Policies for RHEL High Availability Clusters - Management of SAP HANA in a Cluster
- SAP HANA、S/4HANA および NetWeaver ベースの SAP アプリケーション向け Red Hat HA ソリューション
- クォーラムデバイスの設定
- The Systemd-Based SAP Startup Framework
-
Why does the
stopoperation of a SAPHana resource agent fail when the systemd based SAP startup framework is enabled?
7.2. SAP リンクのコピーリンクがクリップボードにコピーされました!
- SAP HANA Server Installation and Update Guide
- SAP HANA System Replication
- Implementing a HA/DR Provider
- SAP Note 2057595 - FAQ: SAP HANA High Availability
- SAP Note 2063657 - SAP HANA System Replication Takeover Decision Guideline
- SAP Note 2235581 - SAP HANA: Supported Operating Systems
- SAP Note 2369981 - Required configuration steps for authentication with HANA System Replication
- SAP Note 2972496 - SAP HANA Filesystem Types
- SAP Note 3007062 - FAQ: SAP HANA & Third Party Cluster Solutions
- SAP Note 3115048 - sapstartsrv with native Linux systemd support
- SAP Note 3139184 - Linux: systemd integration for sapstartsrv and SAP Host Agent
- SAP Note 3189534 - Linux: systemd integration for sapstartsrv and SAP HANA
