クラスターの管理
High Availability アドオンの設定と管理
エディッション 0
概要
はじめに
- 『Red Hat Enterprise Linux インストールガイド』 — Red Hat Enterprise Linux 6 のインストールに関する情報を提供しています。
- 『Red Hat Enterprise Linux 導入ガイド』 — Red Hat Enterprise Linux 6 の導入、設定、管理に関する情報を提供しています。
- 『High Availability アドオンの概要』 — Red Hat High Availability アドオンについて大まかに説明しています。
- 『論理ボリュームマネージャの管理』 — クラスター化環境における Logical Volume Manager (LVM) の実行に関する情報など LVM について説明しています。
- 『Global File System 2: 設定と管理』 — Resilient Storage アドオンに含まれている Red Hat GFS2 (Red Hat Global File System 2) のインストール、設定、メンテナンスに関する情報を提供しています。
- 『DM マルチパス機能』 — Red Hat Enterprise Linux 6 の Device-Mapper Multipath (デバイスマッパーマルチパス) 機能の使用に関する情報を提供しています。
- 『ロードバランサーの管理』 — Load Balancer アドオンを使用したハイパフォーマンスシステムとサービスの設定に関する情報を提供します。これは、リアルサーバー群のセット全域で IP 負荷分散用に Linux Virtual Servers (LVS) を提供する統合ソフトウェアコンポーネントのセットです。
- 『リリースノート』 — Red Hat 製品の最新リリース情報を提供しています。
1. フィードバック
Cluster_Administration(EN)-6 (2013-11-13T16:26)
第1章 Red Hat High Availability アドオンの設定と管理の概要
注記
1.1. 新機能と変更された機能
1.1.1. Red Hat Enterprise Linux 6.1 の新機能と変更された機能
- Red Hat Enterprise Linux 6.1 リリース以降、Red Hat High Availability アドオンは SNMP トラップに対するサポートを提供しています。Red Hat High Availability アドオンを使用して SNMP トラップを設定する方法については、10章Red Hat High Availability アドオンを使用した SNMP の設定 を参照してください。
- Red Hat Enterprise Linux 6.1 リリース以降、Red Hat High Availability アドオンは
ccs
クラスター設定コマンドに対するサポートを提供しています。ccs
コマンドの詳細については、5章ccs コマンドを使用した Red Hat High Availability アドオンの設定 と 6章Red Hat High Availability アドオンを使用した ccs の管理 を参照してください。 - Conga を使用した Red Hat High Availability アドオンソフトウェアの設定と管理については、Conga 画面と機能サポートが更新されました。
- Red Hat Enterprise Linux 6.1 リリース以降、
ricci
を使用する場合は、いずれかのノードから更新済みのクラスター設定を初めて伝播する時にパスワードが必要になります。ricci
に関する情報は、「ricci
の注意事項」 を参照してください。 - サービスの Restart-Disable 障害ポリシーを指定できるようになりました。これは、サービスが失敗した場合にシステムがサービスを再起動を試行することを意味します。ただし、サービスの再起動も失敗した場合は、サービスはクラスター内の別のホストに移動される代わりに無効になります。この機能については 「クラスターへのクラスターサービスの追加」 と 付録B HA リソースパラメーター で説明しています。
- 独立したサブツリーを非クリティカルと設定できるようになりました。これは、リソースが失敗した場合にはそのリソースのみが無効になることを意味します。本機能の詳細は、「クラスターへのクラスターサービスの追加」 と 「障害からの回復と独立したサブツリー」 を参照してください。
- 本ガイドには、新しい章として 9章クラスター内の問題の診断と修正 が追加されました。
1.1.2. Red Hat Enterprise Linux 6.2 の新機能と変更された機能
- Red Hat Enterprise Linux は、アクティブ/アクティブ構成で Clustered Samba を実行するサポートを提供するようになりました。Clustered Samba 設定の詳細については、11章Clustered Samba の設定 を参照してください。
- luci をホストしているシステム上で認証できる全ユーザーは luci にログインできます。ただし、Red Hat Enterprise Linux 6.2 以降、管理者 (root ユーザー又は管理者パーミッションを持つユーザー) がユーザーに対してパーミッションを設定するまでは、luci を実行しているシステムの root ユーザーのみが luci コンポーネントにアクセスできます。ユーザーに luci のパーミッションを設定する詳細については、「luci へのアクセス制御」 を参照してください。
- クラスターのノードは、UDP ユニキャストトランスポートのメカニズムを使用して、ノード間の通信が行われます。UDP ユニキャスト設定に関する詳細情報は 「UDP ユニキャストトラフィック」 を参照してください。
/etc/sysconfig/luci
ファイルを使用することで、luci の動作を設定できるようになりました。例えば、luci が機能している IP アドレスのみを特別に設定できます。luci が機能している IP アドレスのみを設定する詳細については、表2.2「luci を実行するコンピューター上で有効な IP ポート」 を参照してください。/etc/sysconfig/luci
ファイルの一般的な詳細は、「/etc/sysconfig/luci
を使用した luci の設定」 を参照してください。ccs
コマンドに、利用可能なフェンスデバイスの一覧を表示する--lsfenceopts
オプションが追加されました。また、--lsfenceopts
fence_type オプションは利用可能なフェンスタイプを表示します。これらのオプションの詳細については、「フェンスデバイスとフェンスデバイスオプションの一覧表示」 を参照してください。ccs
コマンドに、クラスターに現在利用可能なクラスターサービスの一覧を表示する--lsserviceopts
オプションが追加されました。また、--lsserviceopts
service_type オプションは、特定のタイプのサービスに指定できるオプションの一覧を表示します。これらのオプションの詳細については、「利用可能なクラスターサービスおよびリソースの一覧表示」 を参照してください。- Red Hat Enterprise Linux 6.2 リリースでは、VMware (SOAP インターフェース) フェンスエージェントに対するサポートを提供しています。フェンスデバイスのパラメーターについての詳細は、付録A フェンスデバイスパラメーター を参照してください。
- Red Hat Enterprise Linux 6.2 リリースでは、RHEV 3.0 以降の RHEV-M REST API フェンスエージェントに対するサポートを提供しています。フェンスデバイスのパラメーターについての詳細は、付録A フェンスデバイスパラメーター を参照してください。
- Red Hat Enterprise Linux 6.2 リリース以降、
ccs
コマンドを使用してクラスター内で仮想マシンを設定する場合、--addvm
オプション (addservice
オプションではない) を使用できます。これにより、クラスター設定ファイルのrm
設定ノードで直接vm
リソースを定義できます。ccs
コマンドを使用して仮想マシンリソースを設定する詳細については、「仮想マシンのリソース」 を参照してください。 - 本ガイドに、新しい付録として 付録D クラスターサービスリソースチェックとフェイルオーバーのタイムアウト が加わりました。この付録は、
rgmanager
がクラスターリソースのステータスをモニターする方法、ステータスチェックの間隔を修正する方法について説明しています。また、操作のタイムアウトによりサービスが失敗することを示した__enforce_timeouts
サービスパラメーターについても説明しています。 - 本ガイドには、「クラスターコンポーネントに対する iptables ファイアウォールの設定」 の項が追加されています。この項では、様々なクラスターコンポーネントに対して
iptables
ファイアウォールを使用してマルチキャストトラフィックを可能にするために使用できるフィルタリングについて説明しています。
1.1.3. Red Hat Enterprise Linux 6.3 の新機能と変更された機能
- Red Hat Enterprise Linux 6.3 リリースでは、
condor
リソースエージェントに対するサポートを提供しています。HA リソースパラメーターの詳細については、付録B HA リソースパラメーター を参照してください。 - 本ガイドに、付録F High Availability LVM (HA-LVM) の付録が新たに加わりました。
- 本ガイド全体に渡り、クラスターの再起動が必要になる設定変さらについて明確化を図りました。これらの変更は、「設定の変更が反映されない」 にまとめています。
fence_ipmilan
フェンスデバイスは、権限レベルのパラメーターをサポートします。フェンスデバイスのパラメーターについての詳細は、付録A フェンスデバイスパラメーター を参照してください。- 本ガイドに、「クラスター化環境での仮想マシンの設定」 のセクションが新たに加わりました。
- 本ガイドに、「luci 設定のバックアップと復元」 のセクションが新たに加わりました。
- 本ガイドに、「クラスターデーモンがクラッシュする」 のセクションが新たに加わりました。
- Red Hat Enterprise Linux 6.3 以降、root ユーザー又は luci 管理者のパーミッションを付与されたユーザーは、luci インターフェースを使用してユーザーをシステムに追加できるようになりました。詳細は 「luci へのアクセス制御」 を参照してください。
- Red Hat Enterprise Linux 6.3 リリース以降、
ccs
コマンドによる設定の検証は、-h
オプションを使って指定するノードの/usr/share/cluster/cluster.rng
にあるクラスタースキーマに従って行います。これまでは、ccs
コマンドはccs
コマンド自体でパッケージ化されたローカルシステムの/usr/share/ccs/cluster.rng
のクラスタースキーマを常に使用していました。設定の検証については、「設定の妥当性検証」 を参照してください。 - 付録A フェンスデバイスパラメーター のフェンスデバイスパラメーターについて説明した表、付録B HA リソースパラメーター の HA リソースパラメーターについて説明した表には、
cluster.conf
ファイルに表示されているとおりパラメーター名も記載されています。
1.1.4. Red Hat Enterprise Linux 6.4 の新機能および変更された機能
- Red Hat Enterprise Linux 6.4 リリースでは、Eaton Network Power Controller (SNMP Interface) フェンスエージェント、HP BladeSystem フェンスエージェント、IBM iPDU フェンスエージェントに対応しています。フェンスデバイスのパラメーターに関する情報は、付録A フェンスデバイスパラメーター を参照してください。
- 付録B HA リソースパラメーター では、NFS サーバーのリソースエージェントに関する説明が追加されています。
- Red Hat Enterprise Linux 6.4 では、root ユーザーまたは luci 管理者権限を持つユーザーは、luci インターフェースを使用してユーザーをシステムから削除できるようになりました。これについては、「luci へのアクセス制御」 に記載されています。
- 付録B HA リソースパラメーター では、ファイルシステムおよび GFS2 HA リソースの新規パラメーター
nfsrestart
について説明しています。 - 本ガイドには、 「以前の設定を上書きするコマンド」 のセクションが追加されました。
- IPMI LAN フェンスエージェントは、付録A フェンスデバイスパラメーター に記載されているように、IPMI デバイスの権限レベルを設定するパラメーターに対応するようになりました。
- クラスター内のノード間通信ができるように、イーサネットのボンディングモード 1 以外に、0 と 2 へのサポートが追加されています。本ガイドのトラブルシューティングに関するアドバイスで、対応のボンディングモードのみを使用するように提案されていましたが、現在はこの旨を記載しています。
- VLAN タグのネットワークデバイスは、クラスターのハートビート通信に対応するようになりました。ハートビート通信に対応していない旨のトラブルシューティングアドバイスは、本書から削除されています。
- Red Hat High Availability アドオンは、冗長リングプロトコルの設定に対応するようになりました。この機能の使用および
cluster.conf
設定ファイルの設定に関する一般情報は、「冗長リングプロトコルの設定」 を参照してください。luci で冗長リングプロトコルを設定する方法は、「冗長リングプロトコルの設定」 を参照してください。ccs
コマンドで、冗長リングプロトコルを設定する方法は、「冗長リングプロトコルの設定」 を参照してください。
1.1.5. Red Hat Enterprise Linux 6.5 の新機能および変更された機能
- 本ガイドに 「nfsexport および nfsserver リソースの設定」 セクションが新たに加わりました。
- 付録A フェンスデバイスパラメーター のフェンスデバイスパラメーターについての表が更新され、luci インターフェイスのマイナーな更新が反映されています。
1.2. 設定の基本
- ハードウェアの設定。「ハードウェアの設定」 を参照してください。
- Red Hat High Availability アドオンソフトウェアのインストール。「Red Hat High Availability アドオンソフトウェアのインストール」 を参照してください。
- Red Hat High Availability アドオンソフトウェアの設定。「Red Hat High Availability アドオンソフトウェアの設定」 を参照してください。
1.3. ハードウェアの設定
- クラスターノード — Red Hat Enterprise Linux 6 ソフトウェアを実行可能なコンピューター。RAM 1 GB 以上
- 公共ネットワーク用のネットワークスイッチ — クライアントがクラスターにアクセスするために必要です。
- プライベートネットワーク用のネットワークスイッチ — クラスターノード同士や、ネットワークパワースイッチとファイバーチェンネルスイッチなど、他のクラスターハードウェアとの通信に必要となります。
- フェンスデバイス — フェンスデバイスが必要になります。エンタープライズレベルのクラスターでのフェンシングには、ネットワークパワースイッチが推奨されます。対応するフェンスデバイスについての詳細は、付録A フェンスデバイスパラメーター を参照してください。
- ストレージ — 一部のタイプのストレージがクラスターに必要です。図1.1「Red Hat High Availability アドオンハードウェアの概要」 では共有ストレージが表示されていますが、特定の用途には共有ストレージが不要の場合もあります。

図1.1 Red Hat High Availability アドオンハードウェアの概要
1.4. Red Hat High Availability アドオンソフトウェアのインストール
yum install
コマンドを使用して、Red Hat High Availability アドオンソフトウェアのパッケージをインストールします。
# yum install rgmanager lvm2-cluster gfs2-utils
rgmanager
のみをインストールしても、HA クラスターを作成するために必要な依存性をすべて、HighAvailability チャンネルから引っ張ってきます。lvm2-cluster
と gfs2-utils
パッケージは、ResilientStorage チャンネルの一部ですが、お使いのサイトでは必要がない可能性もあります。
Red Hat High Availability アドオンソフトウェアのアップグレード
- 任意の単一クラスターノード上の全クラスターサービスをシャットダウンします。ノード上でクラスターソフトウェアを停止する手順は、「クラスターソフトウェアの停止」 を参照してください。
rgmanager
を停止する前に、クラスターで管理中のサービスと仮想マシンを手動でホストから再配置することが望ましいでしょう。 yum update
コマンドを実行してインストールしたパッケージを更新します。- クラスターノードを再起動するか、手動でクラスターサービスを再開始します。ノード上でクラスターソフトウェアを起動する手順については 「クラスターソフトウェアの起動」 を参照してください。
1.5. Red Hat High Availability アドオンソフトウェアの設定
- Conga — Red Hat High Availability アドオンをインストール、設定、管理するための総合的なユーザーインターフェースです。Conga を使用した High Availability アドオンの設定と管理の詳細については、3章Conga を使用した Red Hat High Availability アドオンの設定 と 4章Conga を使用した Red Hat High Availability アドオンの管理 を参照してください。
ccs
コマンド — このコマンドは Red Hat High Availability アドオンの設定と管理を行います。ccs
コマンドを使用した High Availability アドオンの設定と管理の詳細については、5章ccs コマンドを使用した Red Hat High Availability アドオンの設定 と 6章Red Hat High Availability アドオンを使用した ccs の管理 を参照してください。- コマンドラインツール — Red Hat High Availability アドオンの設定と管理を行うためのコマンドラインツール群です。コマンドラインツールを使用したクラスターの設定と管理の詳細については、7章Red Hat High Availability の手動での設定 と 8章コマンドラインツールを使用した Red Hat High Availability アドオンの管理 を参照してください。推奨されるコマンドラインツールは 付録E コマンドラインツールの要約 にまとめています。
注記
system-config-cluster
は Red Hat Enterprise Linux 6 では利用できません。
第2章 Red Hat High Availability アドオンを設定する前の作業
重要
2.1. 設定時の一般的な注意事項
- サポートされるクラスターノードの数
- High Availability アドオンでサポートされるクラスターノードの最大数は 16 です。
- 単一のサイトクラスター
- 今回は単一サイトクラスターのみ完全にサポートされています。複数の物理的な場所に渡るクラスターは正式にはサポートされていません。複数のサイトクラスターについての詳細と説明に関しては、Red Hat セールス又はサポート担当者にご相談ください。
- GFS2
- GFS2 ファイルシステムは、スタンドアロンシステム、あるいはクラスター設定の一部としても実装できますが、Red Hat は単一ノードファイルシステムとしての GFS2 の使用をサポートしていません。Red Hat は、ハイパフォーマンスの単一ノードファイルシステムを複数サポートしています。これらは、一般的にクラスターファイルシステムより低いオーバーヘッドを持つ単一ノード用に最適化されています。単一ノードのみがファイルシステムをマウントする必要がある状況では、Red Hat は GFS2 よりも、こうしたファイルシステムの使用を推奨します。Red Hat は、既存のお客様に対して単一ノードの GFS2 ファイルシステムを引き続きサポートします。GFS2 ファイルシステムをクラスターファイルシステムとして設定する場合は、クラスター内の全てのノードが共有ファイルシステムにアクセスできるようにしてください。一部のノードがファイルシステムへのアクセスを持ち、他のノードは持っていない非対称クラスター設定はサポートされません。このような設定では、全てのノードが実際に GFS2 ファイルシステム自体をマウントする必要がありません。
- 単一障害点のないハードウェア設定
- クラスターは、デュアルコアコントローラー RAID アレイ、複数のボンディングされたネットワークチャンネル、クラスターメンバーとストレージ間のマルチパス、冗長 UPS (un-interruptible power supply) システムを含むことができます。これで、1 つの障害によりアプリケーションのダウンタイムやデータの損失が発生しないようにします。別の方法として、単一障害点のないクラスターよりも低い可用性を提供する低コストのクラスターをセットアップすることも可能です。例えば、シングルコントローラー RAID アレイとシングルイーサネットチャンネルのみを持つクラスターのセットアップが可能です。ホスト RAID コントローラー、クラスターサポートのないソフトウェア RAID、マルチイニシエーターパラレル SCSI 設定など一部の低コスト代替手段は、互換性がないか、共有クラスターストレージとして使用するには適切ではありません。
- データ整合性の保証
- データ整合性を確保するために、一度に 1 つのノードだけがクラスターサービスを実行してクラスターサービスのデータにアクセスできます。クラスターハードウェア設定内のパワースイッチを使用することで、フェイルオーバープロセス中に 1 つのノードがそのノードの HA サービスを再開する前に別のノードをパワーサイクルできるようにします。これにより 2 つのノードが同時に同じデータにアクセスしてデータが破損するのを防止します。フェンスデバイス (遠隔操作でクラスターノード群の電力供給、シャットダウン、再起動を行うハードウェア又はソフトウェアソリューション) を使用して、全ての障害状況下でデータの整合性を保証します。
- イーサネットチャンネルボンディング
- クラスタークォーラムとノードの健全性は、イーサネットを介してクラスターノード間のメッセージ通信で判定されます。さらに、クラスターノード群は他のクリティカルな各種クラスター機能 (例えば、フェンシング) にイーサネットを使用します。マルチイーサネットインターフェースは、イーサネットチャンネルボンディングと同一体として動作するよう設定され、クラスターノード群と他のクラスターハードウェア間の標準的なスイッチドイーサネット接続における単一障害点のリスクを軽減します。Red Hat Enterprise Linux 6.4 ではボンディングモード 0、1、2 がサポートされています。
- IPv4 と IPv6
- High Availability アドオンは IPv4 と IPv6 の両方のインターネットプロトコルをサポートします。High Availability アドオンでの IPv6 のサポートは Red Hat Enterprise Linux 6 では初めてです。
2.2. 互換性のあるハードウェア
2.3. IP ポートの有効化
iptables
ルールを提供しています。
2.3.1. クラスターノードでの IP ポートの有効化
system-config-firewall
を使用して IP ポートを有効化できます。
IP ポート番号 | プロトコル | コンポーネント |
---|---|---|
5404, 5405 | UDP | corosync/cman (クラスターマネージャー) |
11111 | TCP | ricci (クラスターの更新情報を伝播) |
21064 | TCP | dlm (分散ロックマネージャー) |
16851 | TCP | modclusterd |
2.3.2. luci の IP ポートの有効化
注記
IP ポート番号 | プロトコル | コンポーネント |
---|---|---|
8084 | TCP | luci (Conga ユーザーインターフェースサーバー) |
/etc/sysconfig/luci
ファイルを使用して設定を有効した Red Hat Enterprise Linux 6.1 リリース以降、luci が機能する IP アドレスのみを特別に設定できるようになりました。使用しているサーバーインフラストラクチャーに複数のネットワークが組み込まれており、内部ネットワークからのみ luci にアクセスしたい場合は、この機能を使用できます。このためには、ファイル内の host
を指定する行をコメント解除して編集します。例えば、ファイルの host
設定を 10.10.10.10 に変更するには、host
の行を次のように変更します。
host = 10.10.10.10
/etc/sysconfig/luci
ファイルの詳細については、「/etc/sysconfig/luci
を使用した luci の設定」 を参照してください。
2.3.3. クラスターコンポーネントに対する iptables ファイアウォールの設定
cman
(Cluster Manager) では以下のフィルタリングを使用します。
$iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 -d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
dlm
(Distributed Lock Manager) の場合:
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT
ricci
(Conga リモートエージェントの一部) の場合:
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT
modclusterd
(Conga リモートエージェントの一部) の場合:
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
luci
(Conga ユーザーインターフェースサーバー) の場合:
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 8084 -j ACCEPT
igmp
(Internet Group Management Protocol) の場合:
$ iptables -I INPUT -p igmp -j ACCEPT
$ service iptables save ; service iptables restart
2.4. /etc/sysconfig/luci
を使用した luci の設定
/etc/sysconfig/luci
ファイルを使用して luci の動作のいくつかを設定できるようになりました。このファイルで変更できるパラメーターには、サーバー設定だけでなく init スクリプトにより使用される動作環境の補助的な設定も含まれます。また、このファイルを編集して、アプリケーション設定のパラメーターを修正することもできます。ファイル内には、編集によって変更可能な設定パラメーターを説明した手順が記載されています。
/etc/sysconfig/luci
ファイルの設定以外の行は変更しないことをお勧めします。また、このファイル、特に INITSCRIPT
セクションに必要な構文には従うようにしてください。ここでは、等号記号の前後に空白を入れることはできません。また、空白を含む文字列を囲む引用符を使用する必要があります。
/etc/sysconfig/luci
ファイルを編集することにより luci が機能するポートを変更する方法を示しています。
/etc/sysconfig/luci
ファイル内の次の行をコメント解除します:#port = 4443
- 4443 を希望するポート番号に置き換えます。これは 1024 (特権ポートではない) かそれ以上でなければなりません。例えば、次のようにファイルの行を編集して、luci が機能するポートを 8084 に設定できます。
port = 8084
- luci サービスを再起動して、変更を反映させます。
重要
/etc/sysconfig/luci
ファイル内の設定パラメーターを修正してデフォルト値を再定義する場合は、デフォルト値の代わりに新しい値を使用することをお勧めします。例えば、luci が機能するポートを修正する場合、「luci の IP ポートの有効化」 で説明のとおり luci の IP ポートを有効にする時に修正した値を指定するようにしてください。
/etc/sysconfig/luci
ファイルで設定できるパラメーターの完全な情報は、ファイル内のドキュメントを参照してください。
2.5. 統合されたフェンスデバイスと使用するための ACPI 設定
注記
shutdown -h now
) を試みるのではなく、統合されたフェンスデバイスが迅速かつ完全にノードをオフにできるようにします。これに対して、ACPI Soft-Off が有効な場合、統合されたフェンスデバイスはノードをオフにするのに 4 秒以上かかります (以下の注記参照)。さらには、ACPI Soft-Off が有効で、シャットダウン中にノードがパニックやフリーズを起こすと、統合されたフェンスデバイスがノードをオフにできない場合があります。これらの状況下では、フェンシングは遅延されるか、失敗します。結果的に、ノードが統合されたフェンスデバイスでフェンスされ ACPI Soft-Off が有効であると、クラスターの復帰は遅くなるか、復帰に管理者の介入が必要になります。
注記
chkconfig
管理を使用して、フェンスされた時にノードが直ちにオフになることを確認します。ACPI Soft-Off を無効にするための推奨される方法は chkconfig
管理を使用することです。ただし、このメソッドがご使用のクラスターに十分でない場合は、以下の代替メソッドのいずれかを使用して ACPI Soft-Off を無効にできます:
- BIOS 設定を "instant-off" 又は遅延なくノードをオフにする同様の設定に変更
注記
BIOS で ACPI Soft-Off を無効にすることは、一部のコンピューターでは不可能な場合があります。 /boot/grub/grub.conf
ファイルのカーネルブートコマンドの行にacpi=off
を追記重要
このメソッドは ACPI を完全に無効にします。ACPI が完全に無効の場合、一部のコンピューターは正しく起動しません。このメソッドは、他のメソッドがご使用のクラスターに効果的でない場合に のみ 使用してください。
- 「
chkconfig
管理を使用した ACPI Soft-Off の無効化」 — 推奨されるメソッド - 「BIOS を使用した ACPI Soft-Off の無効化」 — 1 番目の代替メソッド
- 「
grub.conf
ファイル内での ACPI の完全無効化」 — 2 番目の代替メソッド
2.5.1. chkconfig
管理を使用した ACPI Soft-Off の無効化
chkconfig
管理を使用して ACPI Soft-Off を無効にするには、chkconfig
管理から ACPI デーモン (acpid
) を削除するか、acpid
をオフにします。
注記
chkconfig
管理を使用して ACPI Soft-Off を無効にします。
- 以下のどちらかのコマンドを実行します。
chkconfig --del acpid
— このコマンドはchkconfig
管理からacpid
を削除します。— または —chkconfig --level 345 acpid off
— このコマンドはacpid
をオフにします。
- ノードを再起動します。
- クラスターが設定され稼働している間に、フェンスされた時点でノードが直ちにオフになることを確認します。
注記
ノードはfence_node
コマンド、又は Conga でフェンスできます。
2.5.2. BIOS を使用した ACPI Soft-Off の無効化
chkconfig
管理 (「chkconfig
管理を使用した ACPI Soft-Off の無効化」) を使用することです。しかし、このメソッドがご使用のクラスターに効果的でない場合は、本セクションの手順に従ってください。
注記
- ノードを再起動して、
BIOS CMOS Setup Utility
プログラムを起動します。 - 例2.1「メニューで 機能 (又は同等の機能) を (又は、遅延なく電源ボタンを使ってノードをオフにできるのと同等の設定) にセットします。
BIOS CMOS Setup Utility
: を に設定」 は、 が に、 が にセットされている メニューを示しています。注記
BIOS CMOS Setup Utility
プログラムを終了して、BIOS 設定を保存します。- クラスターが設定され稼働している間に、フェンスされた時点でノードが直ちにオフになることを確認します。
注記
ノードはfence_node
コマンド、又は Conga でフェンスできます。
例2.1 BIOS CMOS Setup Utility
: を に設定
+---------------------------------------------|-------------------+ | ACPI Function [Enabled] | Item Help | | ACPI Suspend Type [S1(POS)] |-------------------| | x Run VGABIOS if S3 Resume Auto | Menu Level * | | Suspend Mode [Disabled] | | | HDD Power Down [Disabled] | | | Soft-Off by PWR-BTTN [Instant-Off | | | CPU THRM-Throttling [50.0%] | | | Wake-Up by PCI card [Enabled] | | | Power On by Ring [Enabled] | | | Wake Up On LAN [Enabled] | | | x USB KB Wake-Up From S3 Disabled | | | Resume by Alarm [Disabled] | | | x Date(of Month) Alarm 0 | | | x Time(hh:mm:ss) Alarm 0 : 0 : | | | POWER ON Function [BUTTON ONLY | | | x KB Power ON Password Enter | | | x Hot Key Power ON Ctrl-F1 | | | | | | | | +---------------------------------------------|-------------------+
2.5.3. grub.conf
ファイル内での ACPI の完全無効化
chkconfig
管理 (「chkconfig
管理を使用した ACPI Soft-Off の無効化」) を使用することです。使用中のクラスターにこの推奨されるメソッドが効果的でない場合は、BIOS 電源管理 (「BIOS を使用した ACPI Soft-Off の無効化」) を使用して ACPI Soft-Off を無効にできます。どのメソッドも効果的でない場合は、grub.conf
ファイルのカーネルブートコマンドラインに acpi=off
を追記すると ACPI を完全に無効にできます。
重要
grub.conf
ファイルを編集することにより ACPI を完全に無効にできます。
- テキストエディターで
/boot/grub/grub.conf
を開きます。 - ノードを再起動します。
- クラスターが設定され稼働している間に、フェンスされた時点でノードが直ちにオフになることを確認します。
注記
ノードはfence_node
コマンド、又は Conga でフェンスできます。
例2.2 acpi=off
が追記されたカーネルブートコマンドライン
# grub.conf generated by anaconda # # Note that you do not have to rerun grub after making changes to this file # NOTICE: You have a /boot partition. This means that # all kernel and initrd paths are relative to /boot/, eg. # root (hd0,0) # kernel /vmlinuz-version ro root=/dev/mapper/vg_doc01-lv_root # initrd /initrd-[generic-]version.img #boot=/dev/hda default=0 timeout=5 serial --unit=0 --speed=115200 terminal --timeout=5 serial console title Red Hat Enterprise Linux Server (2.6.32-193.el6.x86_64) root (hd0,0) kernel /vmlinuz-2.6.32-193.el6.x86_64 ro root=/dev/mapper/vg_doc01-lv_root console=ttyS0,115200n8 acpi=off initrd /initramrs-2.6.32-131.0.15.el6.x86_64.img
acpi=off
がカーネルブートコマンドライン (「kernel /vmlinuz-2.6.32-193.el6.x86_64.img」で始まる行) に追加されました。
2.6. HA サービス設定の注意事項
rgmanager
は、既製のアプリケーション用にコールドフェイルオーバーを実装します。Red Hat High Availability アドオンでは、アプリケーションは他のクラスターリソースにより設定されます。これにより、クラスタークライアントに対する明らかな中断なしに 1 つのクラスターノードから別のノードにフェイルオーバーできる HA サービスを形成できます。HA サービスのフェイルオーバーが発生する可能性があるのは、クラスターノードが失敗した場合、又はクラスターシステム管理者がサービスをあるクラスターノードから別のノードへ移動した場合 (例えば、予定されたクラスターノードの停止) です。
- IP アドレスリソース — IP アドレス 10.10.10.201
- 「httpd-content」と呼ばれるアプリケーションリソース — ウェブサーバーアプリケーション init スクリプト
/etc/init.d/httpd
(httpd
を指定) - ファイルシステムリソース —「gfs2-content-webserver」と呼ばれる Red Hat GFS2

図2.1 ウェブサーバーのクラスターサービスの例
注記
/etc/cluster/cluster.conf
内にリソースツリーとして表されます。クラスター設定ファイル内では、各リソースツリーは各リソース、その属性、リソースツリー内での他のリソースとの関係 (親、子、兄弟の関係) を指定する XML 表現です。
注記
- サービスを作成するために必要なリソースのタイプ
- リソース間での親、子、兄弟の関係
2.7. 設定の妥当性検証
/usr/share/cluster/cluster.rng
のクラスタースキーマに沿って自動的に妥当性が検証されます。また、ccs_config_validate
コマンドを使用するとクラスター設定の妥当性をいつでも検証できます。ccs
コマンドを使用した設定の妥当性検証については、「設定の妥当性検証」 を参照してください。
/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば /usr/share/doc/cman-3.0.12/cluster_conf.html
) を参照してください。
- XML 妥当性 — 設定ファイルが有効な XML ファイルであることをチェックします。
- 設定のオプション — オプション (XML の要素と属性) が有効であることをチェックします。
- オプションの値 — オプションに有効なデータが含まれていることをチェックします (限定的)。
- 無効な XML — 例2.4「
cluster.conf
のサンプル設定:無効な XML」 - 無効なオプション — 例2.5「
cluster.conf
のサンプル設定:無効なオプション」 - 無効なオプション値 — 例2.6「
cluster.conf
のサンプル設定:無効なオプション値」
例2.3 cluster.conf
のサンプル設定:有効なファイル
<cluster name="mycluster" config_version="1"> <logging debug="off"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
例2.4 cluster.conf
のサンプル設定:無効な XML
<cluster name="mycluster" config_version="1"> <logging debug="off"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> <cluster> <----------------INVALID
</cluster>
ではなく <cluster>
となっています。
例2.5 cluster.conf
のサンプル設定:無効なオプション
<cluster name="mycluster" config_version="1"> <loging debug="off"/> <----------------INVALID <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> <cluster>
logging
ではなく loging
となっています。
例2.6 cluster.conf
のサンプル設定:無効なオプション値
<cluster name="mycluster" config_version="1"> <loging debug="off"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="-1"> <--------INVALID <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> <cluster>
node-01.example.com
の clusternode
の行に nodeid
があります。この値は正の値 ("1") ではなく負の値 ("-1") となっています。nodeid
属性の値は、正の値でなければなりません。
2.8. NetworkManager の注意事項
注記
NetworkManager
が実行中あるいは chkconfig
コマンドを使用して実行するように設定されている場合、cman
サービスは起動しません。
2.9. Quorum Disk 使用に関する注意事項
qdiskd
で、補助的なヒューリスティックを提供してノードの健全性を判定します。ヒューリスティックを使用することで、ネットワークパーティションが発生した場合に、ノードの運用に重要となる要素を決定できます。例えば、3:1 に分かれた 4 ノードクラスターでは、通常 3 つのノードが 3 対 1 の過半数で自動的に「勝ち」ます。この状況では、1 つのノードがフェンスされます。しかし、qdiskd
を使用すると、クリティカルなリソース (例: クリティカルなネットワークパス) へのアクセスを基にしてその 1 つのノードが勝てるようにヒューリスティックを設定できます。使用しているクラスターにノードの健全性を判定する追加のメソッドが必要な場合は、そのニーズに合うように qdiskd
を設定することをお勧めします。
注記
qdiskd
を設定する必要はありません。特別な要件の例としては、「all-but-one (1 つ以外は全て)」の設定があります。all-but-one 設定では、1 つのノードだけが機能している場合でも定足数を維持するための十分な定足数投票数を提供するように qdiskd
を設定します。
重要
qdiskd
パラメーターはサイトの環境と特別な要件によって異なります。ヒューリスティック及び他の qdiskd
パラメーターの使用を理解するためには、qdisk(5) の man ページを参照してください。qdiskd
を理解してそれをサイトに使用する上でサポートが必要な場合は、Red Hat 認定サポート担当者にご連絡ください。
qdiskd
を使用する必要がある場合は、以下の注意事項を考慮に入れてください。
- クラスターノードの投票数
- Quorum Disk の使用時は、各クラスターノードは 1 つの投票数を持っている必要があります。
- CMAN メンバーシップのタイムアウト値
qdiskd
メンバーシップタイムアウト値は、CMAN メンバーシップタイムアウト値 (ノードがメンバーではなく停止していると CMAN が判定するまでのノードが応答しない時間) に基づいて自動的に設定されます。qdiskd
は、CMAN タイムアウト内で実行できることを確認するための追加の健全性チェックも行います。この値の再設定が必要な場合は、以下の点を考慮する必要があります。CMAN メンバーシップタイムアウト値は、少なくともqdiskd
メンバーシップタイムアウト値の 2 倍にすることをお勧めします。その理由は、quorum(定足数)デーモンは失敗したノードをそれ自身で検出しなければならず、その実行に CMAN よりもかなり長い時間がかかる場合があるためです。他のサイト特有の条件が CMAN とqdiskd
のメンバーシップタイムアウト値の関係に影響を与える場合があります。CMAN メンバーシップタイムアウト値の調節に関するサポートについては、Red Hat 認定サポート担当者にご連絡ください。- フェンシング
qdiskd
の使用時にフェンシングが確実に信頼できるようにするには、パワーフェンシングを使用します。qdiskd
で設定されていないクラスターには他のタイプのフェンシングが信頼できる場合もありますが、qdiskd
で設定されたクラスター用には信頼できません。- ノードの最大数
qdiskd
で設定されたクラスターは最大で 16 のノードをサポートします。この上限はスケーラビリティによるものです。つまり、ノード数を増加すると、共有 Quorum Disk デバイス上の同期 I/O 競合の量が増加します。- Quorum disk デバイス
- quorum disk デバイスは、クラスター内の全ノードによる並行読み取り/書き込みのアクセスを持つ共有ブロックデバイスです。ブロックデバイスの最小限サイズは 10 メガバイトです。
qdiskd
で使用できる共有ブロックデバイスの例としては、マルチポート SCSI RAID アレイ、ファイバーチャンネル RAID SAN、RAID 構成の iSCSI ターゲットがあります。Cluster Quorum Disk Utility のmkqdisk
を使用して quorum disk デバイスを作成することができます。このユーティリティの使用方法については、mkqdisk(8) の man ページをご覧ください。注記
JBOD を quorum disk として使用することは推奨されません。JBOD は信頼できるパフォーマンスを提供できないため、ノードがそれに迅速に書き込むことができない可能性があります。ノードが quorum disk デバイスに迅速に書き込むことができないと、ノードは誤ってクラスターから削除されます。
2.10. Red Hat High Availability アドオンと SELinux
targeted
にセットした状態で enforcing
の状態の SELinux をサポートします。
注記
fenced_can_network_connect
が永続的に on
に設定されていることを確認してください。この設定により、fence_xvm
フェンシングエージェントが正常に機能し、システムによる仮想マシンのフェンシングが可能になります。
2.11. マルチキャストアドレス
注記
2.12. UDP ユニキャストトラフィック
cluster.conf
設定ファイルの cman transport="udpu"
パラメーターを設定することによって、UDP ユニキャストを使用するように Red Hat High-Availability アドオンを設定できます。また、「ネットワークの設定」 の説明のとおり Conga ユーザーインターフェースの ページからユニキャストを指定することも可能です。
2.13. ricci
の注意事項
ricci
が ccsd
に置き換わります。そのため、各クラスターノードで ricci
が実行している必要があります。この目的は、ricci
が cman_tool version -r
コマンド、ccs
コマンド、又は luci ユーザーインターフェースサーバーを介していようと、更新されたクラスター設定を伝播するためです。ricci
を起動するには、service ricci start
を使用するか、chkconfig
を使ってブート時の起動を有効にします。ricci
の IP ポートを有効にする方法については 「クラスターノードでの IP ポートの有効化」 を参照してください。
ricci
を使用するにはパスワードが必要です。使用しているシステムに ricci
をインストール後、passwd ricci
コマンドを使って root としてユーザー ricci
に ricci
のパスワードを設定します。
2.14. クラスター化環境での仮想マシンの設定
rgmanager
ツールを使用することをお勧めします。virsh
を使用してマシンを起動すると、複数の場所で仮想マシンが実行することにつながり、仮想マシン内のデータが破損する恐れがあります。
virsh
ではこの設定ファイルを設定しない限り認識されないため、virsh
を使用することで誤って仮想マシンを起動しにくくなります。
path
の属性を使用することで、デフォルト以外の場所を参照できます。path
属性はディレクトリ又はコロン (:) の記号で区切られたディレクトリのセットであって、特定のファイルへのパスではない点に注意してください。
警告
libvirt-guests
サービスは、rgmanager
を実行している全ノードで無効にすることをお勧めします。仮想マシンが自動起動/再開すると、複数の場所で仮想マシンが実行することにつながり、仮想マシン内のデータが破損する恐れがあります。
vm
リソースResource)」 を参照してください。
第3章 Conga を使用した Red Hat High Availability アドオンの設定
注記
3.1. 設定のタスク
- クラスターを作成。「クラスターの作成」 を参照してください。
- グローバルクラスタープロパティを設定。「グローバルクラスタープロパティ」 を参照してください。
- フェンスデバイスを設定。「フェンスデバイスの設定」 を参照してください。
- クラスターメンバー用にフェンシングを設定。「クラスターメンバー用のフェンシングの設定」 を参照してください。
- フェイルオーバードメインを作成。「フェイルオーバードメインの設定」 を参照してください。
- リソースを作成。「グローバルクラスターリソースの設定」 を参照してください。
- クラスターサービスを作成。「クラスターへのクラスターサービスの追加」 を参照してください。
3.2. luci の起動
注記
luci
を使用してクラスターを設定するには、「ricci
の注意事項」 で説明のとおり ricci
がインストールされ、クラスターノード上で稼働している必要があります。そのセクションで記述していますが、ricci
を使用する場合は 「クラスターの作成」 の説明のとおり、クラスター作成時に各クラスターノード用に luci
が要求するパスワードが必要です。
- luci をホストするコンピューターを選択して、そのコンピューターに luci ソフトウェアをインストールします。例えば:
#
yum install luci
注記
通常は、サーバーケージ又はデータセンター内のコンピューターが luci をホストします。ただし、クラスターコンピューターは luci をホストできます。 service luci start
を使用して luci を開始します。例えば:#
service luci start
Starting luci: generating https SSL certificates... done [ OK ] Please, point your web browser to https://nano-01:8084 to access luci注記
Red Hat Enterprise Linux release 6.1 以降、/etc/sysconfig/luci
ファイルを使用してポートやホストパラメーターなど luci の動作を設定できるようになりました。詳細は 「/etc/sysconfig/luci
を使用した luci の設定」 を参照してください。修正したポートやホストパラメーターは、luci サービスの起動時に表示される URL に自動的に反映されます。- Web ブラウザーで、luci サーバーの URL を URL アドレスバーに指定して、
Go
(それに該当するもの) をクリックします。luci サーバーの URL 構文は、https://luci_server_hostname:luci_server_port
で、luci_server_port のデフォルト値は8084
となっています。luci への初回アクセス時には、(luci サーバーの) 自己署名 SSL 証明書に関するウェブブラウザーのプロンプトが表示されます。ダイアログボックスが確認されると、ウェブブラウザーに luci ログインページが表示されます。 - luci をホストしているシステム上で認証できる全ユーザーは luci にログインできます。ただし、Red Hat Enterprise Linux 6.2 以降、管理者 (root ユーザー又は管理者パーミッションを持つユーザー) がユーザーにパーミッションを設定するまでは、luci を実行しているシステムの root ユーザーのみが luci コンポーネントにアクセスできます。ユーザーに luci のパーミッションを設定する詳細については、「luci へのアクセス制御」 を参照してください。
図3.1 luci Homebase ページ
注記
3.3. luci へのアクセス制御
- Red Hat Enterprise Linux 6.2 では、root ユーザーまたは luci アプリケーションを実行しているシステムで luci 管理者権限を持つユーザーは、システム上の各ユーザーにパーミッションを設定することで、様々な luci コンポーネントへのアクセスを制御することができます。
- Red Hat Enterprise Linux 6.3 では、root ユーザーまたは luci 管理者のパーミッションを付与されたユーザーは、luci インターフェースにユーザーを追加し、これらのユーザーのユーザーパーミッションを設定できるようになりました。これらユーザーをシステムに追加してパスワードの設定をする必要はありますが、この機能により、このユーザーが luci に初めてログインする前にユーザーのパーミッションを設定できるようになりました。
- Red Hat Enterprise Linux 6.4 では、root ユーザーまたは luci 管理者権限を持つユーザーは、luci インターフェースを使用してユーザーを luci インターフェースから削除できるようになりました。これでそのユーザーに設定されたパーミッションがリセットされます。
注記
/etc/pam.d/luci
ファイルを編集することで、luci による認証動作を修正することができます。Linux-PAM の使用方法に関しては、pam
(8) man ページを参照してください。
root
または事前に管理者権限を付与されたユーザーでログインして、luci 画面の右上隅の セクションをクリックしてください。すると、 ページが表示され、既存ユーザーが表示されます。
- ユーザーに root ユーザーと同じパーミッションを付与します。全クラスター上の完全なパーミッションであり、root 以外の他の全ユーザーのパーミッションを設定/削除することができます。これらのパーミッションは制限できません。
- 「クラスターの作成」 の説明のとおり、ユーザーは新規クラスターを作成できるようになります。
- 「luci インターフェースへの既存クラスターの追加」 の説明のとおり、ユーザーは既存のクラスターを luci インターフェースに追加できるようになります。
- ユーザーは特定のクラスターを閲覧できるようになります。
- ユーザーは特定のクラスターの設定を修正できるようになります。ただし、クラスターノードの追加および削除は対象外です。
- 「高可用性サービスの管理」 の説明のとおり、ユーザーは高可用性サービスを管理できるようになります。
- 「クラスターノードの管理」 の説明のとおり、ユーザーはクラスターの個々のノードを管理できるようになります。
- 「クラスターの作成」 の説明のとおり、ユーザーはクラスターからノードの追加/削除ができるようになります。
- 「クラスターの起動、停止、再起動、削除」 の説明のとおり、ユーザーは luci インターフェースからクラスターを削除できるようになります。
3.4. クラスターの作成
- luci ページの左側にあるメニューから をクリックします。図3.2「luci のクラスター管理のページ」 に示してあるように、 画面が表示されます。
図3.2 luci のクラスター管理のページ
- 図3.3「luci のクラスター作成のダイアログボックス」 に示してあるように ダイアログボックスが表示されます。をクリックします。そうすると
図3.3 luci のクラスター作成のダイアログボックス
- 必要に応じて、ダイアログボックスに以下のパラメーターを入力します:
- クラスター内の各ノードが同じ ricci パスワードである場合、 にチェックを入れると、ノード追加時に フィールドに自動入力できます。
- クラスター内のノードの名前を ricci パスワードを カラムに入力します。ノード名の長さは、最大 255 バイトまでになります。カラムに入力して、そのノード用の
- システムをクラスタートラフィック用のみに使用される専用のプライベートネットワークで設定している場合、luci はクラスターノード名が解決するアドレスとは異なるアドレス上の ricci と通信するように設定すると良いでしょう。これを行うには、アドレスを として入力します。
- ricci エージェント用にデフォルトの 11111 とは異なるポートを使用している場合は、そのパラメーターを変更できます。
- ricci パスワードを入力します。をクリックして、クラスター内の追加ノード毎にノード名と
- クラスターを作成する時点でノードに既にインストールされているクラスターソフトウェアパッケージをアップグレードしたくない場合は、オプションを選択します。全てのクラスターソフトウェアパッケージをアップグレードしたい場合は、 オプションを選択します。
注記
cman
、rgmanager
、modcluster
及びそれら全ての依存関係)、それらはインストールされます。インストールできなければ、ノードの作成は失敗します。 - クラスター化ストレージが必要な場合は、を選択します。これにより、クラスター化ストレージをサポートするパッケージがダウンロードされ、クラスター化 LVM が有効になります。ただし、これは Resilient Storage アドオン、又は Scalable File System アドオンへのアクセスがある場合にのみ選択してください。
- クラスターソフトウェアがノードにインストールされます (又は、適切なソフトウェアパッケージがインストールされたことが確認されます)。
- クラスター設定ファイルが更新され、クラスター内の各ノードに伝播します。
- 追加されたノード群がクラスターに参加します。
クラスターが作成中であることを知らせるメッセージが表示されます。クラスターの準備ができると、図3.4「クラスターノードの表示」 にあるように新規作成されたクラスターのステータスが表示されます。ricci がどのノードでも稼働していない場合は、クラスター作成は失敗することに注意して下さい。図3.4 クラスターノードの表示
- クラスターを作成するために 「クラスターからのメンバーの削除」 を参照してください。をクリックした後に、クラスターノード表示ページの上部にあるメニューから 又は の機能をクリックすることで、クラスターに対するノードの追加/削除ができます。クラスター全体を削除しない限り、ノードを削除するにはまずノードを停止する必要があります。現在稼働中の既存のクラスターからノードを削除する方法については
注記
クラスターからクラスターノードの削除は、元に戻すことが不可能な破壊的な操作です。
3.5. グローバルクラスタープロパティ
3.5.1. 全般プロパティの設定
1
にセットされており、クラスター設定を変更する度に自動的に増加します。ただし、別の値にセットする必要がある場合は、 テキストボックスで指定できます。
3.5.2. フェンスデーモンプロパティの設定
fenced
) が待機する秒数です。 のデフォルト値は、0
です。この値はクラスターとネットワークのパフォーマンスに合わせて変更できます。fenced
) の待機時間 (秒数) です。luci は、 の値を3
に設定します。一般的な の値は 20 秒から 30 秒の間となっていますが、クラスターやネットワークのパフォーマンスに左右されます。
注記
3.5.3. ネットワークの設定
- これがデフォルト設定です。このオプションが選択されている場合、Red Hat High Availability アドオンソフトウェアはクラスター ID を基にしてマルチキャストアドレスを作成します。アドレスの下位 16 ビットを生成して、それを IP プロトコルが IPV4 又は IPV6 であるかに応じてアドレスの上部に追加します:
- IPV4 の場合 — 形成されるアドレスは、239.192 に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
- IPV6 の場合 — 形成されるアドレスは、FF15:: に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
注記
クラスター ID は、各クラスター用にcman
が生成する一意の識別子です。クラスター ID を表示するには、1 つのクラスターノードでcman_tool status
コマンドを実行します。 - 特定のマルチキャストアドレスを使用する必要がある場合は、このオプションを選択してテキストボックスにマルチキャストアドレスを入力します。マルチキャストアドレスを指定する場合は、
cman
が使用する 239.192.x.x シリーズ(IPv6 の場合は FF15::)を使用することをお勧めします。この範囲以外のマルチキャストアドレスを使用すると、予期できない結果が生じる場合があります。例えば、224.0.0.x (「ネットワーク上の全ホスト」) を使用した場合、正しくルートされないか、一部のハードウェアでは全くルートされない可能性さえあります。マルチキャストアドレスを指定/修正した場合は、それを反映させるためにクラスターを再起動する必要があります。Conga を使ったクラスターの起動/停止に関する詳細は、「クラスターの起動、停止、再起動、削除」 を参照してください。注記
マルチキャストアドレスを指定する場合、クラスターパケットが通過するルーターの設定を確認するようにしてください。一部のルーターはアドレスを認識するのに長時間かかり、クラスターのパフォーマンスに重大な影響を与える場合があります。 - Red Hat Enterprise Linux 6.2 リリースでは、クラスター内のノードは UDP ユニキャストトランスポートのメカニズムを使用することで通信可能となっています。ただし、クラスターネットワークについては IP マルチキャストの使用を推奨してます。UDP ユニキャストは、IP マルチキャストを使用できない場合に活用する代替手段となります。UDP ユニキャストを使った GFS2 のデプロイメントは推奨されません。
3.5.4. 冗長リングプロトコルの設定
3.5.5. Quorum Disk の設定
注記
パラメーター | 説明 | ||||
---|---|---|---|---|---|
mkqdisk ユーティリティによって作成される quorum disk のラベルを指定します。このフィールドが使用されると、quorum デーモンは /proc/partitions ファイルを読み取り、各ブロックデバイスの qdisk 署名を確認して、指定したラベルと比較します。これは、quorum デバイス名がノード間で異なる場合の設定に役立ちます。 | |||||
| |||||
ノードが「生存」と見なされるための最低限のスコア。スコアが省略されている場合や「0」にセットされていると、デフォルトの関数である floor((n+1)/2) が使用されます。n はヒューリスティックのスコアの合計です。 の値は、ヒューリスティックのスコアの合計を超過してはいけません。超過した場合は、quorum disk は利用できません。 |
注記
/etc/cluster/cluster.conf
) に変更を伝播します。ただし、quorum disk が動作する、あるいは quorum disk のパラメーターに行った変更が反映されるには、クラスターを再起動 (「クラスターの起動、停止、再起動、削除」 を参照) して、各ノードで qdiskd
デーモンが再起動することを確認する必要があります。
3.5.6. ロギング設定
syslog
へのメッセージを有効にします。 及び を選択できます。 設定は、選択したレベル以上でメッセージがsyslog
に送信されることを意味しています。
syslog
とログファイルの設定を指定することも可能です。
3.6. フェンスデバイスの設定
注記
- フェンスデバイスの作成 —「フェンスデバイスの作成」 を参照してください。フェンスデバイスを作成して命名した後は、「クラスターメンバー用のフェンシングの設定」 に示してあるようにクラスター内の各ノード用にフェンスデバイスを設定できます。
- フェンスデバイスの更新 — 「フェンスデバイスの修正」 を参照してください。
- フェンスデバイスの削除 — 「フェンスデバイスの削除」 を参照してください。
注記

図3.5 luci フェンスデバイスの設定ページ
3.6.1. フェンスデバイスの作成
- Add Fence Device (Instance) (フェンスデバイス(インスタンス)の追加) ダイアログボックスが表示されます。このダイアログボックスから、設定するフェンスデバイスのタイプを選択します。設定ページから、 をクリックします。 をクリックすると、
- フェンスデバイスのタイプに応じて、Add Fence Device (Instance) ダイアログボックス内の情報を指定します。フェンスデバイスパラメーターについての詳細情報は、付録A フェンスデバイスパラメーター を参照してください。「クラスターメンバー用のフェンシングの設定」 で示してあるように、一部のケースでは、個別のノード用にフェンスを設定する時にはフェンスデバイスに対してノード特有のパラメーターを追加で指定する必要があります。
3.6.2. フェンスデバイスの修正
- フェンスデバイスを修正するには、表示されたパラメーターへの変更を入力します。詳細は 付録A フェンスデバイスパラメーター を参照してください。
3.6.3. フェンスデバイスの削除
注記
3.7. クラスターメンバー用のフェンシングの設定
3.7.1. 単一ノードに対する単一フェンスデバイスの設定
- クラスター固有のページから、クラスターディスプレイの上部にある luci ページの左側のメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。をクリックすることで、クラスター内のノード群のフェンシングを設定できます。これにより、クラスターを構成するノード群が表示されます。これはまた、
- 任意のノード名をクリックします。ノードのリンクをクリックすると、そのノードが設定された方法を示すリンク先のページが表示されます。ノード固有のページは、ノード上で現在稼働しているサービスと、そのノードがメンバーとなっているフェイルオーバードメインを表示します。既存のフェイルオーバードメインを修正するには、その名前をクリックします。フェイルオーバードメインの設定についての詳細は、「フェイルオーバードメインの設定」 をご覧ください。
- ノード固有のページで、の下にある をクリックします。これにより、 ダイアログボックスが表示されます。
- このノード用に設定しているフェンシングメソッドのを入力します。 これは Red Hat High Availability アドオンで使用される任意の名前です。これはデバイスの DNS 名と同じではありません。
- このメソッド用のフェンスインスタンスを設定するには、フェンスメソッドの下に表示される 「フェンスデバイスの作成」 の説明のとおり、以前に設定したフェンスデバイスを選択できる ドロップダウンメニューが表示されます。ボタンをクリックします。これにより、
- このメソッド用にフェンスデバイスを選択します。このフェンスデバイスにノード固有のパラメーターを設定する必要がある場合は、設定すべきパラメーターがディスプレイに表示されます。フェンシングパラメーターの詳細については 付録A フェンスデバイスパラメーター を参照してください。
注記
パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) 用には、ノード特定のパラメーター画面でがデフォルト選択されます。これにより、フェンス済みのノードのストレージへのアクセスは、再起動されるまでは再度有効になりません。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node
(8) の man ページを参照してください。
3.7.2. バックアップフェンスデバイスの設定
- 「単一ノードに対する単一フェンスデバイスの設定」 に記載されている手順に従って、ノードにプライマリフェンシングメソッドを設定します。
- 定義したプライマリメソッドのディスプレイで、をクリックします。
- このノードに設定するバックアップフェンシングメソッドの名前を入力して、をクリックします。これにより、先ほどプライマリフェンスメソッドの下に追加したメソッドを示すノード固有の画面が表示されます。
- 「フェンスデバイスの作成」 の説明のとおり、以前に設定したフェンスデバイスを選択できるドロップダウンメニューが表示されます。をクリックしてこのメソッドにフェンスインスタンスを設定します。これにより、
- このメソッド用にフェンスデバイスを選択します。このフェンスデバイスにノード固有のパラメーターを設定する必要がある場合は、設定すべきパラメーターがディスプレイに表示されます。フェンシングパラメーターの詳細については 付録A フェンスデバイスパラメーター を参照してください。
3.7.3. 冗長電源装置を持つノードの設定
- 冗長電源を持つノードにフェンシングを設定するには、まず各電源スイッチをクラスター用のフェンスデバイスとして設定する必要があります。フェンスデバイスの設定に関する詳細は、「フェンスデバイスの設定」 を参照してください。
- クラスター固有のページから、クラスターディスプレイの上部にある luci ページの左側のメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。をクリックします。これにより、クラスターを構成するノード群が表示されます。これはまた、
- 任意のノード名をクリックします。ノードのリンクをクリックすると、そのノードが設定された方法を示すリンク先のページが表示されます。
- ノード固有のページで、をクリックします。
- このノードに設定するフェンシングメソッドの名前を入力します。
- 「フェンスデバイスの作成」 の説明のとおり、以前に設定したパワーフェンシングデバイスを選択できるドロップダウンメニューが表示されます。をクリックすることで、このメソッド用のフェンスインスタンスとして 1 つ目の電源装置を設定します。これにより、
- このメソッドにパワーフェンスデバイスの 1 つを選択して、このデバイス用に適切なパラメーターを入力します。
- 1 つ目のパワーフェンシングデバイスを設定した同じフェンスメソッドの下で、「フェンスデバイスの作成」 の説明のとおり、以前に設定した 2 つ目のパワーフェンシングデバイスを選択できるドロップダウンメニューが表示されます。をクリックします。これにより、
- このメソッドに 2 つ目のパワーフェンスデバイスを選択して、このデバイス用に適切なパラメーターを入力します。
- 図3.6「二重パワーフェンシング設定」 で示しています。をクリックします。これで、フェンスメソッドとフェンスインスタンスを表示するノード固有の画面に戻り、各デバイスがシステム電源を連続でオフ/オンにすることを表示します。これは
図3.6 二重パワーフェンシング設定
3.8. フェイルオーバードメインの設定
- Unrestricted(制限なし) — 優先するメンバーのサブセットを指定できるようにしますが、このドメインに割り当てられたクラスターサービスはいずれの利用可能なメンバーでも実行できます。
- Restricted(制限あり) — 特定のクラスターサービスを実行できるメンバーを制限できるようにします。制限されたフェイルオーバードメインのメンバーがどれも使用できない場合は、クラスターサービスを (手動あるいはクラスターソフトウェアによっても) 開始できません。
- Unordered(優先順なし) — クラスターサービスが優先順なしのフェイルオーバードメインへ割り当てられる場合、クラスターサービスを実行するメンバーは、優先順なしの利用可能なフェイルオーバードメインメンバーから選択されます。
- Ordered(優先順あり) — フェイルオーバードメインのメンバー間で優先順を指定できるようにします。一覧のトップにあるメンバーが最優先となり、次に一覧の 2 番目のメンバー、その後も順に続きます。
- Failback(フェイルバック) — フェイルオーバードメイン内のサービスが、ノード障害の前に元々実行していたノードへフェイルバックするかどうかを指定できるようにします。この特性の設定が役立つのは、ノードが繰り返し失敗し、それが優先順ありのフェイルオーバードメインの一部であるような状況です。この状況では、ノードがフェイルオーバードメイン内の優先ノードである場合には、優先ノードと別のノード間でサービスがフェイルオーバーとフェイルバックを繰り返す可能性があるため、パフォーマンスに重大な影響を与えることになります。
注記
優先順のあるフェイルオーバーが設定されている場合にのみ、フェイルバックの特性が利用できます。
注記
注記
httpd
など) を実行するためのクラスターを設定する作業を最小限にできます。このためには、クラスターサービスを実行する全てのメンバー上で、設定を同一にする必要があります。クラスターサービスを実行するようクラスター全体を設定する代わりに、クラスターサービスに関連付ける制限ありのフェイルオーバードメイン内のメンバーのみを設定するだけで済みます。
注記
3.8.1. フェイルオーバードメインの追加
- クラスター固有のページから、クラスターディスプレイの上部にあるをクリックすることで、クラスター用のフェイルオーバードメインを設定できます。これにより、このクラスター用に設定したフェイルオーバードメインが表示されます。
- 図3.7「luci フェイルオーバードメイン設定のダイアログボックス」 で示してあるように、Add Failover Domain to Cluster(フェイルオーバードメインをクラスターに追加)ダイアログボックスが表示されます。をクリックします。 をクリックすると
図3.7 luci フェイルオーバードメイン設定のダイアログボックス
- Add Failover Domain to Cluster ダイアログボックスで、 テキストボックスでフェイルオーバードメイン名を指定します。
注記
名前は、クラスター内で使用されている他の名前に対して、その目的を区別できるような説明的な名前にすることをお勧めします。 - フェイルオーバードメイン内のメンバーのフェイルオーバー優先度のセッティングを有効にするには、チェックボックスをクリックします。 にチェックマークを入れると、その優先度の値 をフェイルオーバードメインのメンバーとして選択した各ノードに設定できます。
- このフェイルオーバードメイン内のメンバーにフェイルオーバーを限定するには、チェックボックスをクリックします。 にチェックマークを入れると、このフェイルオーバードメインに割り当てられたサービスはこのフェイルオーバードメイン内のノードのみにフェイルオーバーします。
- ノードがこのフェイルオーバードメイン内にフェイルバックしないように指定するには、チェックボックスをクリックします。 にチェックマークを入れた場合に、サービスが優先ノードからフェイルオーバーすると、サービスは回復後にそのオリジナルノードにフェイルバックしません。
- このフェイルオーバードメインのメンバーを設定します。フェイルオーバードメインのメンバーになる予定の各ノードのチェックボックスをクリックします。 にチェックマークが入っている場合は、フェイルオーバードメインの各メンバー用の テキストボックス内で優先度を設定します。
- Failover Domains ページが表示されます。新規のドメインが作成されたことを示すメッセージが表示されます。ページをリフレッシュしてステータスを更新してください。をクリックします。これにより、新規に作成したフェイルオーバードメインを表示する
3.8.2. フェイルオーバードメインの修正
- クラスター固有のページから、クラスターディスプレイの上部にあるをクリックすることで、クラスター用のフェイルオーバードメインを設定できます。これにより、このクラスター用に設定されたフェイルオーバードメインが表示されます。
- フェイルオーバードメイン名をクリックします。フェイルオーバードメインの設定ページが表示されます。
- フェイルオーバードメインの、 、又は のプロパティを修正するには、プロパティ横のチェックボックスにチェックマークを入れるか外してから、 をクリックします。
- フェイルオーバードメインのメンバーシップを修正するには、クラスターメンバーの横にあるチェックボックスにチェックマークを入れるか外します。フェイルオーバードメインの優先度が設定されている場合は、クラスターメンバーの優先度設定も修正できます。をクリックします。
3.8.3. フェイルオーバードメインの削除
- クラスター固有のページから、クラスターディスプレイの上部にあるをクリックすることで、クラスター用のフェイルオーバードメインを設定できます。これにより、このクラスター用に設定されたフェイルオーバードメインが表示されます。
- 削除するフェイルオーバードメインにチェックマークを入れます。
3.9. グローバルクラスターリソースの設定
- クラスター固有のページから、クラスターディスプレイの上部にあるをクリックすることで、クラスターにリソースを追加できます。これにより、そのクラスター用に設定されたリソースが表示されます。
- 追加するリソース用のリソースパラメーターを入力します。付録B HA リソースパラメーター はリソースパラメーターについて説明しています。
- Resources を表示するリソースページに戻ります。ここでは、追加されたリソース (及び他のリソース) が表示されます。をクリックします。 をクリックすると、
- luci の ページから、修正するリソースの名前をクリックします。これで、リソースのパラメーターが表示されます。
- リソースパラメーターを編集します。
- luci の ページから、削除するリソースのチェックボックスをクリックします。
3.10. クラスターへのクラスターサービスの追加
- クラスター固有のページから、クラスターディスプレイの上部にある 「高可用性サービスの管理」 で説明してあるように、 ページからサービスの起動/再起動/無効を行うことも可能です)。をクリックすることで、クラスターへサービスを追加できます。これにより、そのクラスター用に設定されているサービスが表示されます (
- Add Service Group to Cluster ダイアログボックスにある、 テキストボックスにサービスの名前を入力します。
注記
名前は、クラスター内の他のサービスと明白に区別できる名前を使用してください。 - クラスターが開始して稼働する時に、サービスが自動起動するようにしたい場合は、いない 場合は、クラスターが停止状態から復帰する時に手動でサービスを起動する必要があります。チェックボックスにチェックマークを入れます。このチェックボックスにチェックマークが入って
- クラスターにフェイルオーバードメインを設定した場合、「フェイルオーバードメインの設定」 を参照してください。パラメーターのドロップダウンメニューを使用してこのサービス用にフェイルオーバードメインを選択できます。フェイルオーバードメインの設定についての詳細は、
- サービスの回復ポリシーとして又は を選択した場合、サービスの再配置/無効化までの再起動が失敗する最大回数と、再起動を破棄するまでの時間を秒単位で指定することができます。
- サービスにリソースを追加するには、のみ に利用可能な新規リソースの追加を行うことができます。をクリックします。 をクリックすると、 ドロップダウンボックスが表示され、既存のグローバルリソースの追加、又はこのサービス
注記
フローティング IP アドレスリソースを含むクラスターサービスの設定時には、IP リソースを最初のエントリーとして設定する必要があります。- 既存のグローバルリソースを追加するには、「グローバルクラスターリソースの設定」 をご覧ください。ドロップダウンボックスから既存のリソース名をクリックします。設定するサービス用の ページ上にリソースとそのパラメーターが表示されます。グローバルリソースの追加/修正についての詳細は
- このサービスにのみ利用可能な新規リソースを追加するには、付録B HA リソースパラメーター は、リソースパラメーターについて説明しています。ドロップダウンボックスから設定するリソースのタイプを選択して、追加するリソースのリソースパラメーターを入力します。
- リソースをサービスに追加する場合、それが既存のグローバルリソース又はこのサービスのみに利用可能なリソースであるかに関わらず、リソースを又は と指定できます。リソースを独立したサブツリーと指定した場合、リソースに障害が発生すると、システムが通常の回復を試行する前に (サービス全体ではなく) そのリソースのみが再起動します。そのサービス用に回復ポリシーを実装するまでに、ノード上のそのリソースに対して試行する再起動の最大回数を指定できます。また、システムがそのサービスに回復ポリシーを実装するまでの時間を秒単位で指定することもできます。リソースを非クリティカルなリソースと指定した場合、リソースに障害が発生すると、そのリソースのみが再起動します。リソースが失敗を繰り返す場合は、サービス全体ではなくそのリソースのみが無効になります。リソースを無効にするまでに、ノード上のそのリソースに対して試行する再起動の最大回数を指定できます。また、システムがそのリソースを無効にするまでの時間を秒単位で指定することもできます。
- 定義するリソースに子リソースを追加したい場合は、をクリックします。 をクリックすると、 ドロップダウンボックスが表示され、既存のグローバルリソースの追加、又はこのサービスのみに利用可能な新規リソースの追加を行うことができます。使用している要件に合うように、リソースへ子リソースを追加し続けることも可能です。
注記
Samba サービスのリソースを追加する場合は、別のリソースの子としてではなく、そのサービスに直接追加します。注記
フローティング IP アドレスリソースを含むクラスターサービスの依存関係ツリー設定時には、IP リソースを別のリソースの子としてではなく、最初のエントリーとして設定する必要があります。 - リソース群のサービスへの追加、子リソースのリソース群への追加が完了したら、をクリックします。 をクリックすると、追加済みのサービス(及び他のサービス群)を表示する ページに戻ります。
注記
ifconfig
コマンドではなく) /sbin/ip addr show
コマンドを使用します。以下は、クラスターサービスを実行しているノードで /sbin/ip addr show
コマンドを実行した場合の出力です。
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000 link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0 inet6 fe80::205:5dff:fe9a:d891/64 scope link inet 10.11.4.240/22 scope global secondary eth0 valid_lft forever preferred_lft forever
- サービスパラメーターを編集します。
- luci ページから、削除するサービス用のチェックボックスをクリックします。
- Red Hat Enterprise Linux 6.3 以降は、luci がサービスを削除する前に、サービスグループの削除を確認するメッセージが表示され、サービスを構成するリソースを停止します。サービスを削除せずにダイアログボックスを閉じるには、 をクリックします。選択したサービスを削除するには、 をクリックしてください。
第4章 Conga を使用した Red Hat High Availability アドオンの管理
4.1. luci インターフェースへの既存クラスターの追加
- luci ページの左側にあるメニューの をクリックします。 画面が表示されます。
- 既存クラスター内にあるいずれかのノードのホスト名と ricci パスワードを入力します。クラスター内の各ノードにはクラスターの全ての設定情報が含まれているため、これでクラスターを luci インターフェースに追加するための十分な情報を提供できます。
- クラスター内の各ノード用に個別の ricciパスワードを入力するか、パスワードを 1 つ入力して を選択します。
4.2. luci インターフェースからのクラスターの削除
- luci ページの左側にあるメニューの をクリックします。 画面が表示されます。
- 削除するクラスターを選択します。
- luci 管理 GUI からクラスターを削除するか確認されます。をクリックします。
4.3. クラスターノードの管理
4.3.1. クラスターノードの再起動
- クラスター固有のページから、クラスターディスプレイの上部にある luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、
- 再起動するノード用のチェックボックスをクリックすることでそのノードを選択します。
- ページ上部にあるメニューから機能を選択します。これにより選択したノードが再起動して、そのノードが再起動中であることを示すメッセージがページ上部に表示されます。
- ページをリフレッシュして、ノードが更新されていることを確認します。
4.3.2. ノードのクラスターに対する離脱/参加
Not a cluster member(クラスターメンバーではない)
として引き続き表示されます。クラスター設定からノードを完全に削除するための情報は 「クラスターからのメンバーの削除」 をご覧ください。
- クラスター固有のページから、クラスターディスプレイの上部にある luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、
- クラスターから離脱させるノードを選択するには、そのチェックボックスをクリックします。
- ページ上部のメニューから機能を選択します。これでページ上部にメッセージが表示され、ノードが停止中であることを示します。
- ページをリフレッシュして、ノードが更新されていることを確認します。
4.3.3. 稼働しているクラスターへのメンバーの追加
- クラスター固有のページから、クラスターディスプレイの上部にある luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、
- Add Nodes To Cluster(クラスターにノードを追加) のダイアログボックスが表示されます。をクリックします。 をクリックすると、
- ricci パスワードを入力します。 ricci エージェント用にデフォルトの 11111 以外の異なるポートを使用している場合は、このパラメーターを使用しているポートに変更します。テキストボックスにノード名を入力します。 テキストボックスに
- クラスター化ストレージをサポートしてクラスター化 LVM を有効にするパッケージをダウンロードするためにクラスター化ストレージが必要な場合は、のチェックボックスにチェックマークを入れます。これは、Resilient Storage アドオン又は Scalable File System アドオンにアクセスできる場合にのみ選択してください。
- さらにノードを追加するには、をクリックして、追加ノード毎に名前とパスワードを入力します。
- クラスターソフトウェアがノードにインストールされます (又は、適切なソフトウェアパッケージがインストールされたことが確認されます)。
- クラスター設定ファイルが更新され、クラスター内の各ノードに伝播します — 追加ノードも伝播します。
- 追加されたノードがクラスターに参加します。
ノードがクラスターに追加されていることを示すメッセージとともにページが表示されます。ページをリフレッシュして、ステータスを更新します。- ノード追加のプロセスが完了したら、「フェンスデバイスの設定」 に示してあるように新規追加ノードのノード名をクリックしてこのノード用にフェンシングを設定します。
4.3.4. クラスターからのメンバーの削除
- クラスター固有のページから、クラスターディスプレイの上部にある luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、
注記
ノードの削除時にノード上で実行中のサービスをフェイルオーバーさせるには、次の手順を省略してください。 - 削除されるノード上で実行中の各サービスを無効/再配置します。サービスの無効と再配置の詳細については 「高可用性サービスの管理」 を参照してください。
- 削除するノード、又はノード群を選択します。
- Nodes ページはノードが削除されていることを示します。ページをリフレッシュして、現在のステータスを確認します。をクリックします。
重要
4.4. クラスターの起動、停止、再起動、削除
Not a cluster member
のステータスで引き続きクラスターノードのディスプレイに表示されます。
- 各ノードの横にあるチェックボックスをクリックすることで、クラスター内の全てのノードを選択します。
- ページ上部のメニューから機能を選択します。これにより、メッセージがページ上部に表示され各ノードが停止されることを示します。
- ページをリフレッシュして、ノード群が更新されていることを確認します。
- 各ノードの横にあるチェックボックスをクリックすることで、クラスター内の全てのノードを選択します。
- ページ上部のメニューから機能を選択します。
- ページをリフレッシュして、ノード群が更新されていることを確認します。
重要
- 各ノードの横にあるチェックボックスをクリックすることで、クラスター内の全てのノードを選択します。
- ページ上部のメニューから機能を選択します。
4.5. 高可用性サービスの管理
- サービスの起動
- サービスの再起動
- サービスの無効化
- サービスの削除
- サービスの再配置
- Start on node...(指定ノードで開始) ドロップダウンボックスから、サービスを再配置したいノードを選択して、 アイコンをクリックします。画面上部にメッセージが表示され、サービスが起動していることを示します。選択したノード上でサービスが稼働していることを示す画面を確認するには、画面をリフレッシュする必要がある場合があります。
注記
選択した実行中のサービスがvm
サービスの場合、ドロップダウンボックスはrelocate
オプションの代わりにmigrate
オプションを表示します。
注記
4.6. luci 設定のバックアップと復元
/var/lib/luci/data/luci.db
ファイルに格納されている luci データベースのバックアップをとることができます。これは cluster.conf
ファイルに格納されているクラスター設定自体ではありません。代わりに、luci が管理するユーザー、クラスター、関連プロパティの一覧が含まれています。デフォルトでは、この手順で作成するバックアップは luci.db
ファイルと同じディレクトリに書き込まれます。
service luci stop
を実行します。service luci backup-db
を実行します。オプションとして、backup-db
コマンドにパラメーターとしてファイル名を指定することができます。これにより、そのファイルに luci データベースが書き込まれます。例えば、luci データベースを/root/luci.db.backup
ファイルに書き込むには、service luci backup-db /root/luci.db.backup
コマンドを実行します。ただし、/var/lib/luci/data/
以外の場所に書き込まれるバックアップファイル (service luci backup-db
の使用時に指定するファイル名を持つバックアップ) は、list-backups
コマンドの出力には表示されない点に注意してください。service luci start
を実行します。
service luci stop
を実行します。service luci list-backups
を実行します。復元するファイル名に注意してください。service luci restore-db /var/lib/luci/data/lucibackupfile
を実行します。ここでは、lucibackupfile が復元するバックアップファイルです。例えば、次のコマンドはluci-backup20110923062526.db
バックアップファイルに格納された luci 設定情報を復元します:service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db
service luci start
を実行します。
host.pem
ファイルを失ったような場合は、クラスターノードを再認証するために手動でクラスターを luci に追加しなおす必要があります。
luci1
マシンで行われ、バックアップの復元は luci2
マシンで行われます。
- 以下の一連のコマンドを実行して、
luci1
で luci バックアップを作成します。また、SSL 証明書ファイルと luci バックアップをluci2
にコピーします。[root@luci1 ~]#
service luci stop
[root@luci1 ~]#service luci backup-db
[root@luci1 ~]#service luci list-backups
/var/lib/luci/data/luci-backup20120504134051.db [root@luci1 ~]#scp /var/lib/luci/certs/host.pem /var/lib/luci/data/luci-backup20120504134051.db root@luci2:
luci2
マシンで、luci がインストールされ実行中でないことを確認してください。インストールされていない場合はインストールしてください。- 以下の一連のコマンドを実行して、認証が適切であることを確認し、
luci1
からluci2
への luci データベースの復元を行います。[root@luci2 ~]#
cp host.pem /var/lib/luci/certs/
[root@luci2 ~]#chown luci: /var/lib/luci/certs/host.pem
[root@luci2 ~]#/etc/init.d/luci restore-db ~/luci-backup20120504134051.db
[root@luci2 ~]#shred -u ~/host.pem ~/luci-backup20120504134051.db
[root@luci2 ~]#service luci start
第5章 ccs コマンドを使用した Red Hat High Availability アドオンの設定
ccs
クラスター設定コマンドのサポートを提供しています。ccs
コマンドにより、管理者は cluster.conf
クラスター設定ファイルの作成/修正/表示が可能です。ccs
コマンドを使用して、クラスター設定ファイルをローカルファイルシステム又はリモートノード上で設定できます。さらには、ccs
コマンドにより、管理者は設定済のクラスター内にある 1 つ又はすべてのノードでクラスターサービスの起動と停止を行うこともできます。
ccs
コマンドを使用した Red Hat High Availability アドオンクラスター設定ファイルの設定方法について説明しています。実行中のクラスターを管理するための ccs
コマンドの使用に関しては 6章Red Hat High Availability アドオンを使用した ccs の管理 をご覧ください。
注記
注記
cluster.conf
の要素と属性を参照します。cluster.conf
の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng
にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html
) にある注釈付きスキーマを参照してください。
5.1. 操作の概要
ccs
コマンドの使用に関する一般的な操作について説明します。
5.1.1. ローカルシステム上でのクラスター設定ファイルの作成
ccs
コマンドを使用すると、クラスターノードでクラスター設定ファイルを作成できます。あるいは、ローカルファイルシステムでクラスター設定ファイルを作成して、それをクラスター内のホストに送信することも可能です。これによりローカルマシンのファイルでの作業が可能になるため、バージョン管理下で維持管理ができます。別の方法として、ニーズに合わせてファイルをタグ付けすることも可能です。ccs
コマンドを使用するには、root 権限は必要ありません。
ccs
コマンドを使用してクラスターノード上でクラスター設定ファイルを作成/編集する場合、-h
オプションを使用して、ホスト名を指定します。これは、ホストの cluster.conf
ファイルを作成/編集することになります:
ccs -h host [options]
ccs
コマンドで -f
オプションを使用して、クラスターの操作を行う時に設定ファイル名を指定します。ファイル名は任意に指定できます。
ccs -f file [options]
ccs
コマンドで --setconf
オプションを使用して、ファイルをクラスターノードに送信することができます。クラスター内のホストマシン上で、送信したファイルは cluster.conf
と名前が付けられ、/etc/cluster
ディレクトリに配置されます。
ccs -h host -f file --setconf
5.1.2. 現在のクラスター設定の表示
ccs -h host --getconf
5.1.3. ccs コマンドを使用した ricci パスワードの指定
ccs
コマンドは cluster.conf
ファイルのコピーをクラスターのノード群に配布します。このコマンドの実行には、「ricci
の注意事項」 で説明してあるように、クラスターノード群に ricci がインストールされ稼働している必要があります。ricci を使用する場合は、いずれかのマシンから ricci とやりとりを行う初回時にパスワードが必要になります。
ccs
コマンドが必要な場合にパスワードをプロンプトします。別の方法として、-p
オプションを使用して、コマンドラインで ricci パスワードを指定することも可能です。
ccs -h host -p password --sync --activate
ccs
コマンドの --sync
オプションを使用して cluster.conf
ファイルをクラスター内の全ノードに伝播し、そのコマンドに ricci パスワードを指定する場合、ccs
コマンドはクラスター内の各ノードにそのパスワードを使用します。個々のノードで ricci に違うパスワードを設定する必要がある場合は、--setconf
に -p
オプションを付けて使用することで、設定ファイルを同時に 1 つのノードに配布できます。
5.1.4. クラスター設定コンポーネントの修正
ccs
コマンドを使用して、クラスターコンポーネント及びそれらの属性をクラスター設定ファイル内で設定します。そのファイルにクラスターコンポーネントを追加した後に、そのコンポーネントの属性を修正するには、定義したコンポーネントを削除してから、属性を修正して再度コンポーネントを追加しなければなりません。各コンポーネントでこれを実行する方法の詳細は、本章の個別のセクションで紹介しています。
cman
クラスターコンポーネントの属性は、クラスターコンポーネントの変更手順に例外を追加できます。この属性を変更するには、ccs
コマンドの --setcman
オプションを実行して、新しい属性を指定します。「以前の設定を上書きするコマンド」 に記載されているように、このオプションを指定すると、明示的に指定していない値はすべてデフォルト値にリセットされるので注意してください。
5.1.5. 以前の設定を上書きするコマンド
ccs
コマンドの中には、プロパティを設定すると上書きセマンティクスの実装をするオプションが複数あります。つまり、設定を何も指定せずにオプションの 1 つをつけて ccs
コマンドを実行できますが、全設定がデフォルト値にリセットされるということです。これらのオプションは以下のとおりです。
--settotem
--setdlm
--setrm
--setcman
--setmulticast
--setaltmulticast
--setfencedaemon
--setlogging
--setquorumd
# ccs -h hostname --setfencedaemon
post_fail_delay
プロパティを 5 に設定することができます。
# ccs -h hostname --setfencedaemon post_fail_delay=5
post_join_delay
プロパティを 10 にリセットすると、post_fail_delay
プロパティはデフォルト値にリセットされます。
# ccs -h hostname --setfencedaemon post_join_delay=10
post_fail_delay
と post_join_delay
の両方のプロパティをリセットするには、以下の例のように、同じコマンド内で両方を指定します。
# ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10
5.1.6. 設定の妥当性検証
ccs
コマンドを使用して、クラスター設定ファイルの作成/編集を行う場合、設定はクラスタースキーマに従って自動的に検証されます。Red Hat Enterprise Linux 6.3 リリース以降、ccs
コマンドは -h
オプションで指定するノードの /usr/share/cluster/cluster.rng
にあるクラスタースキーマに従って設定を検証します。これまでは、ccs
コマンドは ccs
コマンドでパッケージ化されたローカルシステムのクラスタースキーマである /usr/share/ccs/cluster.rng
を常に使用していました。-f
オプションを使用してローカルシステムを指定する場合は、ccs
コマンドはそのシステムで ccs
コマンドでパッケージ化されたクラスタースキーマの /usr/share/ccs/cluster.rng
を引き続き使用します。
5.2. 設定のタスク
ccs
を使用して Red Hat High Availability アドオンソフトウェアを設定するには、以下のステップを実行します。
- クラスター内の全てのノード上で ricci が稼働していることを確認。「ricci の起動」 を参照してください。
- クラスターを作成。「クラスターの作成」 を参照してください。
- フェンスデバイスを設定。「フェンスデバイスの設定」 を参照してください。
- クラスターメンバー用にフェンシングを設定。「クラスターメンバー用のフェンシングの設定」 を参照してください。
- フェイルオーバードメインを作成。「フェイルオーバードメインの設定」 を参照してください。
- リソースを作成。「グローバルクラスターリソースの設定」 を参照してください。
- クラスターサービスを作成。「クラスターへのクラスターサービスの追加」 を参照してください。
- 必要に応じて quorum disk を設定。「Quorum disk の設定」 を参照してください。
- グローバルクラスタープロパティを設定。「その他のクラスター設定」 を参照してください。
- クラスター設定ファイルを全てのクラスターノードに伝播。「クラスタノード群への設定ファイルの伝播」 を参照してください。
5.3. ricci の起動
- 使用しているクラスターノードの IP ポートは、ricci に対して有効である必要があります。クラスターノードの IP ポートを有効にする方法については 「クラスターノードでの IP ポートの有効化」 をご覧ください。
# service ricci start
Starting ricci: [ OK ]
5.4. クラスターの作成
ccs
コマンドを使用した、フェンシング、フェイルオーバードメイン、HA サービスのないスケルトンクラスター設定の作成/修正/削除の方法を説明しています。後続のセクションでは、これらの設定方法を説明します。
- クラスターの 1 つのノード上でクラスター設定ファイルを作成するには、
ccs
コマンドを使用します。これに、-h
パラメーターを付けるとファイルを作成するノードを指定でき、createcluster
オプションを付けるとクラスターの名前を指定できます:ccs -h host --createcluster clustername
例えば、以下のコマンドではmycluster
と呼ばれる設定ファイルをnode-01.example.com
に作成します:ccs -h node-01.example.com --createcluster mycluster
クラスター名は 15 文字以内にしてください。指定するホスト上に既にcluster.conf
ファイルが存在する場合は、次のコマンドを実行してその既存ファイルを入れ替えます。お使いのローカルシステムにクラスター設定ファイルを作成したい場合、-h
オプションではなく-f
オプションを指定してください。ファイルのローカル作成に関する情報は、「ローカルシステム上でのクラスター設定ファイルの作成」 を参照してください。 - クラスターに含まれるノードを設定するには、クラスター内の各ノードに対して以下のコマンドを実行します。ノード名の長さは、最大 255 バイトまでになります。
ccs -h host --addnode node
例えば、以下の 3 つのコマンドはnode-01.example.com
、node-02.example.com
、及びnode-03.example.com
のノードをnode-01.example.com
上にある設定ファイルに追加します:ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.com
クラスター用に設定されているノード群の一覧を表示するには、以下のコマンドを実行します:ccs -h host --lsnodes
例5.1「3 つのノードを追加した後のcluster.conf
ファイル」 は、クラスターmycluster
を作成した後のnode-01.example.com
、node-02.example.com
、及びnode-03.example.com
のノードを含むcluster.conf
設定ファイルを示しています。例5.1 3 つのノードを追加した後の
cluster.conf
ファイル<cluster name="mycluster" config_version="2"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
ノードをクラスターに追加する時に、定足数があるかどうか判定するのにノードが貢献する投票数を指定できます。クラスターノードの投票数をセットするには以下のコマンドを使用します:ccs -h host --addnode host --votes votes
ノードの追加時に、ccs
はノード識別子として使用される一意の整数をノードに割り当てます。ノードの作成時に手動でノード識別子を指定する場合は、以下のコマンドを使用します:ccs -h host --addnode host --nodeid nodeid
クラスターからノードを削除するには、次のコマンドを使用します:ccs -h host --rmnode node
5.5. フェンスデバイスの設定
post_fail_delay
属性は、ノードに障害が起こった後にノード (フェンスドメインのメンバー) をフェンスするまでフェンスデーモン (fenced
) が待機する秒数です。post_fail_delay
のデフォルト値は0
です。この値はクラスター及びネットワークパフォーマンスに合わせて変更できます。post-join_delay
属性は、ノードが fence ドメインを結合してからノードをフェンシングするまでの fence daemon (fenced
) の待機時間 (秒数) です。post_join_delay
のデフォルト値は、6
で、 の一般的な設定は 20 秒から 30 秒の間となっていますが、クラスターやネットワークのパフォーマンスにより左右されます。
post_fail_delay
および post_join_delay
属性の値を ccs
コマンドの--setfencedaemon
オプションでリセットします。ただし、ccs --setfencedaemon
コマンドを実行すると、明示的に設定された既存のフェンスデーモンプロパティをすべて上書きして、デフォルト値にリストアする点に注意してください。
post_fail_delay
属性の値を設定するには、以下のコマンドを実行します。すると、この属性値以外で、このコマンドで設定した既存のフェンスデーモンプロパティが、デフォルト値にリストアします。
ccs -h host --setfencedaemon post_fail_delay=value
post_join_delay
属性の値を設定するには、以下のコマンドを実行します。すると、この属性値以外で、このコマンドで設定した既存のフェンスデーモンプロパティが、デフォルト値にリストアします。
ccs -h host --setfencedaemon post_join_delay=value
post_join_delay
属性と post_fail_delay
属性両方の値を設定するには、以下のコマンドを実行します。
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value
注記
post_join_delay
属性と post_fail_delay
属性に関する詳細、及び変更可能な追加のフェンスデーモンプロパティの詳細については、fenced(8) の man ページ、/usr/share/cluster/cluster.rng
にあるクラスタースキーマ、/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
の注釈付きスキーマを参照してください。
ccs -h host --addfencedev devicename [fencedeviceoptions]
node1
の設定ファイルに、IP アドレスが apc_ip_example
、ログイン名が login_example
、パスワードが password_example
である my_apc
と呼ばれる APC フェンスデバイスを設定するには、次のコマンドを実行します。
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example login=login_example passwd=password_example
cluster.conf
設定ファイルの fencedevices
セクションを示しています。
<fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/> </fencedevices>
ccs
コマンドの使用方法については、「フェンスデバイスとフェンスデバイスオプションの一覧表示」 を参照してください。
ccs -h host --rmfencedev fence_device_name
myfence
と呼ばれるフェンスデバイスをクラスターノード node1
上にあるクラスター設定ファイルから削除するには、以下のコマンドを実行します:
ccs -h node1 --rmfencedev myfence
5.6. フェンスデバイスとフェンスデバイスオプションの一覧表示
ccs
コマンドを使用すると、利用可能なフェンスデバイスの一覧及び各フェンスタイプのオプション一覧を表示することができます。また、ccs
コマンドでは、使用しているクラスターに現在設定されているフェンスデバイスの一覧も表示できます。
ccs -h host --lsfenceopts
node1
で利用可能なフェンスデバイスを一覧表示します。サンプルの出力を表示します。
[root@ask-03 ~]# ccs -h node1 --lsfenceopts
fence_rps10 - RPS10 Serial Switch
fence_vixel - No description available
fence_egenera - No description available
fence_xcat - No description available
fence_na - Node Assassin
fence_apc - Fence agent for APC over telnet/ssh
fence_apc_snmp - Fence agent for APC over SNMP
fence_bladecenter - Fence agent for IBM BladeCenter
fence_bladecenter_snmp - Fence agent for IBM BladeCenter over SNMP
fence_cisco_mds - Fence agent for Cisco MDS
fence_cisco_ucs - Fence agent for Cisco UCS
fence_drac5 - Fence agent for Dell DRAC CMC/5
fence_eps - Fence agent for ePowerSwitch
fence_ibmblade - Fence agent for IBM BladeCenter over SNMP
fence_ifmib - Fence agent for IF MIB
fence_ilo - Fence agent for HP iLO
fence_ilo_mp - Fence agent for HP iLO MP
fence_intelmodular - Fence agent for Intel Modular
fence_ipmilan - Fence agent for IPMI over LAN
fence_kdump - Fence agent for use with kdump
fence_rhevm - Fence agent for RHEV-M REST API
fence_rsa - Fence agent for IBM RSA
fence_sanbox2 - Fence agent for QLogic SANBox2 FC switches
fence_scsi - fence agent for SCSI-3 persistent reservations
fence_virsh - Fence agent for virsh
fence_virt - Fence agent for virtual machines
fence_vmware - Fence agent for VMware
fence_vmware_soap - Fence agent for VMware over SOAP API
fence_wti - Fence agent for WTI
fence_xvm - Fence agent for virtual machines
ccs -h host --lsfenceopts fence_type
fence_wti
フェンスエージェントのフェンスオプションを一覧表示します。
[root@ask-03 ~]# ccs -h node1 --lsfenceopts fence_wti
fence_wti - Fence agent for WTI
Required Options:
Optional Options:
option: No description available
action: Fencing Action
ipaddr: IP Address or Hostname
login: Login Name
passwd: Login password or passphrase
passwd_script: Script to retrieve password
cmd_prompt: Force command prompt
secure: SSH connection
identity_file: Identity file for ssh
port: Physical plug number or name of virtual machine
inet4_only: Forces agent to use IPv4 addresses only
inet6_only: Forces agent to use IPv6 addresses only
ipport: TCP port to use for connection with device
verbose: Verbose mode
debug: Write debug information to given file
version: Display version information and exit
help: Display help and exit
separator: Separator for CSV created by operation list
power_timeout: Test X seconds for status change after ON/OFF
shell_timeout: Wait X seconds for cmd prompt after issuing command
login_timeout: Wait X seconds for cmd prompt after login
power_wait: Wait X seconds after issuing ON/OFF
delay: Wait X seconds before fencing is started
retry_on: Count of attempts to retry power on
ccs -h host --lsfencedev
5.7. クラスターメンバー用のフェンシングの設定
注記
5.7.1. 単一パワーベースのフェンスデバイスによるノードの設定
fence_apc
フェンシングエージェントを使用する my_apc
と呼ばれるフェンスデバイスを使います。この例では、「フェンスデバイスの設定」 にあるように、これまで my_apc
という名前のデバイスが --addfencedev
オプションで設定されていました。
- ノード用のフェンスメソッドを追加して、そのフェンスメソッドの名前を入力します。
ccs -h host --addmethod method node
例えば、クラスターノードnode-01.example.com
にある設定ファイル内でノードnode-01.example.com
用にAPC
と呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod APC node01.example.com
- メソッド用のフェンスインスタンスを追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先であるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
たとえば、クラスターノードnode-01.example.com
上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC
と呼ばれるメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、my_apc
と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1
APC
と呼ばれるメソッドで各ノードにフェンスメソッドが設定されます。フェンスメソッド用のデバイスは my_apc
をデバイス名として指定しますが、これは 「フェンスデバイスの設定」 で説明してあるように、以前に --addfencedev
オプションで設定したデバイスです。各ノードは、一意の APC スイッチパワーポート番号で設定されます。node-01.example.com
のポート番号は 1
で、node-02.example.com
のポート番号は 2
、node-03.example.com
のポート番号は 3
となります。
ccs -h node01.example.com --addmethod APC node01.example.com ccs -h node01.example.com --addmethod APC node02.example.com ccs -h node01.example.com --addmethod APC node03.example.com ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1 ccs -h node01.example.com --addfenceinst my_apc node02.example.com APC port=2 ccs -h node01.example.com --addfenceinst my_apc node03.example.com APC port=3
cluster.conf
」 は、クラスター内の各ノードにこれらのフェンシングメソッドとインスタンスを追加した後の cluster.conf
設定ファイルを示しています。
例5.2 パワーベースのフェンスメソッドを追加した後の cluster.conf
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="my_apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="my_apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="my_apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
5.7.2. 単一のストレージベースのフェンスデバイスによるノードの設定
on
または enable
の明示的なアクションが意図的に追加されたノードに対して設定を行った該当するフェンスデバイスをミラーするデバイスを指定します。
fence_node
(8) の man ページを参照してください。
sanswitch1
と呼ばれるフェンスデバイスを使用する単一のストレージベースのフェンスデバイスでノードを設定します。このフェンスデバイスは fence_sanbox2
フェンシングエージェントを使用します。
- ノード用のフェンスメソッドを追加して、そのフェンスメソッドの名前を入力します。
ccs -h host --addmethod method node
例えば、クラスターノードnode-01.example.com
にある設定ファイル内でノードnode-01.example.com
用にSAN
と呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod SAN node01.example.com
- メソッド用のフェンスインスタンスを追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先であるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
例えば、クラスターノードnode-01.example.com
上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、SAN
と呼ばれるメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、sanswitch1
と呼ばれるフェンスデバイス上の SAN スイッチパワーポート 11 を使用するとします:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
- このノード上でストレージベースのフェンスデバイスにアンフェンシングを設定するには、以下のコマンドを実行します。
ccs -h host --addunfence fencedevicename node action=on|off
SAN
と呼ばれるフェンスメソッドを各ノードに設定します。フェンスメソッド用のデバイスは sanswitch
をデバイス名として指定しますが、これは 「フェンスデバイスの設定」 で説明してあるように、以前に --addfencedev オプションで設定したデバイスです。各ノードは一意の SAN 物理ポート番号で設定されます。node-01.example.com
用のポート番号は 11
で、node-02.example.com
のポート番号は 12
、node-03.example.com
のポート番号は 13
となります。
ccs -h node01.example.com --addmethod SAN node01.example.com ccs -h node01.example.com --addmethod SAN node02.example.com ccs -h node01.example.com --addmethod SAN node03.example.com ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11 ccs -h node01.example.com --addfenceinst sanswitch1 node02.example.com SAN port=12 ccs -h node01.example.com --addfenceinst sanswitch1 node03.example.com SAN port=13 ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on ccs -h node01.example.com --addunfence sanswitch1 node02.example.com port=12 action=on ccs -h node01.example.com --addunfence sanswitch1 node03.example.com port=13 action=on
cluster.conf
」 は、フェンシングメソッド、フェンシングインスタンス、及びアンフェンシングをクラスター内の各ノードに追加した後の cluster.conf
設定ファイルを示しています。
例5.3 ストレージベースのフェンスメソッドを追加した後の cluster.conf
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="SAN"> <device name="sanswitch1" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> </unfence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="SAN"> <device name="sanswitch1" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> </unfence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="SAN"> <device name="sanswitch1" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> </unfence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
5.7.3. バックアップフェンスデバイスの設定
注記
ccs
コマンドで設定する最初のメソッドがプライマリのフェンシングメソッドとなり、2 番目に設定するメソッドがバックアップのフェンシングメソッドとなります。この順序を変更するには、設定ファイルからプライマリのフェンシングメソッドを削除後、そのメソッドを再度追加しなおします。
ccs -h host --lsfenceinst [node]
my_apc
、フェンスエージェントは fence_apc
です。また、 バックアップ用のフェンスデバイスは sanswitch1
、フェンスエージェントは fence_sanbox2
を使用します。sanswitch1
デバイスはストレージベースのフェンスエージェントのため、このデバイスにアンフェンシングを設定する必要もあります。
- ノード用にプライマリのフェンスメソッドを追加して、そのフェンスメソッドに名前を付けます。
ccs -h host --addmethod method node
例えば、クラスターノードnode-01.example.com
にある設定ファイル内でノードnode-01.example.com
用のプライマリメソッドとしてAPC
と呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod APC node01.example.com
- プライマリメソッド用にフェンスインスタンスを追加します。ノード用に使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
たとえば、クラスターノードnode-01.example.com
上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC
と呼ばれるメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、my_apc
と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1
- ノード用のバックアップフェンスメソッドを追加してフェンスメソッドに名前を付けます。
ccs -h host --addmethod method node
例えば、クラスターノードnode-01.example.com
にある設定ファイル内でノードnode-01.example.com
用にSAN
と呼ばれるバックアップフェンスメソッドを設定するには、以下のコマンドを使用します:ccs -h node01.example.com --addmethod SAN node01.example.com
- バックアップメソッド用にフェンスインスタンスを追加します。ノード用に使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
例えば、クラスターノードnode-01.example.com
上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、SAN
と呼ばれるメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、sanswitch1
と呼ばれるフェンスデバイス上の SAN スイッチパワーポート 11 を使用するとします:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
sanswitch1
デバイスはストレージベースのデバイスであるため、このデバイス用にアンフェンシングを設定する必要があります。ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on
cluster.conf
」 は、パワーベースのプライマリのフェンシングメソッド及びストレージベースのバックアップのフェンシングメソッドを、クラスター内の各ノードに追加した後の cluster.conf
設定ファイルを示しています。
例5.4 バックアップのフェンスメソッドを追加した後の cluster.conf
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="my_apc" port="1"/> </method> <method name="SAN"> <device name="sanswitch1" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> </unfence </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="my_apc" port="2"/> </method> <method name="SAN"> <device name="sanswitch1" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> </unfence </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="my_apc" port="3"/> </method> <method name="SAN"> <device name="sanswitch1" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> </unfence </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
注記
5.7.4. 冗長電源を持つノードの設定
action
属性を off
に設定してから、各デバイスのaction
属性を on
に設定する必要があります。
- 冗長電源を持つノードにフェンシングを設定するには、各電源スイッチをクラスターのフェンスデバイスとして設定する必要があります。フェンスデバイスの設定に関する詳細は、「フェンスデバイスの設定」 を参照してください。クラスター用に現在設定されているフェンスデバイスの一覧を表示するには、次のコマンドを実行します:
ccs -h host --lsfencedev
- ノード用のフェンスメソッドを追加して、そのフェンスメソッドの名前を入力します。
ccs -h host --addmethod method node
例えば、クラスターノードnode-01.example.com
にある設定ファイル内でノードnode-01.example.com
用にAPC-dual
と呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod APC-dual node01.example.com
- 1 つ目の電源装置用のフェンスインスタンスをフェンスメソッドに追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。ここで
action
属性をoff
として設定します。ccs -h host --addfenceinst fencedevicename node method [options] action=off
例えば、クラスターノードnode-01.example.com
上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dual
と呼ばれるメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、apc1
と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action
属性をoff
に設定します。ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=off
- 2 つ目の電源装置用のフェンスインスタンスをフェンスメソッドに追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。ここで、このインスタンスにも
action
属性をoff
として設定します:ccs -h host --addfenceinst fencedevicename node method [options] action=off
例えば、クラスターノードnode-01.example.com
上の設定ファイル内に 2 つ目のフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dual
と呼ばれる 1 つ目のインスタンスに指定した時と同じメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、apc2
と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action
属性をoff
に設定します。ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=off
- ここで、1 つ目の電源装置用に別のフェンスインスタンスをフェンスメソッドに追加して、
action
属性をon
として設定します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。また、action
属性をon
として指定します:ccs -h host --addfenceinst fencedevicename node method [options] action=on
例えば、クラスターノードnode-01.example.com
上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dual
と呼ばれるメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、apc1
と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action
属性をon
に設定します。ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=on
- 2 つ目の電源装置用のフェンスインスタンスをフェンスメソッドに追加し、このインスタンス用に
action
属性をon
に指定します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。また、action
属性をon
に指定します。ccs -h host --addfenceinst fencedevicename node method [options] action=on
例えば、クラスターノードnode-01.example.com
上の設定ファイル内に 2 つ目のフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dual
と呼ばれる 1 つ目のインスタンスに指定した時と同じメソッドを使用してクラスターノードnode-01.example.com
をフェンスするために、apc2
と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action
属性をon
に設定します。ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=on
cluster.conf
」 は、2 つの電源装置用のフェンシングをクラスターの各ノードに追加した後の cluster.conf
設定ファイルを示しています。
例5.5 二重パワーフェンシングを追加した後の cluster.conf
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC-dual"> <device name="apc1" port="1"action="off"/> <device name="apc2" port="1"action="off"/> <device name="apc1" port="1"action="on"/> <device name="apc2" port="1"action="on"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC-dual"> <device name="apc1" port="2"action="off"/> <device name="apc2" port="2"action="off"/> <device name="apc1" port="2"action="on"/> <device name="apc2" port="2"action="on"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC-dual"> <device name="apc1" port="3"action="off"/> <device name="apc2" port="3"action="off"/> <device name="apc1" port="3"action="on"/> <device name="apc2" port="3"action="on"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc1" passwd="password_example"/> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc2" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
5.7.5. フェンスメソッドとフェンスインスタンスの削除
ccs -h host --rmmethod method node
node01.example.com
用に設定した APC
と呼ばれるフェンスメソッドを、クラスターノード node01.example.com
上のクラスター設定ファイルから削除するには、以下のコマンドを実行します:
ccs -h node01.example.com --rmmethod APC node01.example.com
ccs -h host --rmfenceinst fencedevicename node method
node01.example.com
用に設定された APC-dual
と呼ばれるメソッドの apc1
と呼ばれるフェンスデバイスの全てのインスタンスを、クラスターノード node01.example.com
上のクラスター設定ファイルから削除するには、以下のコマンドを実行します:
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
5.8. フェイルオーバードメインの設定
- Unrestricted(制限なし) — 優先するメンバーのサブセットを指定できるようにしますが、このドメインに割り当てられたクラスターサービスはいずれの利用可能なメンバーでも実行できます。
- Restricted(制限あり) — 特定のクラスターサービスを実行できるメンバーを制限できるようにします。制限されたフェイルオーバードメインのメンバーがどれも使用できない場合は、クラスターサービスを (手動あるいはクラスターソフトウェアによっても) 開始できません。
- Unordered(優先順なし) — クラスターサービスが優先順なしのフェイルオーバードメインへ割り当てられる場合、クラスターサービスを実行するメンバーは、優先順なしの利用可能なフェイルオーバードメインメンバーから選択されます。
- Ordered(優先順あり) — フェイルオーバードメインのメンバー間で優先順を指定できるようにします。一覧のトップにあるメンバーが最優先となり、次に一覧の 2 番目のメンバー、その後も順に続きます。
- Failback(フェイルバック) — フェイルオーバードメイン内のサービスが、ノード障害の前に元々実行していたノードへフェイルバックするかどうかを指定できるようにします。この特性の設定が役立つのは、ノードが繰り返し失敗し、それが優先順ありのフェイルオーバードメインの一部であるような状況です。この状況では、ノードがフェイルオーバードメイン内の優先ノードである場合には、優先ノードと別のノード間でサービスがフェイルオーバーとフェイルバックを繰り返す可能性があるため、パフォーマンスに重大な影響を与えることになります。
注記
優先順のあるフェイルオーバーが設定されている場合にのみ、フェイルバックの特性が利用できます。
注記
注記
httpd
など) を実行するためのクラスターを設定する作業を最小限にできます。このためには、クラスターサービスを実行する全てのメンバー上で、設定を同一にする必要があります。クラスターサービスを実行するようクラスター全体を設定する代わりに、クラスターサービスに関連付ける制限ありのフェイルオーバードメイン内のメンバーのみを設定するだけで済みます。
注記
- フェイルオーバードメインを追加するには、以下のコマンドを実行します:
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]
注記
名前は、クラスター内で使用されている他の名前に対して、その目的を区別できるような説明的な名前にすることをお勧めします。例として次のコマンドでは、node-01.example.com
上で制限なし、優先順あり、フェイルバックが可能なexample_pri
と呼ばれるフェイルオーバードメインを設定します:ccs -h node-01.example.com --addfailoverdomain example_pri ordered
- ノードをフェイルオーバードメインに追加するには、以下のコマンドを実行します:
ccs -h host --addfailoverdomainnode failoverdomain node priority
例えば、node-01.example.com
上の設定ファイルでフェイルオーバードメインexample_pri
を設定して、優先順位 1 を持つnode-01.example.com
、優先順位 2 を持つnode-02.example.com
、及び優先順位 3 を持つnode-03.example.com
を含むようにするには、以下のコマンド群を実行します:ccs -h node-01.example.com --addfailoverdomainnode example_pri node-01.example.com 1 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-02.example.com 2 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-03.example.com 3
ccs -h host --lsfailoverdomain
ccs -h host --rmfailoverdomain name
ccs -h host --rmfailoverdomainnode failoverdomain node
5.9. グローバルクラスターリソースの設定
- Global (グローバル) — クラスター内の全てのサービスに利用可能なリソースです。
- Service-specific(サービス特有) — 1 つのサービスにのみ利用可能なリソースです。
ccs -h host --lsservices
ccs -h host --addresource resourcetype [resource options]
node01.example.com
上のクラスター設定ファイルに追加します。リソースの名前は web_fs
で、ファイルシステムデバイスは /dev/sdd2
、ファイルシステムのマウントポイントは /var/www
、ファイルシステムタイプは ext3
となります。
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h host --rmresource resourcetype [resource options]
5.10. クラスターへのクラスターサービスの追加
- 以下のコマンドを使用してクラスターにサービスを追加します:
ccs -h host --addservice servicename [service options]
注記
名前は、クラスター内の他のサービスと明白に区別できる名前を使用してください。クラスター設定にサービスを追加する時、以下の属性を設定します。autostart
— クラスターの開始時にサービスを自動起動するかどうかを指定します。有効にするには「1」を、無効にするには「0」を使用します。デフォルトは有効です。domain
— フェイルオーバードメインを指定します(必要な場合)。exclusive
— 他のサービスが稼働していないノード上でのみサービスを稼働するポリシーを指定します。recovery
— サービスの回復ポリシーを指定します。オプションとしては、サービスの再配置、再起動、無効、再起動後に無効、があります。再起動の回復ポリシーは、システムが障害が発生したサービスを別のノードに再配置する前に、そのサービスの再起動を試行することを示しています。再配置のポリシーは、異なるノードでサービスの再起動を試行することを意味します。無効のポリシーは、いずれかのコンポーネントに障害が発生した場合にシステムがリソースグループを無効にすることを示しています。再起動後に無効のポリシーでは、サービスに障害が発生した場合システムがサービスの再起動を試行することを意味します。ただし、そのサービスの再起動が失敗すると、サービスはクラスター内の別のホストに移る代わりに無効になります。サービスの回復ポリシーとして又は を選択した場合、サービスの再配置/無効化までに再起動が失敗する最大回数と、再起動を破棄するまでの時間を秒単位で指定することができます。
例えば、フェイルオーバードメインexample_pri
を使用し、回復ポリシーrelocate
を持つexample_apache
と呼ばれるクラスターノードnode-01.example.com
にある設定ファイルにサービスを追加するには、以下のコマンドを使用します:ccs -h node-01.example.com --addservice example_apache domain=example_pri recovery=relocate
クラスターにサービスを設定する場合、クラスターに利用可能なサービスや各サービスに使用できるオプションの一覧を確認すると役立つ場合があります。利用可能なサービスとオプションの一覧を表示するためのccs
コマンドの使用方法については、「利用可能なクラスターサービスおよびリソースの一覧表示」 を参照してください。 - 以下のコマンドを使用してリソースをサービスに追加します:
ccs -h host --addsubservice servicename subservice [service options]
使用したいリソースのタイプに応じて、サービスにグローバル又はサービス特有のリソースを入力します。グローバルリソースを追加するには、ccs
コマンドに--addsubservice
オプションを使用してリソースを追加します。例えば、web_fs
と呼ばれるグローバルファイルシステムリソースをnode-01.example.com
にあるクラスター設定ファイル上のexample_apache
と呼ばれるサービスに追加するには、以下のコマンドを実行します:ccs -h node01.example.com --addsubservice example_apache fs ref=web_fs
サービス特有のリソースをサービスに追加するには、全てのサービスオプションを指定する必要があります。例えば、以前にweb_fs
をグローバルサービスとして定義していない場合は、次のコマンドを使ってそれをサービス特有のリソースとして追加できます:ccs -h node01.example.com --addsubservice example_apache fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
- 子サービスをサービスに追加するには、
ccs
コマンドに--addsubservice
オプションを使用して、サービスオプションを指定します。依存関係のツリー構造の中でサービスを追加する必要がある場合は、コロン (:) を使用して要素を区切り、括弧を使用して同じタイプのサブサービスを指定します。以下の例では、3 つ目のnfsclient
サービスをnfsclient
サービスのサブサービスとして追加します。これはnfsclient
サービスのサブサービスであり、そのnfsclient
サービスはservice_a
と呼ばれるサービスのサブサービスです。ccs -h node01.example.com --addsubservice service_a nfsclient[1]:nfsclient[2]:nfsclient
注記
Samba-service リソースを追加している場合は、それを他のリソースの子としてでは なく、直接サービスに追加します。注記
フローティング IP アドレスリソースを含むクラスターサービスの依存関係ツリー設定時には、IP リソースを最初のエントリーとして設定する必要があります。
注記
ifconfig
コマンドではなく) /sbin/ip addr show
コマンドを使用します。以下は、クラスターサービスを実行しているノードで /sbin/ip addr show
コマンドを実行した場合の出力です。
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000 link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0 inet6 fe80::205:5dff:fe9a:d891/64 scope link inet 10.11.4.240/22 scope global secondary eth0 valid_lft forever preferred_lft forever
ccs -h host --rmservice servicename
ccs -h host --rmsubservice servicename subservice [service options]
5.11. 利用可能なクラスターサービスおよびリソースの一覧表示
ccs
コマンドを使用すると、クラスターに利用可能なサービスおよびリソースの一覧を表示できます。ccs
コマンドを使用して、特定のサービスまたはリソースタイプに指定可能なオプションを一覧表示することもできます。
--lsresourceopts
は --lsserviceopts
のエイリアス)。
ccs -h host --lsserviceopts ccs -h host --lsresourceopts
node1
で利用可能なクラスターサービスおよびリソースを一覧表示します。サンプルの出力を表示します。
[root@ask-03 ~]# ccs -h node1 --lsserviceopts
service - Defines a service (resource group).
ASEHAagent - Sybase ASE Failover Instance
SAPDatabase - SAP database resource agent
SAPInstance - SAP instance resource agent
apache - Defines an Apache web server
clusterfs - Defines a cluster file system mount.
fs - Defines a file system mount.
ip - This is an IP address.
lvm - LVM Failover script
mysql - Defines a MySQL database server
named - Defines an instance of named server
netfs - Defines an NFS/CIFS file system mount.
nfsclient - Defines an NFS client.
nfsexport - This defines an NFS export.
nfsserver - This defines an NFS server resource.
openldap - Defines an Open LDAP server
oracledb - Oracle 10g Failover Instance
orainstance - Oracle 10g Failover Instance
oralistener - Oracle 10g Listener Instance
postgres-8 - Defines a PostgreSQL server
samba - Dynamic smbd/nmbd resource agent
script - LSB-compliant init script as a clustered resource.
tomcat-6 - Defines a Tomcat server
vm - Defines a Virtual Machine
action - Overrides resource action timings for a resource instance.
ccs -h host --lsserviceopts service_type
vm
サービス用のサービスオプションを一覧表示します。
[root@ask-03 ~]# ccs -f node1 --lsserviceopts vm
vm - Defines a Virtual Machine
Required Options:
name: Name
Optional Options:
domain: Cluster failover Domain
autostart: Automatic start after quorum formation
exclusive: Exclusive resource group
recovery: Failure recovery policy
migration_mapping: memberhost:targethost,memberhost:targethost ..
use_virsh: If set to 1, vm.sh will use the virsh command to manage virtual machines instead of xm. This is required when using non-Xen virtual machines (e.g. qemu / KVM).
xmlfile: Full path to libvirt XML file describing the domain.
migrate: Migration type (live or pause, default = live).
path: Path to virtual machine configuration files.
snapshot: Path to the snapshot directory where the virtual machine image will be stored.
depend: Top-level service this depends on, in service:name format.
depend_mode: Service dependency mode (soft or hard).
max_restarts: Maximum restarts for this service.
restart_expire_time: Restart expiration time; amount of time before a restart is forgotten.
status_program: Additional status check program
hypervisor: Hypervisor
hypervisor_uri: Hypervisor URI (normally automatic).
migration_uri: Migration URI (normally automatic).
__independent_subtree: Treat this and all children as an independent subtree.
__enforce_timeouts: Consider a timeout for operations as fatal.
__max_failures: Maximum number of failures before returning a failure to a status check.
__failure_expire_time: Amount of time before a failure is forgotten.
__max_restarts: Maximum number restarts for an independent subtree before giving up.
__restart_expire_time: Amount of time before a failure is forgotten for an independent subtree.
5.12. 仮想マシンのリソース
ccs
コマンドを使用してクラスター内で仮想マシンを設定する場合、--addvm
(addservice
オプションではなく) を使用できます。これにより、クラスター設定ファイルの rm
設定ノードで直接 vm
リソースが定義されることになります。
name
及び path
属性が必要です。name
属性は libvirt
ドメインの名前と一致し、path
属性は共有の仮想マシン定義が格納されるディレクトリを指定します。
注記
path
属性は、個々のファイルへのパスではなく、パス指定又はディレクトリの名前です。
/mnt/vm_defs
と呼ばれる共有ディレクトリに格納されている場合、次のコマンドは guest1
と呼ばれる仮想マシンを定義することになります。
# ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
cluster.conf
ファイルの rm
設定ノードに追加されます。
<vm name="guest1" path="/mnt/vm_defs"/>
5.13. Quorum disk の設定
注記
ccs -h host --setquorumd [quorumd options]
--setquorumd
オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
/usr/share/cluster/cluster.rng
にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
にある注釈付きスキーマを参照してください。
パラメーター | 説明 |
---|---|
秒単位の読み取り/書き込みサイクルの頻度 | |
十分に高いスコアがある時に quorum デーモンが cman に広告する投票数 | |
ノードが dead と宣言されるまでにミスするサイクル数 | |
ノードが「生存」と見なされるための最低限スコア。スコアが省略されている場合や「0」にセットされていると、デフォルトの関数である floor((n+1)/2) が使用されます。n はヒューリスティックのスコアの合計です。 の値は、ヒューリスティックのスコアの合計を超過してはいけません。超過した場合は、quorum disk は利用できません。 | |
quorum デーモンが使用するストレージデバイスです。このデバイスは全てのノードで同一でなければなりません。 | |
mkqdisk ユーティリティで作成される quorum disk のラベルを指定します。このフィールドにエントリがある場合は、ラベルは フィールドを上書きします。このフィールドが使用されると、 quorum デーモンは /proc/partitions を読み取り、見付かった全てのブロックデバイス上の qdisk 署名をチェックし、指定されたラベルと比較します。これは quorum デバイス名がノード間で異なる場合の設定に役立ちます。 |
ccs -h host --addheuristic [heuristic options]
パラメーター | 説明 |
---|---|
このヒューリスティックが利用可能か判断する際に使用されるプログラムへのパス。/bin/sh -c で実行可能なものなら何でも構いません。戻り値が 0 の場合は成功で、それ以外の値は失敗を意味します。このパラメーターは quorum ディスクを使用するために必要です。 | |
ヒューリスティックが投票される頻度 (秒数) です。いずれのヒューリスティックもデフォルトの間隔は 2 秒です。 | |
このヒューリスティックのウェイトです。ヒューリスティックのスコアを決定する時には注意が必要です。各ヒューリスティックのデフォルトのスコアは 1 です。 | |
ヒューリスティックが利用不可能と宣言されるまでの連続する失敗数。 |
ccs -h host --lsquorum
ccs -h host rmheuristic [heuristic options]
注記
qdiskd
デーモンを確実に再起動できます。
5.14. その他のクラスター設定
ccs
コマンドの使用方法について説明します:
ccs
コマンドを使用すると、totem
オプション、dlm
オプション、rm
オプション、及び cman
オプションを含む高度なクラスター設定のパラメーターを設定することもできます。これらのパラメーターを設定する方法についての詳細は ccs
(8) の man ページ、及び /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
にある注釈付きクラスター設定ファイルのスキーマをご覧ください。
ccs -h host --lsmisc
5.14.1. クラスター設定のバージョン
1
にセットされ、そのクラスター設定を修正する度に自動的に増加します。ただし、他の値に設定する必要がある場合は、以下のコマンドで値を指定できます:
ccs -h host --setversion n
ccs -h host --getversion
ccs -h host --incversion
5.14.2. マルチキャスト設定
- IPv4 の場合 — 形成されるアドレスは、239.192 に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
- IPv6 の場合 — 形成されるアドレスは、FF15:: に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
注記
cman
が生成する一意の識別子です。クラスター ID を表示するには、クラスターノードで cman_tool status
コマンドを実行します。
ccs -h host --setmulticast multicastaddress
--setmulticast
オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
cman
が使用する 239.192.x.x シリーズ(又は IPv6 の場合は FF15::)を使用することをお勧めします。この範囲以外のマルチキャストアドレスを使用すると、予期できない結果が生じる場合があります。例えば、224.0.0.x (「ネットワーク上の全ホスト」) を使用した場合、正しくルートされないか、一部のハードウェアでは全くルートされない可能性さえあります。
ccs
コマンドを使ったクラスターの起動/停止に関する詳細は、「クラスターの起動と停止」 を参照してください。
注記
ccs
コマンドに --setmulticast
オプションを使用します。マルチキャストアドレスは指定しないでください。
ccs -h host --setmulticast
5.14.3. 2 ノードクラスターの設定
ccs -h host --setcman two_node=1 expected_votes=1
--setcman
オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
ccs --setcman
コマンドを使用して two_node
オプションの追加/削除/修正を行った場合、変更を反映させるためにクラスターを再起動する必要があります。ccs
コマンドを使ったクラスターの起動/停止に関する詳細は、「クラスターの起動と停止」 を参照してください。
5.14.4. ロギング
/var/log/cluster/daemon.log
ファイルにログ記録されます:
ccs -h host --setlogging [logging options]
# ccs -h node1.example.com --setlogging debug=on
--setlogging
オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
ccs -h host --addlogging [logging daemon options]
corosync
及び fenced
デーモンのデバッグを有効にします:
#ccs -h node1.example.com --addlogging name=corosync debug=on
#ccs -h node1.example.com --addlogging name=fenced debug=on
ccs -h host --rmlogging name=clusterprocess
fenced
デーモンのデーモン固有のログ設定を削除します。
ccs -h host --rmlogging name=fenced
cluster.conf
(5) の man ページを参照してください。
5.14.5. 冗長リングプロトコルの設定
ccs
コマンドの --addalt
オプションを使用してノードに別の名前を追加します。
ccs -h host --addalt node_name alt_name
clusternet-node1-eth1
に別の名前 clusternet-node1-eth2
を設定します。
# ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1-eth2
ccs
コマンドの --setaltmulticast
オプションを使用します。
ccs -h host --setaltmulticast [alt_multicast_address] [alt_multicast_options].
clusternet-node1-eth1
ノードに、cluster.conf
ファイルで定義したクラスターに対する別のマルチキャストアドレス 239.192.99.88、ポート 888、TTL 3 を設定します。
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
ccs
コマンドの --setaltmulticast
オプションを指定しますが、マルチキャストアドレスは指定しないでください。「以前の設定を上書きするコマンド」 で記載されているように、このコマンドを実行すると、--setaltmulticast
オプションで設定可能なその他のプロパティがすべて、デフォルト値にリセットされる点に注意してください。
5.15. クラスタノード群への設定ファイルの伝播
ccs -h host --sync --activate
ccs -h host --checkconf
ccs -f file -h host --setconf
ccs -f file --checkconf
第6章 Red Hat High Availability アドオンを使用した ccs の管理
ccs
コマンドを使用して Red Hat High Availability アドオンを管理する上での各種管理タスクについて説明しています。ccs
コマンドは Red Hat Enterprise Linux 6.1 リリース以降のバージョンでサポートされています。本章は以下のようなセクションで構成されます。
6.1. クラスターノードの管理
ccs
コマンドを使用したノード管理機能を実行する方法を説明しています:
6.1.1. ノードのクラスターに対する離脱/参加
ccs
コマンドを使用すると、ノード上でクラスターサービスを停止することによりノードがクラスターから離脱するようにできます。ノードがクラスターから離脱しても、そのノードからクラスター設定情報を削除することにはなりません。ノードをクラスターから離脱させることで、クラスターの再起動時にノードが自動的に参加できないようにします。
-h
オプションで指定されたノード上のクラスターサービスが停止します:
ccs -h host --stop
-h
オプションで指定されたノード上でクラスターサービスを起動します:
ccs -h host --start
6.1.2. 稼働しているクラスターへのメンバーの追加
6.2. クラスターの起動と停止
ccs
コマンドを使用してクラスターを停止するには、以下のコマンドを使ってクラスター内の全てのノード上でクラスターサービスを停止します:
ccs -h host --stopall
ccs
コマンドを使用して稼働していないクラスターを起動するには、以下のコマンドを使ってクラスター内の全てのノード上でクラスターサービスを起動します:
ccs -h host --startall
6.3. クラスター内の問題の診断と是正
ccs
コマンドを使用してもいくつかの簡単なチェックを実行できます。
ccs -h host --checkconf
ccs -f file --checkconf
第7章 Red Hat High Availability の手動での設定
/etc/cluster/cluster.conf
) を直接編集してコマンドラインツールを使用することにより Red Hat High Availability アドオンを設定する方法を説明しています。本章は、まず提供されるサンプルのファイルから一度に 1 セクションずつ設定ファイルを構築する手順を紹介します。提供されているサンプルファイルから始める方法以外に、cluster.conf
の man ページからスケルトンの設定ファイルをコピーすることもできます。しかし、それを行った場合、本章で後ほど示される手順の情報と必ずしも合うとは限りません。クラスター設定ファイルを作成して設定する方法は他にもありますが、本章では、一度に 1 セクションずつ設定ファイルを構築する手順を提供します。また、この手順はあくまで使用しているクラスタリングニーズに適合するための設定ファイルを開発する出発点であることも注意してください。
重要
重要
cluster.conf
の要素と属性を参照します。cluster.conf
の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng
にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html
) にある注釈付きスキーマを参照してください。
重要
cman_tool version -r
コマンドを使用する必要があります。このコマンドを使用するには、ricci
が稼働していなければなりません。ricci を使用する場合は、いずれかのマシンから ricci とやりとりをする初回時にパスワードが必要となります。ricci
サービスについての詳細情報は、「ricci
の注意事項」 を参照してください。
注記
7.1. 設定のタスク
- クラスターを作成。「基本的なクラスター設定ファイルの作成」 を参照してください。
- フェンシングを設定。「フェンシングの設定」 を参照してください。
- フェイルオーバードメインを設定。「フェイルオーバードメインの設定」 を参照してください。
- HA サービスを設定。「HA サービスの設定」 を参照してください。
- 設定を確認。「設定の確認」 を参照してください。
7.2. 基本的なクラスター設定ファイルの作成
/etc/cluster/cluster.conf
) を作成して High Availability アドオンの実行を開始することができます。このセクションでは、単に開始点として、フェンシング、フェイルオーバードメイン、および HA サービスのないスケルトンクラスター設定ファイルを作成する方法を説明します。これ以降のセクションでは、設定ファイルでのこれらの部分を設定する方法を説明しています。
重要
- クラスター内のいずれかのノードで、例7.1「
cluster.conf
の例: 基本設定」 内のサンプルのテンプレートを使用して/etc/cluster/cluster.conf
を作成します。 - (オプション) 2 ノードクラスターを設定している場合は、設定ファイルに以下の行を追加して単一ノードでも定足数を維持できるようにします (例えば、1 つのノードが失敗した場合など):
<cman two_node="1" expected_votes="1"/>
cluster.conf
ファイルからtwo_node
オプションを追加/削除した時に、設定を更新した場合は、変更を反映させるためにクラスターを再起動する必要があります。クラスターの設定を更新する詳細については、「設定の更新」 を参照してください。two_node
オプションを指定する例は、例7.2「cluster.conf
の例: 基本的な 2 ノード設定」 を参照してください。 cluster
属性を使用してクラスター名と設定のバージョン番号であるname
とconfig_version
を指定します。(例7.1「cluster.conf
の例: 基本設定」 又は 例7.2「cluster.conf
の例: 基本的な 2 ノード設定」 を参照)。clusternodes
セクションで、clusternode
属性を使用して各ノードのノード名とノード ID であるname
とnodeid
を指定します。ノード名の長さは、最大 255 バイトまでになります。/etc/cluster/cluster.conf
を保存します。ccs_config_validate
コマンドを実行することで、クラスタースキーマ (cluster.rng
) に対するファイルの妥当性を検証します。例えば、[root@example-01 ~]#
ccs_config_validate
Configuration validates- 設定ファイルを各クラスターノード内の
/etc/cluster/
に伝播します。例えば、scp
コマンドを使用するとファイルを他のクラスターノードへ伝播できます。注記
クラスターの初回作成時には、この方法でクラスター設定ファイルを伝達する必要があります。クラスターがインストールされて稼働すると、クラスター設定ファイルはcman_tool version -r
コマンドを使用して伝達できるようになります。更新した設定ファイルの伝達にはscp
コマンドを使用することもできますが、scp
コマンドの使用中は、全てのノードでクラスターソフトウェアが停止する必要があります。さらに、scp
で更新済みの設定ファイルを伝達する場合は、ccs_config_validate
を実行することをお勧めします。注記
サンプルの設定ファイル内に他の要素と属性がありますが (例えば、fence
とfencedevices
)、それらは今すぐ設定する必要はありません。本章の後半の手順では、他の要素と属性の指定に関する情報が提供されています。 - クラスターを開始します。各クラスターノードで以下のコマンドを実行します:
service cman start
例えば:[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] - いずれかのクラスターノードで
cman_tool nodes
を実行して、ノード群がクラスター内でメンバーとして機能していることを確認します (ステータスカラム "Sts" で "M" として表示)。例えば:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - クラスターが稼働していれば、「フェンシングの設定」 に進みます。
基本設定の例
cluster.conf
の例: 基本設定」 と 例7.2「cluster.conf
の例: 基本的な 2 ノード設定」 (2 ノードクラスター用) はそれぞれ、開始点として非常に基本的なクラスター設定ファイルのサンプルを提供します。本章の後半にある手順には、フェンシングと HA サービスに関する情報が記載されています。
例7.1 cluster.conf
の例: 基本設定
<cluster name="mycluster" config_version="2"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
例7.2 cluster.conf
の例: 基本的な 2 ノード設定
<cluster name="mycluster" config_version="2"> <cman two_node="1" expected_votes="1"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
2 ノードクラスター内の totem
の consensus
値
cluster.conf
ファイル内にある totem
タグの consensus
値を省略して、consensus
値が自動的に算出されるようにします。consensus
値が自動的に算出されると、以下のルールが適用されます:
- 2 つ、又はそれ以下のノードしかない場合、
consensus
値は 上限 2000 msec で 下限 200 msec を持つ (token * 0.2) となります。 - 3 つ、又はそれ以上のノードがある場合、
consensus
値は (token + 2000 msec) となります。
cman
ユーティリティに consensus タイムアウトを設定させると、後で 2 ノードから 3 ノード (又はそれ以上) に移動するにはクラスターの再起動が必要になります。これは token タイムアウトを基にしてconsensus タイムアウトをより大きな値に変更する必要があるためです。
cluster.conf
内で以下のように実行できます:
<totem token="X" consensus="X + 2000" />
cman
内の 2 ノード検出機能の場合、重要な点は物理ノードの数であり、 cluster.conf
ファイル内の two_node=1
指示文の存在ではないことに注意して下さい。
7.3. フェンシングの設定
注記
cluster.conf
を設定します。
fencedevices
セクションでは、fencedevice
要素とフェンスデバイス従属属性を使用して各フェンスデバイスを指定します。例7.3「cluster.conf
に追加された APC フェンスデバイス」 は APC フェンスデバイスを追加した設定ファイルの例を示しています。clusternodes
セクションでは、各clusternode
セクションのfence
要素内でノードの各フェンスメソッドを指定します。method
属性である、name
を使用してフェンスメソッドの名前を指定します。device
要素とその属性である、name
とフェンスデバイス特有のパラメーターを使用して各フェンスメソッド用のフェンスデバイスを指定します。例7.4「cluster.conf
に追加されたフェンスメソッド」 はクラスター内の各ノード用に 1 つのフェンスデバイスを持つフェンスメソッドの例を示しています。- パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) 用には、
clusternodes
セクションでunfence
セクションを追加します。これにより、フェンス済みのノードは再起動されるまでは再度有効になりません。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node
(8) の man ページを参照してください。unfence
セクションは、fence
セクションとは異なり、method
セクションが含まれていませんが、device
参照を直接含んでいます。これはfence
の該当するデバイスセクションをミラーし、"on" 又は "enable" の明示的なアクション (action
) がはっきりと追加されています。fence
とunfence
device
の行によって同じfencedevice
が参照され、同じノード毎の引数が繰り返されます。action
属性を "on" 又は "enable" に指定すると、再起動時にノードを有効にします。例7.4「cluster.conf
に追加されたフェンスメソッド」 と 例7.5「cluster.conf
: ノード毎に複数のフェンスメソッド」 にはunfence
の要素と属性の例が含まれています。unfence
についての詳細は、fence_node
の man ページを参照してください。 - 値を増加することにより
config_version
属性を更新します (例えば、config_version="2"
からconfig_version="3">
へ変更)。 /etc/cluster/cluster.conf
を保存します。- (オプション)
ccs_config_validate
コマンドを実行することでクラスタースキーマ (cluster.rng
) に対して更新されたファイルを検証します。例えば:[root@example-01 ~]#
ccs_config_validate
Configuration validates cman_tool version -r
コマンドを実行してクラスターノードの他の部分に設定を伝播します。このコマンドは追加の検証も実行します。更新されたクラスターの設定情報を伝播できるようにするには、各ノード内でricci
が稼働している必要があります。- 更新した設定ファイルが伝播されたことを確認します。
- 「フェイルオーバードメインの設定」 へ進んでください。
fenced
は次のメソッドを試行し、1 つが成功するまでメソッド群を繰り返します。
fenced
は各フェンス/デバイス行に対してフェンスエージェントを 1 回実行しますが、フェンシングが成功と見なされるにはすべてが成功しなければなりません。
fence_apc
の man ページ) でご覧になれます。さらには、付録A フェンスデバイスパラメーター ではフェンシングパラメーターの情報、/usr/sbin/
ではフェンスエージェントの情報、/usr/share/cluster/cluster.rng
ではクラスタースキーマの情報、/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html
) では注釈付きスキーマの情報を取得できます。
フェンシング設定の例
注記
例7.3 cluster.conf
に追加された APC フェンスデバイス
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
fencedevice
) は fencedevices
要素に追加されています。また、フェンスエージェント (agent
) を fence_apc
として、IP アドレス (ipaddr
) を apc_ip_example
として、ログイン (login
) を login_example
として、フェンスデバイス名 (name
) を apc
として、パスワード (passwd
) を password_example
として指定しています。
例7.4 cluster.conf
に追加されたフェンスメソッド
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
method
) が各ノードに追加されています。各ノードのフェンスメソッド名 (name
) は APC
です。各ノードのフェンスメソッドのデバイス (device
) は、名前 (name
) を apc
及び各ノード用に一意の APC スイッチパワーポート番号 (port
) として指定します。ここでは例として、node-01.example.com のポート番号を 1
(port="1"
) とします。各ノードのデバイス名 (device name="apc"
) は、fencedevices
要素のこの行にあるapc
の名前 apc
によってフェンスデバイスをポイントします: fencedevice agent="fence_apc"
ipaddr="apc_ip_example" login="login_example"
name="apc" passwd="password_example"
例7.5 cluster.conf
: ノード毎に複数のフェンスメソッド
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> <method name="SAN"> <device name="sanswitch1" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> </unfence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> <method name="SAN"> <device name="sanswitch1" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> </unfence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> <method name="SAN"> <device name="sanswitch1" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> </unfence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
例7.6 cluster.conf
: マルチパス複数ポートのフェンシング
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="SAN-multi"> <device name="sanswitch1" port="11"/> <device name="sanswitch2" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> <device name="sanswitch2" port="11" action="on"/> </unfence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="SAN-multi"> <device name="sanswitch1" port="12"/> <device name="sanswitch2" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> <device name="sanswitch2" port="12" action="on"/> </unfence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="SAN-multi"> <device name="sanswitch1" port="13"/> <device name="sanswitch2" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> <device name="sanswitch2" port="13" action="on"/> </unfence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch2" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
例7.7 cluster.conf
: デュアル電源供給を持つノードのフェンシング
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC-dual"> <device name="apc1" port="1"action="off"/> <device name="apc2" port="1"action="off"/> <device name="apc1" port="1"action="on"/> <device name="apc2" port="1"action="on"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC-dual"> <device name="apc1" port="2"action="off"/> <device name="apc2" port="2"action="off"/> <device name="apc1" port="2"action="on"/> <device name="apc2" port="2"action="on"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC-dual"> <device name="apc1" port="3"action="off"/> <device name="apc2" port="3"action="off"/> <device name="apc1" port="3"action="on"/> <device name="apc2" port="3"action="on"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc1" passwd="password_example"/> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc2" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
7.4. フェイルオーバードメインの設定
- Unrestricted(制限なし) — 優先するメンバーのサブセットを指定できるようにしますが、このドメインに割り当てられたクラスターサービスはいずれの利用可能なメンバーでも実行できます。
- Restricted(制限あり) — 特定のクラスターサービスを実行できるメンバーを制限できるようにします。制限されたフェイルオーバードメインのメンバーがどれも使用できない場合は、クラスターサービスは (手動あるいはクラスターソフトウェアによっても) 開始できません。
- Unordered(優先順なし) — クラスターサービスが優先順なしのフェイルオーバードメインへ割り当てられる場合、クラスターサービスを実行するメンバーは、優先順なしの利用可能なフェイルオーバードメインメンバーから選択されます。
- Ordered(優先順あり) — フェイルオーバードメインのメンバー内で優先順を指定できるようにします。優先順フェイルオーバードメインは、優先順位が一番低い番号を持つノードを最初に選択します。すなわち、フェイルオーバードメイン内で優先番号 "1" を持つノードの優先度が最も高くなるため、フェイルオーバードメイン内で最優先すべきノードとなります。そのノードの次に優先されるノードは、次に高い優先番号を持つノードとなります。
- Failback(フェイルバック) — フェイルオーバードメイン内のサービスが、ノード障害の前に元々実行していたノードへフェイルバックするかどうかを指定できるようにします。この特性の設定が役立つのは、ノードが繰り返し失敗し、それが優先順ありのフェイルオーバードメインの一部であるような状況です。この状況では、ノードがフェイルオーバードメイン内の優先ノードである場合には、優先ノードと別のノード間でサービスがフェイルオーバーとフェイルバックを繰り返す可能性があるため、パフォーマンスに重大な影響を与えることになります。
注記
優先順のあるフェイルオーバーが設定されている場合にのみ、フェイルバックの特性が利用できます。
注記
注記
httpd
など) を実行するためのクラスターを設定する作業を最小限にできます。このためには、クラスターサービスを実行する全てのメンバー上で、設定を同一にする必要があります。クラスターサービスを実行するようクラスター全体を設定する代わりに、クラスターサービスに関連付ける制限ありのフェイルオーバードメイン内のメンバーのみを設定するだけで済みます。
注記
- クラスター内のいずれかのノードで
/etc/cluster/cluster.conf
を開きます。 - 使用する各フェイルオーバードメイン用の
rm
要素内に以下のスケルトンセクションを追加します:<failoverdomains> <failoverdomain name="" nofailback="" ordered="" restricted=""> <failoverdomainnode name="" priority=""/> <failoverdomainnode name="" priority=""/> <failoverdomainnode name="" priority=""/> </failoverdomain> </failoverdomains>
注記
failoverdomainnode
属性の数はフェイルオーバードメイン内のノード数で変化します。前述したテキスト内のスケルトンfailoverdomain
セクションは 3 つのfailoverdomainnode
要素を示しており、フェイルオーバードメインに 3 つのノードが存在することを示唆しています。 failoverdomain
セクションでは、要素と属性の値を提供します。要素と属性の説明については、注釈付きクラスタースキーマの 『failoverdomain』 セクションを参照してください。注釈付きクラスタースキーマはいずれかのクラスターノード内の/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html
) にあります。failoverdomains
セクションの例は、例7.8「cluster.conf
に追加されたフェイルオーバードメイン」 を参照してください。- 値を増加することにより
config_version
属性を更新します (例えば、config_version="2"
からconfig_version="3">
へ変更)。 /etc/cluster/cluster.conf
を保存します。- (オプション)
ccs_config_validate
コマンドを実行して、クラスタースキーマ (cluster.rng
) に対するファイルの妥当性を検証します。たとえば、[root@example-01 ~]#
ccs_config_validate
Configuration validates cman_tool version -r
コマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 「HA サービスの設定」 へ進みます。
cluster.conf
に追加されたフェイルオーバードメイン」 は優先順のある制限なしのフェイルオーバードメインを持つ設定の例を示しています。
例7.8 cluster.conf
に追加されたフェイルオーバードメイン
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> </rm> </cluster>
failoverdomains
セクションには、クラスター内の各フェイルオーバードメイン用の failoverdomain
セクションが含まれています。この例には、フェイルオーバードメインが 1 つあります。failoverdomain
の行では、名前 (name
) が example_pri
として指定されています。さらに、フェイルバックなし (failback="0"
)、フェイルオーバーは優先順あり (ordered="1"
)、フェイルオーバードメインは制限なし (restricted="0"
) と指定されています。
7.5. HA サービスの設定
/etc/cluster/cluster.conf
を編集する方法を説明しています。
重要
7.5.1. クラスターリソースの追加
- Global(グローバル) — クラスター内のどのサービスにも利用可能なリソース。これらは、設定ファイル (
rm
要素内) のresources
セクションで設定されています。 - Service-specific(サービス特有) — 1 つのサービスのみに利用可能なリソース。これらは、設定ファイル (
rm
要素内) の各service
セクションで設定されています。
- クラスター内のいずれかのノードで
/etc/cluster/cluster.conf
を開きます。 rm
要素内にresources
セクションを追加します。例えば:<rm> <resources> </resources> </rm>
- これに作成したいサービスに応じてリソースを入力します。例えば、Apache サービス内で使用したいリソースがあると想定します。それらがファイルシステム (
fs
) リソース、IP (ip
) リソース、及び Apache (apache
) リソースで構成されているとします。<rm> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> </rm>
- 値を増加することにより
config_version
属性を更新します (例えば、config_version="2"
からconfig_version="3"
へ変更)。 /etc/cluster/cluster.conf
を保存します。- (オプション)
ccs_config_validate
コマンドを実行して、クラスタースキーマ (cluster.rng
) に対するファイルの妥当性を検証します。たとえば、[root@example-01 ~]#
ccs_config_validate
Configuration validates cman_tool version -r
コマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- 「クラスターへのクラスターサービスの追加」 へ進みます。
例7.9 リソースが追加された cluster.conf
ファイル
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> </rm> </cluster>
7.5.2. クラスターへのクラスターサービスの追加
注記
- クラスター内のいずれかのノードで
/etc/cluster/cluster.conf
を開きます。 - 各サービス用の
rm
要素内にservice
セクションを追加します。例えば:<rm> <service autostart="1" domain="" exclusive="0" name="" recovery="restart"> </service> </rm>
service
要素内で以下のパラメーター (属性) を設定します:autostart
— クラスターの開始時にサービスを自動起動するかどうかを指定します。有効にするには「1」を、無効にするには「0」を使用します。デフォルトは有効です。domain
— フェイルオーバードメイン(必要である場合)を指定します。exclusive
— 他のサービスが稼働していないノード上でのみサービスを稼働するポリシーを指定します。recovery
— サービスの回復ポリシーを指定します。オプションとしては、サービスの再配置、再起動、無効、再起動後に無効、があります。
- 使用したいリソースのタイプに応じて、サービスにグローバル又はサービス特有のリソースを入力します。例えば、グローバルリソースを使用する Apache サービスは以下のようになります:
<rm> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> <service autostart="1" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> </rm>
例えば、サービス特有のリソースを使用する Apache サービスは以下のようになります:<rm> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm>
例7.10「サービスが追加されたcluster.conf
:1 つはグローバルリソースを使用、もう 1 つはサービス特有のリソースを使用」 では、2 つのサービスを持つcluster.conf
ファイルの例を示してします。example_apache
— このサービスはグローバルリソースであるweb_fs
、127.143.131.100
及びexample_server
を使用します。example_apache2
— このサービスはサービス特有のリソースであるweb_fs2
、127.143.131.101
、及びexample_server2
を使用します。
- 値を増加することにより
config_version
属性を更新します (例えば、config_version="2"
からconfig_version="3">
へ変更)。 /etc/cluster/cluster.conf
を保存します。- (オプション)
ccs_config_validate
コマンドを実行することでクラスタースキーマ (cluster.rng
) に対して更新されたファイルを検証します。例えば:[root@example-01 ~]#
ccs_config_validate
Configuration validates cman_tool version -r
コマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- 「設定の確認」 へ進みます。
例7.10 サービスが追加された cluster.conf
:1 つはグローバルリソースを使用、もう 1 つはサービス特有のリソースを使用
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> <service autostart="1" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm> </cluster>
7.6. 冗長リングプロトコルの設定
- リングを 3 つ以上指定しないでください。
- 各リングで同じプロトコルを使用すること、IPv4 と IPv6 を混同しないようにしてください。
- 必要であれば、2 つ目のリングにマルチキャストアドレスを手動で指定可能です。2 つ目のリングにマルチキャストアドレスを指定した場合、代わりのマルチキャストアドレスまたは代わりのポートは 1 つ目のリングのマルチキャストアドレスと異なる必要があります。別のマルチキャストアドレスを指定しなかった場合、システムは 2 つ目のリングに別のマルチキャストアドレスを自動的に使用するようになっています。別のポートを指定した場合、操作の実行にポートとポート 1 をシステム自体で使用するため、1 つ目と 2 つ目のポート番号は 2 つ以上違うものでなければなりません。
- 同一サブネット上で 2 つの異なるインターフェースを使用しないでください。
- 一般的に、NIC またはスイッチのいずれかに問題が発生したときのために、2 種の NIC および 2 種のスイッチで冗長リングプロトコルを設定すると良いでしょう。
ifdown
コマンドまたはservice network stop
コマンドを使用して、ネットワークの問題のシミュレーションを行わないでください。このコマンドでは、クラスター全体が破壊され、クラスター内の全ノードを再起動しない限り回復しなくなります。- ケーブルが抜けると
ifdown
が実行されるため、NetworkManager
を使用しないでください。 - NIC の 1 ノードに問題が発生すると、リング全体に問題があるとマーキングされます。
- 問題の発生したリングを回復するために手動介入は必要ありません。回復には、問題の NIC やスイッチなどのように、問題の原因となる部分を修正するだけで結構です。
cluster.conf
ファイルの clusternode
のセクションに altname
コンポーネントを追加します。altname
を指定するには、name
属性を指定してノードの 2 つ目のホスト名または IP アドレスを指定します。
clusternet-node1-eth1
の代わりの名前として clusternet-node1-eth2
を指定しています。
<cluster name="mycluster" config_version="3" > <logging debug="on"/> <clusternodes> <clusternode name="clusternet-node1-eth1" votes="1" nodeid="1"> <fence> <method name="single"> <device name="xvm" domain="clusternet-node1"/> </method> </fence> <altname name="clusternet-node1-eth2"/> </clusternode>
clusternode
ブロックの altname
セクションは、位置独立コードであるため、fence
セクションの前にも後ろにも置くことが可能です。クラスターノードに複数の altname
コンポーネントを指定しないでください。複数指定すると、システムが起動しなくなります。
cluster.conf
設定ファイルの cman
セクションに altmulticast
コンポーネントを含めることで、2 つ目のマルチキャストアドレス、ポート、TTL を手動で指定することができます。altmulticast
コンポーネントでは、addr
、port
、ttl
パラメーターを使用できます。
cman
セクションで、2 つ目のリンクのマルチキャストアドレス、ポート、TTL を設定している例です。
<cman> <multicast addr="239.192.99.73" port="666" ttl="2"/> <altmulticast addr="239.192.99.88" port="888" ttl="3"/> </cman>
7.7. デバッグオプションの設定
/etc/cluster/cluster.conf
に追加します。デフォルトでは、/var/log/cluster/daemon.log
ファイルにログ記録されます。
<cluster config_version="7" name="rh6cluster"> <logging debug="on"/> ... </cluster>
/etc/cluster/cluster.conf
ファイルに追加します。デーモン毎のロギング設定は、グローバル設定を上書きします。
<cluster config_version="7" name="rh6cluster"> ... <logging> <!-- turning on per-subsystem debug logging --> <logging_daemon name="corosync" debug="on" /> <logging_daemon name="fenced" debug="on" /> <logging_daemon name="qdiskd" debug="on" /> <logging_daemon name="rgmanager" debug="on" /> <logging_daemon name="dlm_controld" debug="on" /> <logging_daemon name="gfs_controld" debug="on" /> </logging> ... </cluster>
cluster.conf
(5) の man ページを参照してください。
7.8. nfsexport および nfsserver リソースの設定
nfsexport
または nfsserver
リソースの設定時に考慮すべき点および問題点を説明します。
nfsexport
リソースエージェントは、NFSv2 および NFSv3 クライアントで機能します。nfsexport
の使用時には、以下のことを実行する必要があります。
nfs
およびnfslock
がブート時に有効となっていることを確認。- 全クラスターノードで
RPCNFSDARGS="-N 4"
を/etc/sysconfig/nfs
ファイルに追加。 nfslock="1"
をcluster.conf
ファイルのservice
コンポーネントに追加。- サービスを以下のように構成します。
<service nfslock="1" ... > <fs name="myfs" ... > <nfsexport name="exports"> <nfsclient ref="client1" /> <nfsclient ref="client2" /> ... </nfsexport> </fs> <ip address="10.1.1.2" /> ... </service>
nfsserver
リソースエージェントは、NFSv3 および NFSv4 クライアントで機能します。nfsserver
の使用時には、以下のことを実行する必要があります。
nfs
およびnfslock
がブート時に無効となっていることを確認。- サービスで
nfslock="1"
と設定されていないことを確認。 - サービスを以下のように構成します。
<service ... > <fs name="myfs" ... > <nfsserver name="server"> <nfsclient ref="client1" /> <nfsclient ref="client2" /> ... </nfsexport> </fs> <ip address="10.1.1.2" /> ... </service>
nfsserver
リソースエージェントを用いるようにシステムを設定する際は、以下の制限を理解しておく必要があります。
- クラスター 1 つあたり 1 つの
nfsserver
リソースのみを設定すること。さらに必要な場合は、問題となっている 2 つのサービスが決して同一ホスト上でスタートしないようにするために制限されたフェイルオーバードメインを使用する必要があります。 - 2 つ以上のサービスでグローバルに設定された
nfsserver
リソースを参照しないこと。 - 古いスタイルの NFS サービスを同一クラスター内で新しい
nfsserver
と混在させないこと。旧式の NFS サービスは NFS デーモンの稼働を必要としていましたが、nfsserver
はサービス開始時にデーモンが停止している必要があります。 - 複数のファイルシステムを使用する場合は、エクスポートに継承を使用することができません。つまり、複数のファイルシステムでのサービスにおける
nfsclient
リソースの再利用は制限されることになります。しかし、ターゲットおよびパス属性の明示的定義は、nfsclients
の数に制限されずに行うことができます。
7.9. 設定の確認
- 各ノードで、クラスターソフトウェアを起動します。このアクションにより、開始時のみにチェックされる追加設定が実行中の設定に含まれていることを確認します。
service cman restart
を実行すると、クラスターソフトウェアを再起動できます。例えば:[root@example-01 ~]#
service cman restart
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] - CLVM がクラスター化ボリュームの作成に使用されている場合は、
service clvmd start
を実行します。例えば:[root@example-01 ~]#
service clvmd start
Activating VGs: [ OK ] - Red Hat GFS2 を使用している場合は、
service gfs2 start
を実行します。例えば:[root@example-01 ~]#
service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] - 高可用性 (HA) サービスを使用している場合は、
service rgmanager start
を実行します。例えば:[root@example-01 ~]#
service rgmanager start
Starting Cluster Service Manager: [ OK ] - いずれかのクラスターノードで
cman_tool nodes
を実行して、ノード群がクラスター内でメンバーとして機能していることを確認します (ステータスカラム "Sts" で "M" として表示)。例えば:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - いずれかのノードで
clustat
ユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustat
はクラスターノード群のステータスを表示します。例えば:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled - クラスターが期待通りに動作している場合は、設定ファイルの作成は終了です。8章コマンドラインツールを使用した Red Hat High Availability アドオンの管理 内に説明してあるコマンドラインツールを使用してクラスターを管理できます。
第8章 コマンドラインツールを使用した Red Hat High Availability アドオンの管理
重要
重要
cluster.conf
の要素と属性を参照します。cluster.conf
の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng
にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html
) にある注釈付きスキーマを参照してください。
重要
cman_tool -r
コマンドを使用する必要があります。このコマンドを使用するには、ricci
が稼働していなければなりません。
注記
8.1. クラスターソフトウェアの起動と停止
8.1.1. クラスターソフトウェアの起動
service cman start
service clvmd start
:クラスター化ボリュームの作成に CLVM が使用されている場合service gfs2 start
:Red Hat GFS2 を使用している場合service rgmanager start
:HA(高可用性)サービス (rgmanager
) を使用している場合
[root@example-01 ~]#service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]#
8.1.2. クラスターソフトウェアの停止
service rgmanager stop
:HA(高可用性)サービス (rgmanager
) を使用している場合service gfs2 stop
:Red Hat GFS2 を使用している場合umount -at gfs2
:rgmanager
と Red Hat GFS2 を使用している場合に、rgmanager
の起動時に、マウントされていた(しかしシャットダウン時にアンマウントされていない)GFS2 ファイルも全てアンマウントされるようにするためです。service clvmd stop
:クラスター化ボリュームの作成に CLVM が使用されている場合service cman stop
[root@example-01 ~]#service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#umount -at gfs2
[root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]#
注記
8.2. ノードの削除と追加
8.2.1. クラスターからのノードの削除
重要
- いずれかのノードで
clusvcadm
ユーティリティを使用して、クラスターから削除されるノード上で実行している各 HA サービスの再配置/移行/停止を行います。clusvcadm
の使用についての詳細は 「高可用性 (HA) サービスの管理」 を参照してください。 - クラスターから削除するノード上で 「クラスターソフトウェアの停止」 に従ってクラスターソフトウェアを停止します。例えば:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - クラスター内のいずれかのノードで
/etc/cluster/cluster.conf
を編集して、削除するノードのclusternode
セクションを削除します。例えば、例8.1「3 ノードクラスターの設定」 で、node-03.example.com が削除されることになっている場合、そのノードのclusternode
セクションを削除します。ノード (群) の削除によりクラスターが 2 ノードクラスターになる場合、設定ファイルに以下の行を追加することで単一ノードが定足数を維持できるようにします (例えば 1 つのノードが失敗した場合):<cman two_node="1" expected_votes="1"/>
3 ノードと 2 ノードの設定の比較は、 「3 ノードと 2 ノードの設定サンプル」 を参照してください。 config_version
属性を更新するには、値を増加します (例えば、config_version="2"
からconfig_version="3">
へ変更)。/etc/cluster/cluster.conf
を保存します。- (オプション)
ccs_config_validate
コマンドを実行してクラスタースキーマ (cluster.rng
) に対して更新したファイルを検証します。例えば:[root@example-01 ~]#
ccs_config_validate
Configuration validates cman_tool version -r
コマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- クラスターのノード数を 2 つを超えるノードから 2 つのノードに変更した場合は、以下のようにしてクラスターソフトウェアを再起動しなければなりません:
- 各ノードで 「クラスターソフトウェアの停止」 に従ってクラスターソフトウェアを停止します。例えば:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - 各ノードで 「クラスターソフトウェアの起動」 に従ってクラスターソフトウェアを起動します。例えば:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]# - いずれかのクラスターノードで
cman_tool nodes
を実行して、ノード群がクラスター内のメンバーとして機能していることを確認します (ステータスカラム "Sts" 内で "M" として表示)。例えば:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com - いずれかのノードで
clustat
ユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustat
はクラスターノード群のステータスを表示します。例えば:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled
8.2.2. クラスターへのノードの追加
- クラスター内のいずれかのノードで
/etc/cluster/cluster.conf
を編集して、追加されるノード用にclusternode
セクションを追加します。例えば、例8.2「2 ノードクラスターの設定」 で、node-03.example.com が追加されることになっている場合、そのノードにclusternode
を追加します。ノード (群) の追加により 2 ノードクラスターから 3 つ以上のノードを持つクラスターへクラスターが遷移する場合、以下のcman
属性を/etc/cluster/cluster.conf
から削除します:cman two_node="1"
expected_votes="1"
3 ノードと 2 ノードの設定の比較は、 「3 ノードと 2 ノードの設定サンプル」 を参照してください。 config_version
属性を更新するには、値を増加します (例えば、config_version="2"
からconfig_version="3">
へ変更)。/etc/cluster/cluster.conf
を保存します。- (オプション)
ccs_config_validate
コマンドを実行してクラスタースキーマ (cluster.rng
) に対して更新したファイルを検証します。例えば:[root@example-01 ~]#
ccs_config_validate
Configuration validates cman_tool version -r
コマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- 更新した設定ファイルを、クラスターに追加する各ノード内の
/etc/cluster/
に伝播します。例えば、scp
コマンドを使用して、更新した設定ファイルをクラスターに追加する各ノードへ送信します。 - クラスターのノード数が 2 つのノードから 2 つを超えるノードに遷移した場合は、以下のようにして既存のクラスターノード群内のクラスターソフトウェアを再起動しなければなりません:
- 各ノードで 「クラスターソフトウェアの停止」 に従ってクラスターソフトウェアを停止します。例えば:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - 各ノードで 「クラスターソフトウェアの起動」 に従ってクラスターソフトウェアを起動します。例えば:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]#
- クラスターに追加する各ノードで 「クラスターソフトウェアの起動」 に従って、クラスターソフトウェアを起動します。例えば:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]# - いずれかのノードで
clustat
ユーティリティを使用して、それぞれ追加したノードがクラスターの一部として稼働していることを確認します。例えば:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabledclustat
の使用についての詳細は、「高可用性 (HA) サービスの管理」 を参照してください。また、cman_tool status
を使用して、ノードの投票数、ノード数、定足数を確認することもできます。例えば:[root@example-01 ~]#
cman_tool status
Version: 6.2.0 Config Version: 19 Cluster Name: mycluster Cluster Id: 3794 Cluster Member: Yes Cluster Generation: 548 Membership state: Cluster-Member Nodes: 3 Expected votes: 3 Total votes: 3 Node votes: 1 Quorum: 2 Active subsystems: 9 Flags: Ports Bound: 0 11 177 Node name: node-01.example.com Node ID: 3 Multicast addresses: 239.192.14.224 Node addresses: 10.15.90.58 - いずれかのノードで
clusvcadm
ユーティリティを使用して、実行中のサービスを新規に参加したノードに移行/再配置できます。また、無効になっているサービスも有効にすることができます。clusvcadm
の使用についての詳細は 「高可用性 (HA) サービスの管理」 をご覧ください。
8.2.3. 3 ノードと 2 ノードの設定サンプル
例8.1 3 ノードクラスターの設定
<cluster name="mycluster" config_version="3"> <cman/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> <resources> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </fs> </ip> </resources> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm> </cluster>
例8.2 2 ノードクラスターの設定
<cluster name="mycluster" config_version="3"> <cman two_node="1" expected_votes="1"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> </failoverdomain> </failoverdomains> <resources> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </fs> </ip> </resources> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm> </cluster>
8.3. 高可用性 (HA) サービスの管理
clustat
と Cluster User Service Administration Utility である clusvcadm
を使用します。clustat
はクラスターのステータスを表示し、clusvcadm
は高可用性サービスを管理する手段を提供します。
clustat
と clusvcadm
コマンドを使用した HA サービスの管理についての基本情報を提供しています。以下のようなサブセクションで構成されています:
8.3.1. clustat
を使用した HA サービスステータスの表示
clustat
はクラスター全域のステータスを表示します。メンバーシップ情報、定足数表示、全ての高可用性サービスの状態を表示して、clustat
コマンドが実行されているノード (ローカル) を示します。表8.1「サービスのステータス」 はサービスがなり得る状態と clustat
を実行している時に表示される状態を説明しています。例8.3「clustat
の表示」 は、clustat
表示の例を示しています。clustat
コマンドの実行に関する詳細情報は、clustat
の man ページを参照してください。
サービスのステータス | 説明 |
---|---|
サービスリソースは設定されており、サービスを所有するクラスターシステム上で利用可能です。 | |
サービスは別のノード上で開始待ちです。 | |
サービスは無効になっており、割り当てられている所有者はいません。クラスターにより無効なサービスが自動的に再起動されることはありません。 | |
停止した状態で、サービスは、次のサービス又はノードの遷移後に起動するかどうか評価されます。これは一時的な状態です。この状態からサービスを無効/有効にすることができます。 | |
サービスは dead と判定されます。リソースの 停止 動作が失敗するとサービスは常にこの状態になります。サービスがこの状態になった後は、disable 要求を発行する前に、割り振られたリソース (例えば、マウント済みのファイルシステム) が存在しないことを確認しなければなりません。サービスがこの状態になった時に実行できる唯一の操作は disable です。 | |
この状態はスタートアップと clustat -f の実行中に特定のケースで出現します。 |
例8.3 clustat
の表示
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:15 2010
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
node-03.example.com 3 Online, rgmanager
node-02.example.com 2 Online, rgmanager
node-01.example.com 1 Online, Local, rgmanager
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:example_apache node-01.example.com started
service:example_apache2 (none) disabled
8.3.2. clusvcadm
を使用した HA サービスの管理
clusvcadm
コマンドを使用して HA サービスを管理できます。これを使うと以下の操作を実行できます:
- サービスの有効と起動
- サービスの無効化
- サービスの停止
- サービスの凍結
- サービスの凍結解除
- サービスの移行(仮想マシンサービス用のみ)
- サービスの再配置
- サービスの再起動
clusvcadm
ユーティリティの man ページを参照してください。
サービスの操作 | 説明 | コマンドの構文 |
---|---|---|
サービスを起動します。オプションとして優先ターゲット上、及びフェイルオーバードメインのルールに従って行うことができます。どちらのオプションもない場合は、clusvcadm が実行するローカルホストがサービスを起動します。元々の 起動 が失敗した場合、サービスは 再配置 操作が要求されたかのように動作します (この表の を参照)。動作が成功すると、サービスは起動した状態になります。 | clusvcadm -e <service_name> 又は clusvcadm -e <service_name> -m <member> ( -m オプションを使用すると、サービスを開始する優先ターゲットメンバーを指定します。 | |
サービスを停止して無効の状態にします。これは、サービスが 停止 状態にある時に許可される唯一の操作です。 | clusvcadm -d <service_name> | |
サービスを別のノードに移動します。オプションとして、サービスを受信するための優先ノードを指定できます。しかし、サービスがホスト上で実行できないこと(例えば、サービスが起動に失敗、又はホストがオフライン)により再配置が起こらないわけではなく、別のノードが選択されます。rgmanager はクラスター内の全ての許可されたノード上でサービスの起動を試みます。クラスター内の許可されたターゲットノードがサービスを正しく起動できない場合は、再配置は失敗となりサービスはオリジナルの所有者で再起動を試行します。オリジナルの所有者がサービスを再起動できない場合は、サービスは 停止 状態になります。 | clusvcadm -r <service_name> 又は clusvcadm -r <service_name> -m <member> ( -m オプションを使用すると、サービスを起動する優先ターゲットメンバーを指定します。) | |
サービスを停止して、停止 状態にします。 | clusvcadm -s <service_name> | |
現在稼働しているノード上のサービスを凍結します。これにより、ノードが失敗又は rgmanager が停止した場合に、サービスのステータスチェックとフェイルオーバーは阻止されます。この機能を使用することで、サービスをサスペンドして基となるリソースをメンテナンスできます。freeze と unfreeze の操作を使用する上での重要な情報は、「Freeze と Unfreeze の操作時の注意事項」 を参照してください。 | clusvcadm -Z <service_name> | |
サービスを 凍結 状態から解除します。これによりステータスチェックを再度有効にします。freeze と unfreeze の操作を使用する上で重要な情報は、「Freeze と Unfreeze の操作時の注意事項」 を参照してください。 | clusvcadm -U <service_name> | |
仮想マシンを別のノードに移行します。ターゲットノードを指定してください。移行時の障害の内容によって、仮想マシンは 失敗 状態になるか、オリジナルの所有者上で起動した状態になる場合があります。 | clusvcadm -M <service_name> -m <member> 重要
移行 操作には、 -m <member> オプションを使用してターゲットノードを 指定しなければなりません。
| |
現在稼働しているノード上でサービスを再起動します。 | clusvcadm -R <service_name> |
Freeze と Unfreeze の操作時の注意事項
rgmanager
サービスの一部をメンテナンスできます。例えば、1 つの rgmanager
サービス内にデータベースとウェブサーバーがある場合、rgmanager
サービスの凍結、データベースの停止、メンテナンス、データベースの再起動、サービスの凍結解除が可能になります。
- Status チェックは無効です。
- Start 操作は無効です。
- Stop 操作は無効です。
- (サービス所有者を電源オフにしても) フェイルオーバーは起こりません
重要
- rgmanager の再起動の前にホストをリブートする予定でない限りは、サービスの凍結時に rgmanager の全てのインスタンスを停止 しないでください。
- 報告を受けたサービス所有者がクラスターに再参加して rgmanager を再起動するまでは、サービスを凍結解除 しないでください。
8.4. 設定の更新
/etc/cluster/cluster.conf
) を編集して、それをクラスター内の各ノードへ伝播します。設定を更新するには、以下のいずれかの手順を使用します:
8.4.1. cman_tool version -r
を使用した設定の更新
cman_tool version -r
コマンドを使用して設定を更新するには、以下の手順を実行します:
- クラスター内のいずれかのノードで
/etc/cluster/cluster.conf
ファイルを編集します。 - 値を増加することにより
config_version
属性を更新します (例えば、config_version="2"
からconfig_version="3"
へ変更)。 /etc/cluster/cluster.conf
を保存します。cman_tool version -r
コマンドを実行して、設定をクラスターノードの残り部分へ伝播します。更新したクラスター設定情報を伝播できるようにするには、 各クラスターノードでricci
が稼働している必要があります。- 更新された
cluster.conf
設定が伝達されていることを確認します。伝達されていない場合、scp
コマンドを使用してそれを各クラスターノード内の/etc/cluster/
に伝達します。 - 以下の設定のみを変更した場合は、このステップ (クラスターソフトウェアの再起動) を省略できます:
- クラスター設定からノードを削除 — 2 つを超えるノードから 2 つのノードに変更する場合 以外。クラスターからノードを削除する方法と 2 つを超えるノードから 2 つのノードに遷移する方法についての詳細は、「ノードの削除と追加」 を参照してください。
- クラスター設定にノードを追加 — 2 つのノードから 2 つを超えるノードに変更する場合 以外。クラスターにノードを追加する方法と 2 ノードから 2 つを超えるノードに遷移する方法についての詳細は、「クラスターへのノードの追加」 を参照してください。
- デーモンが情報をログする方法の変更
- HA サービス/VM メンテナンス (追加、編集、又は削除)
- リソースメンテナンス (追加、編集、又は削除)
- フェイルオーバードメインのメンテナンス (追加、編集、又は削除)
これら以外は、以下のようにしてクラスターソフトウェアを再起動する必要があります:- 各ノードで 「クラスターソフトウェアの停止」 にしたがってクラスターソフトウェアを停止します。
- 各ノードで 「クラスターソフトウェアの起動」 にしたがってクラスターソフトウェアを起動します。
クラスターソフトウェアを停止して起動することで、スタートアップ時にのみチェックされる設定の変更が確実に実行中の設定に含まれるようになります。 - いずれかのクラスターノードで
cman_tool nodes
を実行して、ノード群がクラスター内のメンバーとして機能していることを確認します (ステータスカラム "Sts" 内で "M" として表示)。例えば:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - いずれかのノードで
clustat
ユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustat
はクラスターノード群のステータスを表示します。例えば:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled - クラスターが期待通りに動作している場合は、設定の更新は終了です。
8.4.2. scp
を使用した設定の更新
scp
コマンドを使用して設定を更新するには、以下の手順を実行します:
- クラスター内のいずれかのノードで
/etc/cluster/cluster.conf
ファイルを編集します。 config_version
属性を更新するには、値を増加します (例えば、config_version="2"
からconfig_version="3">
へ変更)。/etc/cluster/cluster.conf
を保存します。ccs_config_validate
コマンドを実行することで、クラスタースキーマ (cluster.rng
) に対して更新ファイルの妥当性検証をします。例えば:[root@example-01 ~]#
ccs_config_validate
Configuration validates- 更新したファイルが有効である場合、
scp
コマンドを使用してそれを各クラスターノード内の/etc/cluster/
に伝播します。 - 更新した設定ファイルが伝播されたことを確認します。
- 新しい設定をリロードするには、クラスターノードのいずれかで以下のコマンドを実行します。
cman_tool version -r
ricci
がインストールされていない場合、以下のコマンドを使うことができます。cman_tool version -s
- 以下の設定のみを変更した場合は、このステップ (クラスターソフトウェアの再起動) を省略できます:
- クラスター設定からノードを削除 — 2 つを超えるノードから 2 つのノードに変更する場合 以外。クラスターからノードを削除する方法と 2 つを超えるノードから 2 つのノードに遷移する方法についての詳細は、「ノードの削除と追加」 を参照してください。
- クラスター設定にノードを追加 — 2 つのノードから 2 つを超えるノードに変更する場合 以外。クラスターにノードを追加する方法と 2 ノードから 2 つを超えるノードに遷移する方法についての詳細は、「クラスターへのノードの追加」 を参照してください。
- デーモンが情報をログする方法の変更
- HA サービス/VM メンテナンス (追加、編集、又は削除)
- リソースメンテナンス (追加、編集、又は削除)
- フェイルオーバードメインのメンテナンス (追加、編集、又は削除)
これら以外は、以下のようにしてクラスターソフトウェアを再起動する必要があります:- 各ノードで 「クラスターソフトウェアの停止」 にしたがってクラスターソフトウェアを停止します。
- 各ノードで 「クラスターソフトウェアの起動」 にしたがってクラスターソフトウェアを起動します。
クラスターソフトウェアを停止して起動することで、スタートアップ時にのみチェックされる設定の変更が確実に実行中の設定に含まれるようになります。 - ノードがクラスター内でメンバーとして機能しており、HA サービスが期待どおりに稼働していることを確認します。
- いずれかのクラスターノードで
cman_tool nodes
を実行して、ノード群がクラスター内のメンバーとして機能していることを確認します (ステータスカラム "Sts" 内で "M" として表示)。例えば:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - いずれかのノードで
clustat
ユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustat
はクラスターノード群のステータスを表示します。例えば:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled
クラスターが期待通りに動作している場合は、設定の更新は終了です。
第9章 クラスター内の問題の診断と修正
9.1. 設定の変更が反映されない
- Conga を使用してクラスターを設定する場合、変更を適用すると自動的に Conga が変更を伝播します。
ccs
コマンドを使用してクラスター設定に変更を伝播する詳細については、「クラスタノード群への設定ファイルの伝播」 を参照してください。- コマンドラインツールを使用してクラスター設定に変更を伝播する詳細については、「設定の更新」 を参照してください。
- クラスター設定からノードを削除 — 2 つを超えるノードから 2 つのノードに変更する場合 以外
- クラスター設定にノードを追加 — 2 つのノードから 2 つを超えるノードに変更する場合 以外
- ロギング設定を変更
- HA サービス又は VM コンポーネントを追加、編集、又は削除
- クラスターリソースを追加、編集、又は削除
- フェイルオーバードメインを追加、修正、及び削除
- クラスター設定ファイルから
two_node
オプションを追加又は削除 - クラスター名を変更
corosync
又はopenais
のタイマーを変更- quorum disk に対するヒューリスティックの追加/変更/削除、quorum disk タイマーの変更、quorum disk デバイスの変更。これらの変更を反映させるには、
qdiskd
デーモンをグローバルで再起動する必要があります。 rgmanager
のcentral_processing
モードを変更。この変更を反映させるには、rgmanager
をグローバルで再起動する必要があります。- マルチキャストアドレスを変更
- トランスポートモードを UDP マルチキャストから UDP ユニキャストへ切り替え、又は UDP ユニキャストから UDP マルチキャストへ切り替え
ccs
コマンド、又はコマンドラインツールを使用してクラスターを再起動することができます。
- Conga を使用したクラスターの再起動については、「クラスターの起動、停止、再起動、削除」 を参照してください。
ccs
コマンドを使用したクラスターの再起動については、「クラスターの起動と停止」 を参照してください。- コマンドラインツールを使用したクラスターの再起動については、「クラスターソフトウェアの起動と停止」 を参照してください。
9.2. クラスターを構成できない
- 名前解決が正しく設定されていることを確認します。
cluster.conf
ファイル内のクラスターノード名は、そのクラスターが通信に使用するネットワーク上でクラスターのアドレスを解決するために使用する名前と一致する必要があります。例えば、クラスターノード名がnodea
とnodeb
である場合、両方のノードが/etc/cluster/cluster.conf
ファイルと/etc/hosts
ファイル内にそれらの名前にマッチするエントリを持っていることを確認してください。 - クラスターがノード間の通信にマルチキャストを使用する場合は、マルチキャストトラフィックがブロックされていないこと、遅延されていないこと、クラスターが通信に使用するネットワークで妨害されていないことを確認してください。一部の Cisco スイッチには、マルチキャストトラフィックで遅延の原因になる機能がある点に注意してください。
telnet
又はSSH
を使用して、リモートノードに到達するかどうか確認します。ethtool eth1 | grep link
コマンドを実行して、イーサネットリンクが有効であるかをチェックします。- 各ノードで
tcpdump
コマンドを使用して、ネットワークトラフィックをチェックします。 - ノード間でファイアウォールルールが通信をブロックしていないことを確認します。
- インターノード通信にクラスターが使用するインターフェースが 0、1、2 以外のボンディングモードを使用していないことを確認します (ボンディングモード 0 と 2 は Red Hat Enterprise Linux 6.4 よりサポートされています)。
9.3. フェンス後/再起動後にノードがクラスターに再参加できない
- Cisco Catalyst スイッチを経由してトラフィックを送っているクラスターはこの問題に遭遇する可能性があります。
- 全てのクラスターノードに同じバージョンの
cluster.conf
ファイルがあることを確認します。cluster.conf
ファイルがいずれかのノードで異なる場合は、それらのノードはフェンス後にクラスターに参加できない可能性があります。Red Hat Enterprise Linux 6.1 以降、以下のコマンドを使用すると、ホストのクラスター設定ファイル内で指定された全てのノードに同一のクラスター設定ファイルがあることを確認できます:ccs -h host --checkconf
ccs
コマンドに関する詳細情報は、5章ccs コマンドを使用した Red Hat High Availability アドオンの設定 と 6章Red Hat High Availability アドオンを使用した ccs の管理 をご覧ください。 - クラスターへの参加を試行しているノード内のクラスターサービスに
chkconfig on
を設定していることを確認してください。 - ファイアウォールルールによって、ノードとクラスター内の他のノードとの通信がブロックされていないことを確認します。
9.4. クラスターデーモンがクラッシュする
rgmanager
プロセスが予期せず失敗した場合にホストを再起動するウォッチドッグプロセスがあります。これにより、クラスターノードはフェンスされ、rgmanager
は別のホスト上でサービスを回復します。ウォッチドッグデーモンがメインの rgmanager
プロセスがクラッシュしたことを検出すると、クラスターノードを再起動します。そして、アクティブなクラスターノードはそのクラスターノードが離脱したことを検出して、それをクラスターから削除します。
gcore
を使用して数値の高い PID 番号を持つプロセスのコアをキャプチャーして、クラッシュしたデーモンのトラブルシューティングのサポートをします。
rgmanager
及び rgmanager-debuginfo
が同一バージョンであることを確認してください。これが実行されないと、キャプチャされたアプリケーションコアが使用できない場合があります。
$ yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo
9.4.1. ランタイムでの rgmanager
コアのキャプチャ
rgmanager
プロセスが 2 つあります。番号が大きい PID を持つ rgmanager
プロセスのコアをキャプチャする必要があります。
ps
コマンドの出力の例です。rgmanager
の 2 つのプロセスを示しています。
$ ps aux | grep rgmanager | grep -v grep root 22482 0.0 0.5 23544 5136 ? S<Ls Dec01 0:00 rgmanager root 22483 0.0 0.2 78372 2060 ? S<l Dec01 0:47 rgmanager
pidof
プログラムは、コアを作成するために適切な PID である、番号が大きい PID を自動的に決定するために使用されます。このコマンドは、PID 番号が大きいプロセス 22483 のアプリケーションコアをキャプチャします。
$ gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
9.4.2. デーモンクラッシュ時のコアのキャプチャ
/etc/init.d/functions
スクリプトは /etc/init.d/rgmanager
により呼び出されたデーモンからのコアファイルをブロックします。デーモンがアプリケーションコアを作成する場合は、そのオプションを有効にする必要があります。この手順は、キャプチャされたアプリケーションコアを必要とする全クラスターノード上で行わなければなりません。
/etc/sysconfig/cluster
ファイルを編集します。DAEMONCOREFILELIMIT
パラメーターで、プロセスがクラッシュした場合にデーモンがコアファイルを作成できるようにします。-w
オプションというものがあり、これは監視プロセスが実行されないようにします。監視デーモンは、rgmanager
がクラッシュした場合、(場合によっては) 監視デーモンが実行されているのにコアファイルが作成されない場合にクラスターノードを再起動するため、コアファイルのキャプチャーは無効にする必要があります。
DAEMONCOREFILELIMIT="unlimited" RGMGR_OPTS="-w"
service rgmanager restart
注記
rgmanager
プロセスのクラッシュにより生成された場合に書き込まれます。
ls /core*
/core.11926
rgmanager
を再起動する前に、/ ディレクトリ下にある全ての古いファイルを移動もしくは削除してください。rgmanager
クラッシュを経験したクラスターノードは、ウォッチドッグプロセスが実行していないことを確認するためにコアがキャプチャされた後、再起動又はフェンスされることになります。
9.4.3. gdb
バックトレースセッションの記録
gdb
を使用してその内容を閲覧できます。影響を受けたシステムからコアファイルの gdb
のスクリプトセッションを記録するには、以下のコマンドを実行します。
$ script /tmp/gdb-rgmanager.txt $ gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
gdb
セッションが開始され、script
によりそれを適切なテキストファイルに記録します。gdb
で、以下のコマンドを実行します。
(gdb) thread apply all bt full (gdb) quit
ctrl-D
を押すと、スクリプトセッションを停止し、それをテキストファイルに保存します。
9.5. クラスターサービスがハングする
- クラスターがノードのフェンスを試行して、フェンス動作が失敗した可能性があります。
- 全てのノード上で
/var/log/messages
ファイルを検証して、フェンス障害のメッセージがあるかどうかチェックします。もしあれば、クラスター内のノード群を再起動して、フェンシングを正しく設定します。 - 「2 ノードクラスターの各ノードが片方のノードの停止を報告する」 の説明のように、ネットワークパーティションが発生しなかったことを確認します。また、ノード間の通信が引き続き可能であり、ネットワークが有効であることを確認します。
- 一部のノードがクラスターから離脱すると、残りのノード群は定足数に足りなくなる場合があります。クラスターは機能するために定足数が必要です。ノードが削除されてクラスターが定足数を満たさなくなると、サービスとストレージはハングします。期待投票数を調節するか、必要な数のノードをクラスターに戻します。
注記
fence_node
コマンド又は Conga を使用して手動でノードをフェンスすることができます。詳細は fence_node
の man ページ及び 「ノードのクラスターに対する離脱/参加」 を参照してください。
9.6. クラスターサービスが起動しない
cluster.conf
ファイル内のサービス設定に構文エラーがある可能性があります。rg_test
コマンドを使用すると、設定の構文を検証できます。設定や構文に間違いがある場合は、rg_test
が問題を知らせてくれます。$
rg_test test /etc/cluster/cluster.conf start service servicename
rg_test
コマンドに関する詳細情報は、「サービスとリソース順序へのデバッグとテスト」 をご覧ください。設定が有効ならば、リソースグループマネージャーのロギングを増加してメッセージログを読むことにより、サービスの失敗となる原因を判定します。ログレベルを増加するには、loglevel="7"
パラメーターをcluster.conf
ファイル内のrm
タグに追加します。そうすると、クラスター化サービスの起動、停止、移行に関するメッセージログをより詳細に表示することができます。
9.7. クラスターが制御するサービスが移行に失敗する
- サービス実行に必要なクラスター内の全ノード上に、そのサービスの実行に必要なリソースが存在することを確認します。例えば、クラスター化したサービスが、スクリプトファイルが特定の場所にある、あるいはファイルシステムが特定のマウントポイントでマウントされていると仮定する場合、これらのリソースがクラスター内の全ノード上の予期される位置で利用可能であることを確認しなければなりません。
- フェイルオーバードメイン、サービスの依存関係、サービスの独占性が、期待通りにサービスをノードに移行できない方法で設定されていないことを確認します。
- 問題となるサービスが仮想マシンのリソースである場合、ドキュメントをチェックして、正しい設定作業がすべて完了していることを確認します。
- 「クラスターサービスが起動しない」 で説明してあるように、リソースグループマネージャーのログを増やします。その後、メッセージログを読み取り、移行する際にサービス起動が失敗する原因を割り出します。
9.8. 2 ノードクラスターの各ノードが片方のノードの停止を報告する
9.9. LUN パス障害でノードがフェンスされる
9.10. Quorum disk がクラスターメンバーとして表示されない
qdisk
サービスにchkconfig on
がセットされていることを確認します。qdisk
サービスを開始したことを確認します。- なお、quorum disk がクラスターに登録されるには数分かかります。これは通常の起こりうる動作です。
9.11. 異常なフェイルオーバーの動作
9.12. フェンシングがランダムに発生する
- フェンスの根本的な原因は 常に トークンを紛失するノードです。これは、ノードがクラスターの残りと通信ができなくなり、ハートビートの送信を停止するという意味です。
- 指定されたトークンの間隔内にシステムがハートビートを返さない状況は、いずれもフェンスにつながります。デフォルトではトークンの間隔は 10 秒です。これを指定するには、任意の値 (ミリ秒単位) を
cluster.conf
ファイル内の totem タグのトークンパラメーターに追加します (例えば 30 秒の場合はtotem token="30000"
とセット)。 - ネットワークが健全で期待通りに機能していることを確認します。
- インターノード通信にクラスターが使用するインターフェースが 0、1、2 以外のボンディングモードを使用していないことを確認します (ボンディングモード 0 と 2 は Red Hat Enterprise Linux 6.4 よりサポートされています)。
- システムが「凍結」又はカーネルパニックを起こしていないかどうか判定する手段を取ります。
kdump
ユーティリティをセットアップして、フェンスの発生時にコアを取得するかどうか確認します。 - 誤ってフェンスに原因があるというような状況を作り出さないようにしてください。例えば、ストレージ障害が原因で quorum disk がノードを取り出す場合や、何らかの外部条件が理由で Oracle RAC のようなサードパーティ製品がノードを再起動するような場合です。多くの場合、そのような問題の特定にはメッセージログが非常に役立ちます。フェンス又はノードの再起動が発生すると常に、発生した時点からクラスター内の全ノードのメッセージログを検査することを標準的な作業として行ってください。
- 予定している時にシステムのハートビートの応答がない原因となるハードウェア欠陥がないか、システムを徹底的に検査します。
9.13. DLM (分散ロックマネージャー) のデバッグログは有効にする
/etc/cluster/cluster.conf
ファイルを編集して、設定オプションを dlm
タグに追加します。log_debug
オプションは DLM カーネルデバッグメッセージを有効にし、plock_debug
オプションは POSIX ロックデバッグメッセージを有効にします。
/etc/cluster/cluster.conf
ファイル内のセクションは、両方の DLM デバッグオプションを有効にする dlm
タグを示しています。
<cluster config_version="42" name="cluster1"> ... <dlm log_debug="1" plock_debug="1"/> ... </cluster>
/etc/cluster/cluster.conf
ファイルの編集後、cman_tool version -r
コマンドを実行して残りのクラスターノードに設定を伝播します。
第10章 Red Hat High Availability アドオンを使用した SNMP の設定
10.1. SNMP と Red Hat High Availability アドオン
foghorn
で、SNMP トラップを送信します。foghorn
サブエージェントは、AgentX プロトコルを介して snmpd
デーモンと通信します。 foghorn
サブエージェントは SNMP トラップを作成するだけで、get
や set
など他の SNMP 動作はサポートしません。
foghorn
サブエージェントに config
オプションはなく、ある特定のソケットを使用するための設定を行うことができません。デフォルトの AgentX ソケットのみが現在サポートされています。
10.2. Red Hat High Availability アドオンを使用した SNMP の設定
- Red Hat High Availability アドオンで SNMP トラップを使用するには、
snmpd
サービスが必要となり、これはマスターエージェントの役割をします。foghorn
サービスはサブエージェントであり、AgentX プロトコルを使用するため、以下の行を/etc/snmp/snmpd.conf
ファイルに追加して、AgentX サポートを有効にする必要があります。master agentx
- SNMP トラップ通知の送信先となるホストを指定するには、以下の行を
/etc/snmp/snmpd.conf
ファイルに追加します:trap2sink host
通知の処理方法に関する詳細はsnmpd.conf
の man ページをご覧ください。 - 以下のコマンド群を実行して
snmpd
デーモンが有効かつ稼働していることを確認します:#
chkconfig snmpd on
#service snmpd start
messagebus
デーモンがまだ有効でなく稼働していない場合は、以下のコマンド群を実行します:#
chkconfig messagebus on
#service messagebus start
- 以下のコマンド群を実行して
foghorn
デーモンが有効で稼働していることを確認します:#
chkconfig foghorn on
#service foghorn start
- 以下のコマンドを実行して、
COROSYNC-MIB
が SNMP トラップを生成するようにシステムを設定し、corosync-notifyd
デーモンが有効かつ実行しているようにします。#
echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd
#chkconfig corosync-notifyd on
#service corosync-notifyd start
foghorn
サービスから D-bus 信号を受信し、SNMPv2 トラップに解釈されます。その後、これらのトラップは、trapsink
エントリで定義しているホストに渡されて SNMPv2 トラップを受信します。
10.3. SNMP トラップの転送
snmptrapd
デーモンを使用して、通知に対する応答方法をカスタマイズできます。
- クラスター内の各ノードに対して、「Red Hat High Availability アドオンを使用した SNMP の設定」 で説明してある手順を実行します。
/etc/snmp/snmpd.conf
ファイル内のtrap2sink host
エントリをセットして、snmptrapd
デーモンを実行することになる外部ホストを指定します。 - トラップを受信する外部ホスト上で、
/etc/snmp/snmptrapd.conf
設定ファイルを編集して使用しているコミュニティ文字列を指定します。例えば、以下のエントリを使用して、snmptrapd
デーモンがpublic
コミュニティ文字列を使用して通知を処理できるようにします。authCommunity log,execute,net public
- トラップを受信する外部ホスト上で以下のコマンド群を実行して、
snmptrapd
デーモンが有効で稼働中であることを確認します:#
chkconfig snmptrapd on
#service snmptrapd start
snmptrapd.conf
の man ページをご覧ください。
10.4. Red Hat High Availability アドオンにより生成される SNMP トラップ
foghorn
デーモンは以下のトラップを生成します:
fenceNotifyFenceNode
このトラップは、フェンス済みのノードが別のノードへのフェンスを試行する度に発生します。このトラップは 1 つのノード上(フェンス操作を試みたノード)でのみ生成される点に注意してください。この通知には以下のフィールドが含まれます:fenceNodeName
- フェンス済みノードの名前fenceNodeID
- フェンス済みノードのノード idfenceResult
- フェンス操作の結果(0 は成功、-1 は問題あり、-2 はフェンシングメソッド定義なし)
rgmanagerServiceStateChange
このトラップは、クラスターサービスの状態が変化した時に発生します。この通知には以下のフィールドが含まれます:rgmanagerServiceName
- サービスの名前、これにはサービスタイプ(例えばservice:foo
やvm:foo
)が含まれます。rgmanagerServiceState
- サービスの状態。トラップが複雑にならないように、starting
やstopping
などの遷移状態は除きます。rgmanagerServiceFlags
- サービスのフラグ。現在、サポートされているフラグは 2 つです。frozen
はclusvcadm -Z
を使用して凍結されているサービスを意味します。partial
は、失敗したリソースにnon-critical
のフラグが付けられ、リソースが失敗してもそのコンポーネントはサービス全体に影響を与えずに手動で再開始できることを示しています。rgmanagerServiceCurrentOwner
- サービスのオーナー。サービスが稼働していない場合は、これは(none)
になります。rgmanagerServicePreviousOwner
- 既知の場合、前回のサービスオーナー。前回のオーナーが不明である場合は、これは(none)
を示します。
corosync-nodifyd
デーモンは以下のトラップを生成します:
corosyncNoticesNodeStatus
このトラップはノードがクラスターに参加/離脱する時に発生します。通知には以下のフィールドが含まれます:corosyncObjectsNodeName
- ノード名corosyncObjectsNodeID
- ノード idcorosyncObjectsNodeAddress
- ノード IP アドレスcorosyncObjectsNodeStatus
- ノードのステータス (joined
又はleft
)
corosyncNoticesQuorumStatus
このトラップは quorum の状態が変化した時に発生します。この通知には以下のフィールドが含まれます:corosyncObjectsNodeName
- ノード名corosyncObjectsNodeID
- ノード idcorosyncObjectsQuorumStatus
- quorum の新しい状態 (quorate
又はNOT quorate
)
corosyncNoticesAppStatus
このトラップはクライアントアプリケーションが Corosync に対して接続/切断した時に発生します。corosyncObjectsNodeName
- ノード名corosyncObjectsNodeID
- ノード idcorosyncObjectsAppName
- アプリケーション名corosyncObjectsAppStatus
- アプリケーションの新しい状態 (connected
又はdisconnected
)
第11章 Clustered Samba の設定
注記
注記
11.1. CTDB の概要
11.2. 必要なパッケージ
ctdb
samba
samba-common
samba-winbind-clients
11.3. GFS2 の設定
- Samba 共有でエクスポートされるユーザーデータを保持し、そのデータに合うサイズにする
/dev/csmb_vg/csmb_lv
。この例では、100GB サイズの論理ボリュームを作成します。 - 共有の CTDB 状態の情報を格納し、1GB サイズが必要な
/dev/csmb_vg/ctdb_lv
。
mkfs.gfs2
コマンドを実行します。このコマンドは 1 クラスターノードのみで実行します。
/dev/csmb_vg/csmb_lv
の論理ボリュームで Samba 共有をホストするファイルシステムを作成するには、次のコマンドを実行します。
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
-j
- ファイルシステムで作成するジャーナルの数を指定します。この例では、3 つのノードから成るクラスターを作成します。つまり、ノードごとに 1 つのジャーナルを作成します。
-p
- ロッキングプロトコルを指定します。
lock_dlm
は GFS2 がノード間通信に使用するロッキングプロトコルです。 -t
- ロックテーブル名を cluster_name:fs_name の形式で指定します。この例では、
cluster.conf
ファイルで指定されたクラスター名はcsmb
です。ファイルシステム名にはgfs2
を使用します。
This will destroy any data on /dev/csmb_vg/csmb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/csmb_lv
Blocksize: 4096
Device Size 100.00 GB (26214400 blocks)
Filesystem Size: 100.00 GB (26214398 blocks)
Journals: 3
Resource Groups: 400
Locking Protocol: "lock_dlm"
Lock Table: "csmb:gfs2"
UUID:
94297529-ABG3-7285-4B19-182F4F2DF2D7
/dev/csmb_vg/csmb_lv
ファイルシステムは全ノードの /mnt/gfs2
にマウントされます。このマウントポイントは、/etc/samba/smb.conf
ファイル内で path =
オプションを使って share
ディレクトリの場所として指定する値と一致する必要があります。詳細は 「Samba の設定」 に記載されています。
/dev/csmb_vg/ctdb_lv
論理ボリュームの CTDB 状態の情報をホストするためにファイルシステムを作成するには、次のコマンドを実行します。
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state /dev/csmb_vg/ctdb_lv
/dev/csmb_vg/csmb_lv
上にファイルシステムを作成した例のロックテーブル名とは異なります。これで、ファイルシステムに使用される様々なデバイス用のロックテーブル名と区別します。
mkfs.gfs2
の出力は以下のように表示されます。
This will destroy any data on /dev/csmb_vg/ctdb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/ctdb_lv
Blocksize: 4096
Device Size 1.00 GB (262144 blocks)
Filesystem Size: 1.00 GB (262142 blocks)
Journals: 3
Resource Groups: 4
Locking Protocol: "lock_dlm"
Lock Table: "csmb:ctdb_state"
UUID:
BCDA8025-CAF3-85BB-B062-CC0AB8849A03
/dev/csmb_vg/ctdb_lv
ファイルシステムは全ノードの /mnt/ctdb
にマウントされます。このマウントポイントは、/etc/sysconfig/ctdb
ファイル内で CTDB_RECOVERY_LOCK
オプションを使って .ctdb.lock
ファイルの場所として指定する値と一致する必要があります。詳細は 「CTDB の設定」 に記載されています。
11.4. CTDB の設定
/etc/sysconfig/ctdb
にあります。CTDB が動作するよう設定する必要がある必須フィールドは、以下のとおりです。
CTDB_NODES
CTDB_PUBLIC_ADDRESSES
CTDB_RECOVERY_LOCK
CTDB_MANAGES_SAMBA
(有効にする必要あり)CTDB_MANAGES_WINBIND
(メンバーサーバーで実行する場合は有効にする必要あり)
CTDB_NODES=/etc/ctdb/nodes CTDB_PUBLIC_ADDRESSES=/etc/ctdb/public_addresses CTDB_RECOVERY_LOCK="/mnt/ctdb/.ctdb.lock" CTDB_MANAGES_SAMBA=yes CTDB_MANAGES_WINBIND=yes
CTDB_NODES
- クラスターノードの一覧を含むファイルの場所を指定します。
CTDB_NODES
が参照する/etc/ctdb/nodes
ファイルには、次の例のようにクラスターノードの IP アドレスが一覧表示されているだけです。192.168.1.151 192.168.1.152 192.168.1.153
この例では、クラスター/CTDB 通信とクライアントサービスの両方に使用されるインターフェース/IP は各ノードに 1 つだけあります。しかし、各クラスターノードは 2 つのネットワークインターフェースを持つことが強く推奨されます。これにより、インターフェースの 1 セットはクラスター/CTDB 通信専用に、別のインターフェースのセットはパブリッククライアントアクセス専用にできます。クラスターネットワークの適切な IP アドレスを使用し、cluster.conf
ファイル内で使用されているホスト名/IP アドレスが同じであることを確かめてください。同様に、public_addresses
ファイル内のクライアントアクセスに対してもパブリックネットワークの適切なインターフェースを使用するようにしてください。ここで、極めて重要なことは、/etc/ctdb/nodes
ファイルが全ノードで全く同一である点です。順番が重要であり、別々のノードで違う情報が見つかると CTDB は失敗します。 CTDB_PUBLIC_ADDRESSES
- このクラスターによってエクスポートされる Samba 共有にアクセスするために使用可能な IP アドレスを一覧表示するファイルの場所を指定します。これらは、Clustered Samba サーバー名用に DNS で設定すべき IP アドレスで、CIFS クライアントが接続するアドレスです。Clustered Samba サーバー名を複数の IP アドレスを持つ 1 つの DNS の A レコードタイプとして設定し、ラウンドロビン DNS がクラスターノード全体にクライアントを分散するようにします。この例では、ラウンドロビン DNS エントリ
csmb-server
を/etc/ctdb/public_addresses
ファイルに一覧表示されている全アドレスで設定しました。DNS はこのエントリを使用するクライアントをクラスター全体にラウンドロビン式で分散します。各ノードの/etc/ctdb/public_addresses
ファイルの内容は次のとおりです。192.168.1.201/0 eth0 192.168.1.202/0 eth0 192.168.1.203/0 eth0
この例では、現在ネットワークで使用されていない 3 つのアドレスを使用します。実際に使用する設定では、対象となるクライアントがアクセスできるアドレスを選択してください。もう一つの方法として、この例では、合計 4 つのパブリックアドレスを除いた 3 つのノードがあるクラスター内の/etc/ctdb/public_addresses
ファイルのコンテンツを表示しています。 以下の例では、IP アドレス 198.162.2.1 は、ノード 0 又はノード 1 のいずれかによってホストでき、これらのノードのうち少なくとも 1 つが利用可能な限りクライアントは使用することができます。ノード 0 とノード 1 の両方に障害があった場合に限り、クライアントはこのパブリックアドレスを使用できなくなります。他のすべてのパブリックアドレスは、それぞれ単一のノードによって機能するため、それぞれ対応するノードも利用可能な場合にのみ使用できます。ノード 0 の/etc/ctdb/public_addresses
ファイルには次のコンテンツが含まれます。198.162.1.1/24 eth0 198.162.2.1/24 eth1
ノード 1 の/etc/ctdb/public_addresses
ファイルには次のコンテンツが含まれます。198.162.2.1/24 eth1 198.162.3.1/24 eth2
ノード 2 の/etc/ctdb/public_addresses
ファイルには次のコンテンツが含まれます。198.162.3.2/24 eth2
CTDB_RECOVERY_LOCK
- CTDB がリカバリ用に内部で使用するロックファイルを指定します。このファイルは、すべてのクラスターノードがアクセスできるように共有ストレージに存在する必要があります。このセクションの例は、全ノードで
/mnt/ctdb
にマウントされる GFS2 ファイルシステムを使用します。これは、エクスポートされる Samba 共有をホストする GFS2 ファイルシステムとは異なります。このリカバリロックファイルは、スプリットブレインシナリオを防ぐために使用されます。CTDB (1.0.112 以降) の新しいバージョンでは、このファイルがスプリットブレインを防ぐ別の仕組みで置換されていれば、このファイルの指定はオプションとなります。 CTDB_MANAGES_SAMBA
- このフィールドを
yes
に設定して有効にする場合、CTDB が Samba サービスの起動/停止を行うことができると指定します。これは、CTDB がサービスの移行/フェイルオーバーを提供するために必要だと考えられているためです。CTDB_MANAGES_SAMBA
を有効にしたら、以下のコマンドを実行して、smb
及びnmb
デーモンのinit
の自動スタートアップを無効にしてください。[root@clusmb-01 ~]#
chkconfig snb off
[root@clusmb-01 ~]#chkconfig nmb off
CTDB_MANAGES_WINBIND
- このフィールドを
yes
に設定して有効にする場合、必要に応じて CTDB がwinbind
デーモンの起動/停止を行うことができると指定します。Windows ドメイン又は Active Directory セキュリティモードで CTDB を使用している場合には、これを有効にすることをお勧めします。CTDB_MANAGES_WINBIND
を有効にしたら、次のコマンドを実行して、winbind
デーモンのinit
の自動スタートアップを無効にしてください。[root@clusmb-01 ~]#
chkconfig windinbd off
11.5. Samba の設定
smb.conf
は /etc/samba/smb.conf
にあります。このファイルには、以下のパラメーターが含まれています。
[global] guest ok = yes clustering = yes netbios name = csmb-server [csmb] comment = Clustered Samba public = yes path = /mnt/gfs2/share writeable = yes ea support = yes
/mnt/gfs2/share
にある csmb
と呼ばれる共有をエクスポートします。これは、/etc/sysconfig/ctdb
の CTDB 設定ファイル内で CTDB_RECOVERY_LOCK
パラメーターとして指定した /mnt/ctdb/.ctdb.lock
の GFS2 共有ファイルシステムとは異なります。
/mnt/gfs2
内に share
ディレクトリを作成します。clustering = yes
エントリは、Samba に CTDB を使用するよう指示します。netbios name = csmb-server
エントリは、すべてのノードが NetBIOS の共通名を持つように明示的に設定します。ea support
パラメーターは、拡張属性の使用を計画している場合に必要です。
smb.conf
設定ファイルは、全クラスターノードで全く同一でなければなりません。
net conf
コマンドを使用したレジストリベースの設定も提供します。これにより、クラスターノード間で設定ファイルを手動でコピーしなくてもクラスターメンバー間で設定が自動的に一致するようにします。 net conf
コマンドの詳細については、net
(8) の man ページを参照してください。
11.6. CTDB と Samba サービスの起動
share
ディレクトリのパーミッション及びクラスターノードのユーザーアカウントを、クライアントアクセス用に設定することをお勧めします。
ctdbd
デーモンを起動します。この例では CTDB で CTDB_MANAGES_SAMBA=yes
と設定したため、CTDB は全ノードで Samba サービスを起動して、設定済みのすべての Samba 共有をエクスポートします。
[root@clusmb-01 ~]# service ctdb start
ctdb status
を実行すると、以下のように CTDB のステータスが表示されます。
[root@clusmb-01 ~]# ctdb status
Number of nodes:3
pnn:0 192.168.1.151 OK (THIS NODE)
pnn:1 192.168.1.152 OK
pnn:2 192.168.1.153 OK
Generation:1410259202
Size:3
hash:0 lmaster:0
hash:1 lmaster:1
hash:2 lmaster:2
Recovery mode:NORMAL (0)
Recovery master:0
11.7. Clustered Samba サーバーの使用
/etc/ctdb/public_addresses
ファイルで指定した IP アドレスの 1 つに接続するか、以前設定した csmb-server
DNS エントリを使用することにより、以下のようにクライアントはエクスポートされた Samba 共有に接続できます。
[root@clusmb-01 ~]# mount -t cifs //csmb-server/csmb /mnt/sambashare -o user=testmonkey
[user@clusmb-01 ~]$ smbclient //csmb-server/csmb
付録A フェンスデバイスパラメーター
ccs
コマンドの使用、又は etc/cluster/cluster.conf
ファイルの編集により行うことができます。各フェンスエージェントのフェンスデバイスパラメーターの完全な一覧と詳細については、各エージェントの man ページを参照してください。
注記
注記
/etc/cluster/cluster.conf
) 内のパスワードが可視化しないようにします。
フェンスデバイス | フェンスエージェント | パラメーターの詳細についての参照 |
---|---|---|
APC Power Switch (telnet/SSH) | fence_apc | 表A.2「APC Power Switch (telnet/SSH)」 |
APC Power Switch over SNMP | fence_apc_snmp | 表A.3「APC Power Switch over SNMP」 |
Brocade Fabrid Switch | fence_brocade | 表A.4「Brocade Fabric Switch」 |
Cisco MDS | fence_cisco_mds | 表A.5「Cisco MDS」 |
Cisco UCS | fence_cisco_ucs | 表A.6「Cisco UCS」 |
Dell DRAC 5 | fence_drac5 | 表A.7「Dell DRAC 5」 |
Eaton Network Power Switch (SNMP Interface) | fence_eaton_snmp | 表A.8「Eaton Network Power Controller (SNMP Interface) (Red Hat Enterprise Linux 6.4 以降)」 |
Egenera SAN Controller | fence_egenera | 表A.9「Egenera SAN Controller」 |
ePowerSwitch | fence_eps | 表A.10「ePowerSwitch」 |
Fence virt | fence_virt | 表A.11「Fence virt」 |
Fujitsu Siemens Remoteview Service Board (RSB) | fence_rsb | 表A.12「Fujitsu Siemens Remoteview Service Board (RSB)」 |
HP BladeSystem | fence_hpblade | 表A.13「HP BladeSystem (Red Hat Enterprise Linux 6.4 以降)」 |
HP iLO (Integrated Lights Out)、HP iLO2 | fence_ilo、fence_ilo2 | 表A.14「HP iLO (Integrated Lights Out) および HP iLO2」 |
HP iLO (Integrated Lights Out) MP | fence_ilo_mp | 表A.15「HP iLO (Integrated Lights Out) MP」 |
IBM BladeCenter | fence_bladecenter | 表A.16「IBM BladeCenter」 |
IBM BladeCenter SNMP | fence_ibmblade | 表A.17「IBM BladeCenter SNMP」 |
IBM iPDU | fence_ipdu | 表A.18「IBM iPDU (Red Hat Enterprise Linux 6.4 以降)」 |
IF MIB | fence_ifmib | 表A.19「IF MIB」 |
Intel Modular | fence_intelmodular | 表A.20「Intel Modular」 |
IPMI (Intelligent Platform Management Interface) LAN、IBM Integrated Management Module、Dell iDRAC、HPiLO3、HPiLO4. | fence_ipmilan、fence_imm、fence_idrac、fence_ilo3、fence_ilo4 | 表A.21「IPMI (Intelligent Platform Management Interface) LAN、Dell iDrac、IBM Integrated Management Module、HPiLO3、HPiLO4」 |
RHEV-M REST API | fence_rhevm | 表A.22「RHEV-M REST API (RHEL 6.2 以降及び RHEV 3.0 以降)」 |
SCSI Fencing | fence_scsi | 表A.23「SCSI 保存フェンシング」 |
VMware Fencing (SOAP Interface) | fence_vmware_soap | 表A.24「VMware フェンシング (SOAP インターフェース) (Red Hat Enterprise Linux 6.2 以降)」 |
WTI Power Switch | fence_wti | 表A.25「WTI Power Switch」 |
fence_apc
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | フェンスデーモンが telnet/ssh 経由でログインするクラスターに接続されている APC デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port | port | TCP ポート |
Switch (optional) | switch | 複数のデイジーチェーンで接続されたスイッチを使用する時に、ノードに接続する APC スイッチのスイッチ番号 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
Path to SSH Identity File | identity_file | SSH の識別ファイル |
fence_apc_snmp
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | フェンスデーモンが SNMP プロトコルを介してログインするクラスターに接続されている APC デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
UDP/TCP port | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 | のパラメーターを上書きします。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | TCP ポート |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_brocade
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続された Brocade デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Port | port | スイッチアウトレット番号 |
Unfencing | unfence section of the cluster configuration file | これを有効にすると、フェンス済みのノードは再起動されるまでは再度有効になりません。これは、パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) に必要となります。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node (8) の man ページを参照してください。クラスター設定ファイルでのアンフェンシング設定に関する詳細情報は、「フェンシングの設定」 を参照してください。ccs コマンドによるアンフェンシング設定についての情報は、「単一のストレージベースのフェンスデバイスによるノードの設定」 を参照してください。 |
fence_cisco_mds
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | SNMP が有効になっている Cisco MDS 9000 シリーズデバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
UDP/TCP port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3) |
SNMP Community | community | SNMP コミュニティストリング |
SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 | のパラメーターを上書きします。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | TCP ポート |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_cisco_ucs
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | Cisco UCS デバイス用の名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
IP port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Use SSL | ssl | デバイスとの通信に SSL 接続を使用する |
Sub-Organization | suborg | サブ組織へのアクセスに必要な追加のパス |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_drac5
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | DRAC に割り当てられた名前 |
IP Address or Hostname | ipaddr | DRAC に割り当てられた IP アドレス、又はホスト名 |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | DRAC へのアクセスに使用するログイン名 |
Password | passwd | DRAC への接続を認証するために使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
Path to SSH Identity File | identity_file | SSH の識別ファイル |
Module Name | module_name | 複数の DRAC モジュールを使用する時の DRAC のモジュール名 (オプション) |
Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’\$’ です。 |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_eaton_snmp
が使用するフェンスデバイスパラメーターを記載しています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続された Eaton ネットワークパワースイッチの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 | のパラメーターを上書きします。
Power wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号または名前。このパラメーターは常に必須となっています。 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_egenera
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続されている Egenera BladeFrame デバイスの名前 |
CServer | cserver | デバイスに割り当てられているホスト名 (及び、オプションとして username@hostname 形式のユーザー名)。 詳細情報は、fence_egenera(8) の man ページを参照してください。 |
ESH Path (optional) | esh | cserver 上の esh コマンドへのパス (デフォルトは /opt/panmgr/bin/esh です)。 |
Username | user | ログイン名。デフォルト値は root です。 |
lpan | lpan | デバイスの論理プロセスエリアネットワーク (LPAN) |
pserver | pserver | デバイスのプロセッシングブレード (pserver) の名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
Unfencing | unfence section of the cluster configuration file | これを有効にすると、フェンス済みのノードは再起動されるまでは再度有効になりません。これは、パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) に必要となります。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node (8) の man ページを参照してください。クラスター設定ファイルでのアンフェンシング設定に関する詳細情報は、「フェンシングの設定」 を参照してください。ccs コマンドによるアンフェンシング設定についての情報は、「単一のストレージベースのフェンスデバイスによるノードの設定」 を参照してください。 |
fence_eps
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続されている ePowerSwitch デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Name of Hidden Page | hidden_page | デバイス用の非表示ページの名前 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_virt
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | Fence virt フェンスデバイスの名前 |
Serial Device | serial_device | ホスト上では、シリアルデバイスは各ドメインの設定ファイル内にマップされる必要があります。詳細情報は、fence_virt.conf の man ページをご覧ください。このフィールドを指定した場合は、fence_virt フェンシングエージェントがシリアルモードで実行するようになります。値を指定しないと、fence_virt フェンシングエージェントが VM チャンネルモードで実行するようになります。 |
Serial Parameters | serial_params | シリアルパラメーター。デフォルトは 115200, 8N1 です。 |
VM Channel IP Address | channel_address | チャンネル IP。デフォルト値は 10.0.2.179 です。 |
Port or Domain (deprecated) | port | フェンスする仮想マシン (ドメイン UUID 又は名前) |
ipport | チャンネルポート。デフォルト値は 1229 で、luci でこのフェンスデバイスを設定する時に使用される値です。 |
fence_rsb
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | フェンスデバイスとして使用する RSB の名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられたホスト名 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
TCP Port | ipport | telnet サービスがリッスンするポート番号。デフォルト値は 3172 です。 |
Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’\$’ です。 |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_hpblade
により使用されるフェンスデバイスパラメーターが記載されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続された HP Bladesystem デバイスに割り当てられた名前 |
IP Address or Hostname | ipaddr | HP BladeSystem デバイスに割り当てられた IP アドレスまたはホスト名 |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | HP BladeSystem デバイスにアクセスする際に使用するログイン名。このパラメーターは必須です。 |
Password | passwd | フェンスデバイスへの接続認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’\$’ です。 |
Missing port returns OFF instead of failure | missing_as_off | ポートがない場合に、問題が発生する代わりに OFF を返します。 |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
Path to SSH Identity File | identity_file | SSH の識別ファイル |
fence_ilo
および HP iLO2 デバイス fence_ilo2
のフェンスエージェントは、同一実装を共有します。表A.14「HP iLO (Integrated Lights Out) および HP iLO2」 は、これらのエージェントが使用するフェンスデバイスパラメーターを一覧表示しています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | HP iLO サポートがあるサーバーの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_ilo_mp
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | HP iLO サポートがあるサーバーの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
Path to SSH Identity File | identity_file | SSH の識別ファイル |
Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’MP>’, ’hpiLO->’ です。 |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_bladecenter
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続された IBM BladeCenter デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
IP port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
Path to SSH Identity File | identity_file | SSH の識別ファイル |
fence_ibmblade
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続された IBM BladeCenter SNMP デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
SNMP Community | community | SNMP コミュニティストリング |
SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
SNMP privacy protocol password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 | のパラメーターを上書きします。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_ipdu
で使用されるフェンスデバイスパラメーターを記載しています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | フェンスデーモンが SNMP プロトコルを介してログインするクラスターに接続されている IBM iPDU デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
UDP/TCP Port | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 | のパラメーターを上書きします。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_ifmib
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続された IF MIB デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
SNMP Community | community | SNMP コミュニティストリング |
SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 | のパラメーターを上書きします。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_intelmodular
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続された Intel Modular デバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 | のパラメーターを上書きします。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_ipmilan
)、Dell iDRAC (fence_idrac
)、IBM Integrated Management Module (fence_imm
)、HP iLO3 デバイス fence_ilo3
、および HP iLO4 デバイス fence_ilo4
のフェンスエージェントは、同一実装を共有します。表A.21「IPMI (Intelligent Platform Management Interface) LAN、Dell iDrac、IBM Integrated Management Module、HPiLO3、HPiLO4」 は、これらのエージェントが使用するフェンスデバイスパラメーターを一覧表示しています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続されるフェンスデバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
Login | login | 所定のポートに対し power on/off コマンドを発行できるユーザーのログイン名 |
Password | passwd | ポートへの接続の認証に使用されるパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Authentication Type | auth | 認証タイプ: none 、password または MD5 |
Use Lanplus | lanplus | True または 1 。空白の場合、値は False になります。ハードウェアが対応している場合、Lanplus を有効にして接続のセキュリティを高めることが推奨されます。 |
Ciphersuite to use | cipher | IPMIv2 lanplus 接続用に使用するリモートサーバー認証、整合性、及び暗号化アルゴリズム |
Privilege level | privlvl | デバイスの権限レベル |
IPMI Operation Timeout | timeout | IPMI オペレーションのタイムアウト (秒単位) |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_rhevm
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | RHEV-M REST API フェンシングデバイス用の名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Use SSL | ssl | デバイスとの通信に SSL 接続を使用する |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_scsi
により使用されるフェンスデバイスパラメーターが一覧表示されています。
注記
- SCSI フェンシングの使用時は、クラスター内の全てのノードは同じデバイスに登録する必要があります。それにより、各ノードが登録されているすべてのデバイスから他のノードの登録キーを削除できます。
- クラスターボリュームに使用されるデバイスは、パーティションではなく、完全な LUN でなければなりません。SCSI 永続予約は LUN 全体で機能するため、アクセスは個別のパーティションではなく各 LUN に対し制御されることになります。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | SCSI フェンスデバイスの名前 |
Unfencing | unfence section of the cluster configuration file | これを有効にすると、フェンス済みのノードは再起動されるまでは再度有効になりません。これは、パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) に必要となります。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node (8) の man ページを参照してください。クラスター設定ファイルでのアンフェンシング設定に関する詳細情報は、「フェンシングの設定」 を参照してください。ccs コマンドによるアンフェンシング設定についての情報は、「単一のストレージベースのフェンスデバイスによるノードの設定」 を参照してください。 |
Node name | nodename | このノード名を使って、現行オペレーションに使用するキー値を生成します。 |
Key for current action | key | (ノード名に優先) 現行オペレーションに使用するキー。このキーはノードに対して一意であること。"on" アクションに対しては、キーはローカルノードを登録するキー使用を指定します。"off" アクションに対しては、デバイスから削除されるキーを指定します。 |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_vmware_soap
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | 仮想マシンフェンシングデバイスの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
VM name | port | インベントリパス形式での仮想マシンの名前 (例えば /datacenter/vm/Discovered_virtual_machine/myMachine) |
VM UUID | uuid | フェンスする仮想マシンの UUID |
Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
Use SSL | ssl | デバイスとの通信に SSL 接続を使用する |
fence_wti
により使用されるフェンスデバイスパラメーターが一覧表示されています。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | クラスターに接続されている WTI パワースイッチの名前 |
IP Address or Hostname | ipaddr | デバイスに割り当てられた IP 又はホスト名のアドレス |
IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
Login | login | デバイスのアクセスに使用するログイン名 |
Password | passwd | デバイスへの接続の認証に使用するパスワード |
Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると | パラメーターが上書きされます。
Force command prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は、 [’RSM>’, ’>MPC’, ’IPS>’, ’TPS>’, ’NBB>’, ’NPS>’, ’VMR>’] |
Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
Path to SSH Identity File | identity_file | SSH の識別ファイル |
Port | port | 仮想マシンの物理的なプラグ番号又は名前 |
付録B HA リソースパラメーター
ccs
コマンドの使用、etc/cluster/cluster.conf
ファイルの編集により行うことができます。表B.1「HA リソースの要約」 には、リソース、その該当するリソースエージェント、パラメーターの説明を含む他の表への参照が一覧表示されています。リソースエージェントについて理解を深めるには、いずれかのクラスターノードの /usr/share/cluster
内にあるリソースエージェントを参照してください。
/usr/share/cluster
ディレクトリにはリソースグループ service.sh
用のダミーの OCF スクリプトが含まれています。このスクリプトに含まれているパラメーターの詳細については、service.sh
スクリプトを参照してください。
cluster.conf
の要素と属性についての総括的な一覧と説明は、/usr/share/cluster/cluster.rng
にあるクラスタースキーマ、及び /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html
) にある注釈付きスキーマを参照してください。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | Apache サービスの名前です。 |
Server Root | server_root | デフォルト値は /etc/httpd です。 |
Config File | config_file | Apache 設定ファイルを指定します。デフォルト値は /etc/httpd/conf です。 |
httpd Options | httpd_options | httpd 用の他のコマンドラインオプションです。 |
Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
フィールド | luci フィールド | cluster.conf 属性 |
---|---|---|
Instance Name | name | Condor インスタンスに一意の名前を指定します。 |
Condor Subsystem Type | type | このインスタンスの Condor サブシステムのタイプである、schedd 、job_server 、又は query_server を指定します。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | ファイルシステムリソース用の名前を指定します。 |
Filesystem Type | fstype | 指定がないと、mount がファイルシステムタイプを決定する試みをします。 |
Mount Point | mountpoint | このファイルシステムをマウントするためのファイルシステム階層内のパス |
Device, FS Label, or UUID | device | ファイルシステムリソースと関連のあるデバイスを指定します。これは、ブロックデバイス、ファイルシステムラベル、又はファイルシステムの UUID のいずれかです。 |
Mount Options | options | マウントオプション。これはファイルシステムがマウントされる時に使用するオプションであり、ファイルシステム特有である場合があります。サポートされているマウントオプションについては、『mount (8)』 の man ページを参照してください。 |
File System ID (optional) | fsid | 注記 File System ID は NFS サービスでのみ使用されます。
新規のファイルシステムリソースを作成する時、このフィールドは空白のままにできます。フィールドを空白にすると、パラメーターをコミットした後、設定中にファイルシステム ID は自動的に割り当てられます。ファイルシステム ID を明示的に割り当てる必要がある場合は、このフィールド内で指定してください。
|
Force Unmount | force_unmount | 有効になっていると、ファイルシステムのアンマウントを強制します。デフォルトのセッティングは disabled (無効) です。Force Unmount はアンマウント時にマウントポイントの全てのプロセスをキルしてマウントを開放します。 |
Force fsck | force_fsck | 有効になっていると、ファイルシステムをマウントする前に fsck を実行することになります。デフォルトセッティングは disabled です。 |
Enable NFS and lockd workaround (Red Hat Enterprise Linux 6.4 以降) | nfsrestart | ファイルシステムが NFS 経由でエクスポートされ、アンマウントの際に問題が発生することがある場合 (シャットダウン時やサービスのリロケーション時)、このオプションを設定するとアンマウントの操作の前にファイルシステムの参照をすべてドロップします。このオプションを設定するには、NFS Server リソースとあわせて使用することはできません。ファイルシステムのアンマウントが大変になるため、最終手段としてこのオプションを設定するようにしてください。 | オプションを有効にする必要があります。ただし、
Use Quick Status Checks | quick_status | 有効の場合は、クイックステータスチェックを実行します。 |
Reboot Host Node if Unmount Fails | self_fence | 有効にすると、このファイルシステムのアンマウントに問題が発生した場合にノードを再起動します。filesystem リソースエージェントは、1、yes 、on または true を認識してこのパラメーターを有効にします。また、0、no 、off または false で無効にします。デフォルト設定は disabled です。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | ファイルシステムリソースの名前 |
Mount Point | mountpoint | ファイルシステムリソースがマウントされるパスです。 |
Device, FS Label, or UUID | device | ファイルシステムリソースに関連しているデバイスのファイルです。 |
Filesystem Type | fstype | luci で GFS2 に設定します。 |
Mount Options | options | マウントオプションです。 |
File System ID (optional) | fsid | 注記 File System ID は NFS サービスでのみ使用されます。
新規の GFS2 リソースを作成する時、このフィールドは空白のままにできます。フィールドを空白にすると、パラメーターをコミットした後、設定中にファイルシステム ID は自動的に割り当てられます。ファイルシステム ID を明示的に割り当てる必要がある場合は、このフィールド内で指定してください。
|
Force Unmount | force_unmount | 有効になっていると、ファイルシステムのアンマウントを強制します。デフォルトのセッティングは disabled (無効) です。Force Unmount はアンマウント時にマウントポイントの全てのプロセスをキルしてマウントを開放します。GFS2 リソースでは、Force Unmount が 有効になっていないと、サービスの停止でマウントポイントはアンマウントされません。 |
Enable NFS and lockd workaround (Red Hat Enterprise Linux 6.4 以降) | nfsrestart | ファイルシステムが NFS 経由でエクスポートされ、アンマウントの際に問題が発生することがある場合 (シャットダウン時やサービスのリロケーション時)、このオプションを設定するとアンマウントの操作の前にファイルシステムの参照をすべてドロップします。このオプションを設定するには、NFS Server リソースとあわせて使用することはできません。ファイルシステムのアンマウントが大変になるため、最終手段としてこのオプションを設定するようにしてください。 | オプションを有効にする必要があります。ただし、
Reboot Host Node if Unmount Fails | self_fence | これを有効にしていてファイルシステムのアンマウントに失敗すると、ノードはすぐに再起動します。通常、force-unmount サポートとあわせて使用しますが、必須ではありません。GFS2 リソースエージェントは、1、yes 、on または true を認識してこのパラメーターを有効にします。また、0、no 、off または false で無効にします。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
IP Address, Netmask Bits | address | リソースの IP アドレス (オプションでネットマスクビット)。ネットマスクビット (またはネットワークプレフィックスの長さ) は、アドレスと区切り文字であるスラッシュの後ろに来ます。これは、CIDR 表記に準拠しています (例:10.1.1.1/8)。この IP アドレスは仮想アドレスです。IPv4、IPv6 アドレス、そして各 IP アドレスの NIC リンクモニタリングに対応しています。 |
Monitor Link | monitor_link | これを有効にすると、この IP アドレスがバインドされている NIC のリンクが存在しない場合にはステータスチェックが失敗します。 |
Disable Updates to Static Routes | disable_rdisc | RDISC プロトコルを使用したルーティングの更新を無効にします。 |
Number of Seconds to Sleep After Removing an IP Address | sleeptime | スリープする時間 (秒単位) を指定します。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | この LVM リソースの一意の名前です。 |
Volume Group Name | vg_name | 管理されているボリュームグループの説明的な名前です。 |
Logical Volume Name | lv_name | 管理されている論理ボリュームの名前です。このパラメーターは、管理されているボリュームグループ内に複数の論理ボリュームが存在する場合はオプションとなります。 |
Fence the Node if It is Unable to Clean UP LVM Tags | self_fence | LVM タグを削除できない場合にノードをフェンシングします。LVM リソースエージェントは、yes か 1 の値でこのパラメーターを有効にするか、no か 0 の値でこのパラメーターを無効にします。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | MySQL サーバーリソースの名前を指定します。 |
Config File | config_file | 設定ファイルを指定します。デフォルト値は /etc/my.cnf です。 |
Listen Address | listen_address | MySQL サーバーの IP アドレスを指定します。IP アドレスが指定されていない場合は、サービスからの最初の IP アドレスが採用されます。 |
mysqld Options | mysqld_options | mysqld 用の他のコマンドラインオプションです。 |
Startup Wait (seconds) | startup_wait | サービス起動の正確な終了までの待機秒数を指定します。 |
Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name |
sNFS 又は CIFS のマウント用シンボリック名です。
注記
このリソースは、クラスターサービスが NFS クライアントになるように設定する時に必要です。
|
Mount Point | mountpoint | ファイルシステムリソースのマウント先へのパスです。 |
Host | host | NFS/CIFS サーバーの IP アドレス、又はホスト名です。 |
NFS Export Directory Name or CIFS share | export | NFS エクスポートディレクトリ名、又は CIFS 共有名です。 |
Filesystem Type | fstype |
ファイルシステムタイプ:
|
Do Not Unmount the Filesystem During a Stop of Relocation Operation. | no_unmount | 有効の場合は、ファイルシステムが停止/再配置の動作中にアンマウントされないように指定します。 |
Force Unmount | force_unmount | Force Unmount が有効の場合、サービスの停止時にクラスターはこのファイルシステムを使用している全てのプロセスを kill します。ファイルシステムを使用している全てのプロセスを kill するとファイルシステムの領域が使えるようになります。そうでない場合は、アンマウントは失敗してサービスが再起動します。 |
Options | options | マウントオプションです。マウントオプションの一覧を指定します。指定されていないと、ファイルシステムは -o sync としてマウントされます。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | リソースツリー内でクライアントを参照するために使用されるそのシンボリック名です。これは、Target オプションと同じ ではありません。 |
Target Hostname, Wildcard, or Netgroup | target | マウント元のサーバーです。ホスト名、ワイルドカード (IP アドレスか、ホスト名ベース)、又はエクスポート先のホストを定義する netgroup を使用して指定できます。 |
Allow Recovery of This NFS Client | allow_recover | 回復を行います。 |
Options | options | このクライアント用のオプション一覧 — 例えば、追加のクライアントアクセス権を定義します。詳細情報は、『exports (5)』 の man ページの 『General Options』 を参照してください。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name |
リソースの説明的な名前です。NFS エクスポートリソースは確実に NFS デーモンが稼働するようにします。完全に再利用可能で、通常は 1 つの NFS エクスポートのみが必要です。
nfsexport リソース設定の詳細情報は、「nfsexport および nfsserver リソースの設定」 を参照してください。
注記
NFS エクスポートリソースは、他の NFS リソースと区別できるような明確な名前にしてください。
|
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name |
NFS サーバーリソースの説明的な名前です。NFS サーバーリソースは、NFSv4 ファイルシステムをクライアントにエクスポートする際に便利です。NFSv4 の機能的な理由により、サーバー上に一度に存在することが可能なのは、1 つの NFSv4 リソースのみです。また、各クラスターノード上で NFS のローカルインスタンスを使用する際は、NFS サーバーリソースを使用することはできません。
nfsserver リソース設定の詳細は、「nfsexport および nfsserver リソースの設定」 を参照してください。
|
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | ログ記録と他の目的用のサービス名を指定します。 |
Config File | config_file | 設定ファイルへの絶対パスを指定します。デフォルト値は /etc/openldap/slapd.conf です。 |
URL List | url_list | デフォルト値は ldap:/// です。 |
slapd Options | slapd_options | slapd 用の他のコマンドラインオプションです。 |
Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Instance Name (SID) of Oracle Instance | name | インスタンスの名前です。 |
Oracle Listener Instance Name | listener_name | Oracle リスナーのインスタンス名です。複数の Oracle インスタンスを稼働している場合は、同一マシン上で異なる名前の複数のリスナーが必要になる可能性があります。 |
Oracle User Name | user | これは、Oracle AS インスタンスが Oracle ユーザーとして実行するユーザー名です。 |
Oracle Application Home Directory | home | これは Oracle (ユーザーではなく、アプリケーション) のホームディレクトリです。Oracle のインストール時に設定します。 |
Oracle Installation Type | type |
Oracle インストールタイプです。
|
Virtual Hostname (optional) | vhost | Oracle 10g のインストールホスト名にマッチする仮想ホスト名です。oracledb リソースの開始/停止の間に、使用ホスト名は一時的にこのホスト名へ変更されることに注意して下さい。そのため、oracledb リソースを専用サービスの一部としてのみ設定する必要があります。 |
TNS_ADMIN (optional) | tns_admin | 特定のリスナー設定ファイルへのパス。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Instance name (SID) of Oracle instance | name | インスタンスの名前です。 |
Oracle User Name | user | これは、Oracle インスタンスが Oracle ユーザーとして実行するユーザー名です。 |
Oracle Application Home Directory | home | これは Oracle (ユーザーではなく、アプリケーション) のホームディレクトリです。Oracle のインストール時に設定します。 |
List of Oracle Listeners (オプションです。空白で区切ります) | listeners | データベースインスタンスで開始する Oracle リスナーの一覧です。リスナー名は空白で区切ります。デフォルトは空白で、リスナーを無効にします。 |
Path to Lock File (optional) | lockfile | Oracle が実行しているかどうかを確認するために使用される lockfile の場所です。デフォルトの場所は /tmp 下です。 |
TNS_ADMIN (optional) | tns_admin | 特定のリスナー設定ファイルへのパス。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Listener Name | name | リスナーの名前です。 |
Oracle User Name | user | これは、Oracle インスタンスが Oracle ユーザーとして実行するユーザー名です。 |
Oracle Application Home Directory | home | これは Oracle (ユーザーではなく、アプリケーション) のホームディレクトリです。Oracle のインストール時に設定します。 |
TNS_ADMIN (optional) | tns_admin | 特定のリスナー設定ファイルへのパス。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | ログ記録と他の目的用のサービス名を指定します。 |
Config File | config_file | 設定ファイルまでの絶対パスを定義します。デフォルト値は /var/lib/pgsql/data/postgresql.conf です。 |
Postmaster User | postmaster_user | root ではデータベースサーバーを実行できないため、それを実行するユーザーです。デフォルト値は postgres です。 |
Postmaster Options | postmaster_options | postmaster の他のコマンドラインオプションです。 |
Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
SAP Database Name | SID | 一意の SAP システム識別子を指定します。例えば、P01 です。 |
SAP Executable Directory | DIR_EXECUTABLE | sapstartsrv と sapcontrol への完全修飾パスを指定します。 |
Database Type | DBTYPE | Oracle、DB6、又は ADA のデータベースタイプのうち 1 つを指定します。 |
Oracle Listener Name | NETSERVICENAME | Oracle TNS リスナー名を指定します。 |
ABAP Stack is Not Installed, Only Java Stack is Installed | DBJ2EE_ONLY | ABAP スタックが SAP データベース内にインストールされていない場合は、このパラメーターを有効にしてください。 |
Application Level Monitoring | STRICT_MONITORING | アプリケーションレベルモニタリングをアクティベートします。 |
Automatic Startup Recovery | AUTOMATIC_RECOVER | スタートアップの自動修復を有効/無効にします。 |
Path to Java SDK | JAVE_HOME | Java SDK へのパスです。 |
File Name of the JDBC Driver | DB_JARS | JDBC ドライバーのファイル名です。 |
Path to a Pre-Start Script | PRE_START_USEREXIT | pre-start スクリプトへのパスです。 |
Path to a Post-Start Script | POST_START_USEREXIT | post-start スクリプトへのパスです。 |
Path to a Pre-Stop Script | PRE_STOP_USEREXIT | pre-stop スクリプトへのパスです。 |
Path to a Post-Stop Script | POST_STOP_USEREXIT | post-stop スクリプトへのパスです。 |
J2EE Instance Bootstrap Directory | DIR_BOOTSTRAP | J2EE インスタンスブートストラップディレクトリへの完全修飾パスです。例えば、/usr/sap/P01/J00/j2ee/cluster/bootstrap です。 |
J2EE Security Store Path | DIR_SECSTORE | J2EE セキュリティストアディレクトリへの完全修飾パスです。例えば、/usr/sap/P01/SYS/global/security/lib/tools です。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
SAP Instance Name | InstanceName | 完全修飾 SAP インスタンス名です。例えば、P01_DVEBMGS00_sapp01ci です。 |
SAP Executable Directory | DIR_EXECUTABLE | sapstartsrv と sapcontrol への完全修飾パスです。 |
Directory Containing the SAP START Profile | DIR_PROFILE | SAP START プロフファイルへの完全修飾パスです。 |
Name of the SAP START Profile | START_PROFILE | SAP START プロファイルの名前を指定します。 |
Number of Seconds to Wait Before Checking Startup Status | START_WAITTIME | スタートアップステータスを確認するまでの待機秒数を指定します (J2EE-Addin を待機しません)。 |
Enable Automatic Startup Recovery | AUTOMATIC_RECOVER | スタートアップの自動修復を有効/無効にします。 |
Path to a Pre-Start Script | PRE_START_USEREXIT | pre-start スクリプトへのパスです。 |
Path to a Post-Start Script | POST_START_USEREXIT | post-start スクリプトへのパスです。 |
Path to a Pre-Stop Script | PRE_STOP_USEREXIT | pre-stop スクリプトへのパスです。 |
Path to a Post-Stop Script | POST_STOP_USEREXIT | post-stop スクリプトへのパスです。 |
注記
samba
リソース)」 に関して、クラスターサービスの作成/編集時には、Samba-service リソースをサービス内のリソース ではなく、直接サービスに接続してください。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | Samba サーバーの名前を指定します。 |
Config File | config_file | Samba の設定ファイルです。 |
Other Command-Line Options for smbd | smbd_options | smbd 用の他のコマンドラインオプションです。 |
Other Command-Line Options for nmbd | nmbd_options | nmbd 用の他のコマンドラインオプションです。 |
Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | カスタムユーザースクリプトの名前を指定します。スクリプトリソースにより、標準の LSB 準拠の init スクリプトはクラスター化サービスを起動するのに使用できます。 |
Full Path to Script File | file | このカスタムスクリプトが配置してある場所へのパスを入力します (例えば、 /etc/init.d/userscript )。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Instance Name | name | Sybase ASE リソースのインスタンス名を指定します。 |
ASE Server Name | server_name | HA サービス用に設定してある ASE サーバーの名前です。 |
SYBASE Home directory | sybase_home | Sybase 製品のホームディレクトリです。 |
Login File | login_file | ログイン/パスワードペアを含むログインファイルのフルパスです。 |
Interfaces File | interfaces_file | ASE サーバーの開始/アクセスに使用されるインターフェースファイルのフルパスです。 |
SYBASE_ASE Directory Name | sybase_ase | ASE 製品がインストールされている sybase_home 下のディレクトリ名です。 |
SYBASE_OCS Directory Name | sybase_ocs | OCS 製品がインストールされている sybase_home 下のディレクトリ名です。例えば、ASE-15_0 です。 |
Sybase User | sybase_user | ASE サーバーを実行するユーザーです。 |
Start Timeout (seconds) | start_timeout | 起動のタイムアウト値です。 |
Shutdown Timeout (seconds) | shutdown_timeout | シャットダウンのタイムアウト値です。 |
Deep Probe Timeout | deep_probe_timeout | 詳細検出(deep probe)を実行している間にサーバーが反応しないことを判定するまで ASE サーバーの対応を待つ期間の最大秒数です。 |
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Name | name | ログ記録と他の目的用のサービス名を指定します。 |
Config File | config_file | 設定ファイルへの絶対パスを指定します。デフォルト値は /etc/tomcat6/tomcat6.conf です。 |
Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正しい終了までの待機期間の秒数を指定します。デフォルトは 30 です。 |
重要
vm
リソースResource)」 に関して、仮想マシンリソースを使用してご使用のクラスターを設定する場合、rgmanager
ツールを使用して、仮想マシンの起動/停止を行うことをお勧めします。virsh
を使用してマシンを起動すると、仮想マシンが複数の場所で実行することにつながり、仮想マシン内のデータが破損する恐れがあります。クラスター及び非クラスターツールの両方を使用して管理者が仮想マシンを誤って「ダブル起動」するリスクを減らすためのシステム設定については、「クラスター化環境での仮想マシンの設定」 を参照してください。
注記
Virtual Machine
をリソースタイプとして選択し、仮想マシンリソースパラメーターを入力します。ccs
を使用した仮想マシンの設定については、「仮想マシンのリソース」 を参照してください。
luci フィールド | cluster.conf 属性 | 説明 |
---|---|---|
Service Name | name | 仮想マシンの名前を指定します。luci インターフェースを使用している時には、これをサービス名として指定します。 |
Automatically Start This Service | autostart | 有効になっている場合、仮想マシンはクラスターが定員を構成した後に自動的に開始されます。このパラメーターが 無効 の場合は、クラスターが定員を構成した後、自動的に開始 されません。 仮想マシンは disabled (無効)状態になります。 |
Run Exclusive | exclusive | 有効の場合、この仮想マシンは別のノードのみで実行する、すなわち他の仮想マシンが稼働していないノード上で実行するように再配置されるだけです。仮想マシンが単独で実行できるノードがない場合は、仮想マシンは障害が発生すると再起動しません。さらに、他の仮想マシンは Run exclusive としてこの仮想マシンを実行しているノードに自動的に再配置されることはありません。このオプションを上書きするには、手動で起動/再配置の操作を行います。 |
Failover Domain | domain | 仮想マシンが失敗した場合に試行するクラスターメンバーの一覧を定義します。 |
Recovery Policy | recovery | Recovery policy は以下のオプションを提供します:
|
Restart Options | max_restarts , restart_expire_time | サービスの復元ポリシーとして | 又は を選択すると、サービスの移動/無効化までに再開始が失敗する最大回数と、再開始を破棄するまでの時間を秒単位で指定することができます。
Migration Type | migrate | 移行タイプである live 又は pause を指定します。デフォルトセッティングは live です。 |
Migration Mapping | migration_mapping |
移行用に代替のインターフェースを指定します。これを指定するのは、ノード上で仮想マシンの移行用に使用されるネットワークアドレスが、クラスター通信に使用されるノードのアドレスと異なる場合などです。
以下を指定すると、仮想マシンを
member から member2 に 移行する時、実際には target2 に移行することを示します。同様にして member2 から member に移行する時は target を使用して移行することになります。
member:target,member2:target2
|
Status Program | status_program |
仮想マシンの存在を知るための標準チェックに加えて実行するステータスプログラムです。 指定されていると、ステータスプログラムは1分毎に1度実行されます。これにより、仮想マシン 内の重要なサービスのステータスを確認できるようになります。例えば、仮想マシンがウェブサーバーを実行すると ステータスプログラムはウェブサーバーが立ち上がって稼働しているかを見るためにチェックできます。 このステータスチェックが失敗すると(ゼロ以外の値が戻って来る)仮想マシンは復元されます。
仮想マシンの開始後、仮想マシンのリソースエージェントは定期的にステータスプログラムを呼び出して、成功の戻りコード(ゼロ)を待ちます。これは 5 分後にタイムアウトとなります。
|
Path to xmlfile Used to Create the VM | xmlfile | libvirt ドメイン定義を含む libvirt XML ファイルへのフルパス |
VM Configuration File Path | path |
仮想マシンリソースエージェント (
vm.sh ) が仮想マシン設定ファイルを検出するためのコロンで区切ったパス指定です。例えば、/mnt/guests/config:/etc/libvirt/qemu です。
重要
パスは決して仮想マシンの設定ファイルへ直接的にポイントすべきではありません。
|
Path to the VM Snapshot Directory | snapshot | 仮想マシンイメージが保存されるスナップショットディレクトリへのパスです。 |
Hypervisor URI | hypervisor_uri | ハイパバイサーの URI (通常自動) です。 |
Migration URI | migration_uri | 移行の URI (通常自動) です。 |
Tunnel data over ssh during migration | tunnelled | 移行中の ssh によるトンネルデータです。 |
付録C HA リソースの動作
/etc/cluster/cluster.conf
を編集します。HA リソースパラメーターの詳細については、付録B HA リソースパラメーター を参照してください。リソースエージェントをさらに詳しく理解するには、任意のクラスターノードの /usr/share/cluster
にあるリソースエージェントを参照してください。
注記
/etc/cluster/cluster.conf
を詳しく理解していただく必要が場合があります。
/etc/cluster/cluster.conf
クラスター設定ファイルでリソースツリーとして表示されます。クラスター設定ファイルでは、各リソースツリーは各リソース、その属性、及びリソースツリー内の他のリソースとの関係 (親、子、兄弟の関係) を指定する XML 表現です。
注記
注記
/etc/cluster/cluster.conf
の例の後に表示されているセクションは解説のみを目的として使用されています。
C.1. リソース間の親、子、兄弟の関係
rgmanager
の制御下で実行する統合されたエンティティです。サービス内の全てのリソースは同じノード上で稼働します。rgmanager
の視点からは、クラスターサービスは開始、停止、又は再配置できるエンティティです。ただし、クラスターサービス内では、リソースの階層により各リソースが開始、停止する順番が決定されます。この階層レベルは親、子、兄弟で構成されています。
fs:myfs
(<fs name="myfs" ...>) とip:10.1.1.2
(<ip address="10.1.1.2 .../>) は兄弟です。fs:myfs
(<fs name="myfs" ...>) はscript:script_child
(<script name="script_child"/>) の親です。script:script_child
(<script name="script_child"/>) はfs:myfs
(<fs name="myfs" ...>) の子です。
例C.1 foo サービスのリソース階層
<service name="foo" ...> <fs name="myfs" ...> <script name="script_child"/> </fs> <ip address="10.1.1.2" .../> </service>
- 親は子の前に開始される。
- 親が停止する前に、全ての子がクリーンに停止しなければならない。
- リソースが健全な状態にあると見なされるには、全ての子が健全である必要がある。
注記
C.2. 兄弟開始の順序とリソースの子の順序
- 子のタイプ属性を指定する (型指定された子リソース) — サービスリソースが子リソースに対して子のタイプ属性を指定すると、子リソースは 型指定 します。子のタイプ属性は明示的に子リソースの開始順と停止順を決定します。
- 子のタイプ属性を 指定しない (型指定されていない 子リソース) — サービスリソースが子リソースに対して子のタイプ属性を 指定しない と、子リソースは 型指定されません。サービスリソースは型指定されていない子リソースの開始順と停止順を明示的に制御しません。しかし、型指定されていない子リソースは
/etc/cluster/cluster.conf
内の順番に従って開始、停止します。また、型指定されていない子リソースは、全ての型指定された子リソースが開始した後に開始し、いずれかの型指定された子リソースが停止する前に停止します。
注記
C.2.1. 型指定された子リソースの開始と停止の順序
service.sh
からの抜粋」 は、開始値と停止値がサービスリソースエージェントである service.sh
に表示されるとおり示しています。サービスリソースについては、全ての LVM 子群が最初に開始します。次に、全てのファイルシステム子群、その後に全てのスクリプト子群と、開始していきます。
リソース | 子タイプ | 開始順の値 | 停止順の値 |
---|---|---|---|
LVM | lvm | 1 | 9 |
ファイルシステム | fs | 2 | 8 |
GFS2 ファイルシステム | clusterfs | 3 | 7 |
NFS マウント | netfs | 4 | 6 |
NFS エクスポート | nfsexport | 5 | 5 |
NFS クライアント | nfsclient | 6 | 4 |
IP Address | ip | 7 | 2 |
Samba | smb | 8 | 3 |
スクリプト | script | 9 | 1 |
例C.2 リソースの開始と停止の値: サービスリソースエージェント service.sh
からの抜粋
<special tag="rgmanager"> <attributes root="1" maxinstances="1"/> <child type="lvm" start="1" stop="9"/> <child type="fs" start="2" stop="8"/> <child type="clusterfs" start="3" stop="7"/> <child type="netfs" start="4" stop="6"/> <child type="nfsexport" start="5" stop="5"/> <child type="nfsclient" start="6" stop="4"/> <child type="ip" start="7" stop="2"/> <child type="smb" start="8" stop="3"/> <child type="script" start="9" stop="1"/> </special>
/etc/cluster/cluster.conf
に存在する通りに保存されてます。 例えば、例C.3「リソースタイプ内の順序」 内の型指定された子リソースの開始順と停止順を考えてみましょう。
例C.3 リソースタイプ内の順序
<service name="foo"> <script name="1" .../> <lvm name="1" .../> <ip address="10.1.1.1" .../> <fs name="1" .../> <lvm name="2" .../> </service>
型指定された子リソースの開始順
lvm:1
— これは LVM のリソースです。全ての LVM リソースが最初に開始します。lvm:1
(<lvm name="1" .../>
) は、/etc/cluster/cluster.conf
の foo サービス部分でリストされている最初の LVM リソースであるため、LVM リソースの中では最初に開始します。lvm:2
— これは LVM リソースです。全ての LVM リソースが最初に開始します。lvm:2
(<lvm name="2" .../>
) は、/etc/cluster/cluster.conf
の foo サービス部分の中でlvm:1
の後にリストされているため、lvm:1
の次に開始します。fs:1
— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている順序で開始します。ip:10.1.1.1
— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている順序で開始します。script:1
— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている順序で開始します。
型指定された子リソースの停止順
script:1
— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。ip:10.1.1.1
— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。fs:1
— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。lvm:2
— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:2
(<lvm name="2" .../>
) はlvm:1
より先に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。lvm:1
— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:1
(<lvm name="1" .../>
) はlvm:2
の後に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。
C.2.2. 型指定されていない子リソースの開始と停止の順序
/etc/cluster/cluster.conf
の子リソースの順番に従い、開始、停止の順番が決定されます。また、型指定されていない子リソースは、型指定されたすべての子リソースの後に開始され、型指定された子リソースより先に停止されます。
例C.4 サービス内にある型指定されていないリソースと型指定されたリソース
<service name="foo"> <script name="1" .../> <nontypedresource name="foo"/> <lvm name="1" .../> <nontypedresourcetwo name="bar"/> <ip address="10.1.1.1" .../> <fs name="1" .../> <lvm name="2" .../> </service>
型指定されていない子リソースの開始順
lvm:1
— これは LVM のリソースです。全ての LVM リソースが最初に開始します。lvm:1
(<lvm name="1" .../>
) は、/etc/cluster/cluster.conf
の foo サービス部分でリストされている最初の LVM リソースであるため、LVM リソースの中では最初に開始します。lvm:2
— これは LVM リソースです。全ての LVM リソースが最初に開始します。lvm:2
(<lvm name="2" .../>
) は、/etc/cluster/cluster.conf
の foo サービス部分の中でlvm:1
の後にリストされているため、lvm:1
の次に開始します。fs:1
— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている順序で開始します。ip:10.1.1.1
— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている順序で開始します。script:1
— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている順序で開始します。nontypedresource:foo
— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが開始した後に開始します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresourcetwo:bar
より前であるため、nontypedresourcetwo:bar
の前に開始します (型指定されていないリソースはサービスリソース内に表れる順序で開始します)。nontypedresourcetwo:bar
— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが開始した後に開始します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresource:foo
の後であるため、nontypedresource:foo
の後に開始します (型指定されていないリソースはサービスリソース内に表れる順序で開始します)。
型指定されていない子リソースの停止順
nontypedresourcetwo:bar
— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが停止する前に停止します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresource:foo
の後であるため、nontypedresource:foo
の前に停止します (型指定されていないリソースはサービスリソース内に表れる逆の順序で停止します)。nontypedresource:foo
— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが停止する前に停止します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresourcetwo:bar
より前であるため、nontypedresourcetwo:bar
の後に停止します (型指定されていないリソースはサービスリソース内に表れる逆の順序で停止します)。script:1
— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。ip:10.1.1.1
— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。fs:1
— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。lvm:2
— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:2
(<lvm name="2" .../>
) はlvm:1
より先に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。lvm:1
— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:1
(<lvm name="1" .../>
) はlvm:2
の後に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.conf
の foo サービス部分にリストされている逆の順番で停止します。
C.3. 継承、<resources>ブロック、リソースの再利用
例C.5 リソース再利用と継承の為の NFS サービスセットアップ
<resources> <nfsclient name="bob" target="bob.example.com" options="rw,no_root_squash"/> <nfsclient name="jim" target="jim.example.com" options="rw,no_root_squash"/> <nfsexport name="exports"/> </resources> <service name="foo"> <fs name="1" mountpoint="/mnt/foo" device="/dev/sdb1" fsid="12344"> <nfsexport ref="exports"> <!-- nfsexport's path and fsid attributes are inherited from the mountpoint & fsid attribute of the parent fs resource --> <nfsclient ref="bob"/> <!-- nfsclient's path is inherited from the mountpoint and the fsid is added to the options string during export --> <nfsclient ref="jim"/> </nfsexport> </fs> <fs name="2" mountpoint="/mnt/bar" device="/dev/sdb2" fsid="12345"> <nfsexport ref="exports"> <nfsclient ref="bob"/> <!-- Because all of the critical data for this resource is either defined in the resources block or inherited, we can reference it again! --> <nfsclient ref="jim"/> </nfsexport> </fs> <ip address="10.2.13.20"/> </service>
- サービスは 4つの nfsclient リソースを必要とします — ファイルシステム毎に1つ (ファイルシステム群で計2つ)、そしてターゲットマシン毎に1つ (ターゲットマシン群で計2つ)
- サービスは各 nfsclient にエクスポートパスとファイルシステム ID を指定する必要があります。これにより、設定にエラーが生じる可能性があります。
C.4. 障害からの回復と独立したサブツリー
__independent_subtree
属性を使用します。例えば、例C.7「__independent_subtree
属性を使用した foo サービス障害からの回復」 では、 __independent_subtree
属性を使用して以下の動作を実行します:
- script:script_one が失敗すると、script:script_one、script:script_two、及び script:script_three を再起動します。
- script:script_two が失敗すると、script:script_two のみを再起動します。
- script:script_three が失敗すると、restart script:script_one、script:script_two、及び script:script_three を再起動します。
- script:script_four が失敗すると、全サービスを再起動します。
例C.6 サービス foo 障害からの通常の回復
<service name="foo"> <script name="script_one" ...> <script name="script_two" .../> </script> <script name="script_three" .../> </service>
例C.7 __independent_subtree
属性を使用した foo サービス障害からの回復
<service name="foo"> <script name="script_one" __independent_subtree="1" ...> <script name="script_two" __independent_subtree="1" .../> <script name="script_three" .../> </script> <script name="script_four" .../> </service>
__independent_subtree="2"
属性を使用します。
注記
__max_restarts
は、中断するまでに許容される再起動の最大回数を設定します。__restart_expire_time
で設定する秒数が経過すると、再起動は試行されなくなります。
C.5. サービスとリソース順序へのデバッグとテスト
rg_test
ユーティリティを使用できます。rg_test
はコマンドラインユーティリティであり、シェル又はターミナルから実行する rgmanager
パッケージにより提供されます(Conga にはありません)。表C.2「rg_test
ユーティリティの要約」 は rg_test
ユーティリティの動作と構文をまとめています。
アクション | 構文 |
---|---|
rg_test が理解するリソースルールを表示する | rg_test rules |
エラー、又は余剰リソースエージェントの為に設定 (及び /usr/share/cluster) をテストする | rg_test test /etc/cluster/cluster.conf |
サービスの開始/停止の順序を表示する |
開始順を表示する:
rg_test noop /etc/cluster/cluster.conf start service
停止順を表示する:
rg_test noop /etc/cluster/cluster.conf stop service
|
サービスを明示的に開始/停止する | 重要
これを実行する場合は、1 つのノード上でのみ行ってください。また、常に rgmanager 内のサービスを最初に無効にしてください。
サービスを開始する:
rg_test test /etc/cluster/cluster.conf start service
サービスを停止する:
rg_test test /etc/cluster/cluster.conf stop service
|
2つの cluster.conf ファイル間でリソースのツリーデルタを計算して表示します。 | rg_test delta
例えば:
rg_test delta /etc/cluster/cluster.conf.bak /etc/cluster/cluster.conf
|
付録D クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
rgmanager
がクラスターリソースのステータスをモニターする方法、ステータスチェック間隔を修正する方法について説明しています。また、動作がタイムアウトすることでサービスが失敗することを示す __enforce_timeouts
サービスパラメーターについても説明しています。
注記
/etc/cluster/cluster.conf
を詳しく理解していただく必要があります。cluster.conf
の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng
にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html
) にある注釈付きスキーマを参照してください。
D.1. リソースステータスチェック間隔の修正
rgmanager
は、全サービスではなく、個別のリソースのステータスを確認します。10 秒ごとに、rgmanager はリソースツリーをスキャンし、「ステータスチェック」間隔が経過したリソースを探します。
<action>
タグを使用して cluster.conf
ファイルで明示的に上書きされていない限りは、これらのタイムアウト値を利用します。
<action name="status" depth="*" interval="10" />
cluster.conf
ファイル内のリソースの特別な子です。例えば、ステータスチェックの間隔を上書きしたいファイルシステムリソースがある場合、cluster.conf
ファイルのファイルシステムリソースを以下のように指定できます。
<fs name="test" device="/dev/sdb3"> <action name="status" depth="*" interval="10" /> <nfsexport...> </nfsexport> </fs>
depth
は *
に設定されています。これは、これらの値がすべての深さに使用されることを示しています。結果として、10 秒ごとにリソースエージェントにより最高に定義された深さ (この場合は 20) で test
ファイルシステムを確認します。
D.2. リソースタイムアウトの強制
__enforce_timeouts="1"
を cluster.conf
ファイルの参照に追加します。
__enforce_timeouts
属性を netfs
リソースに設定したクラスターサービスを示しています。この属性が設定された状態で、回復プロセス時に NFS ファイルシステムをアンマウントするのに 30 秒超かかる場合は、動作はタイムアウトになり、サービスは失敗します。
</screen> <rm> <failoverdomains/> <resources> <netfs export="/nfstest" force_unmount="1" fstype="nfs" host="10.65.48.65" mountpoint="/data/nfstest" name="nfstest_data" options="rw,sync,soft"/> </resources> <service autostart="1" exclusive="0" name="nfs_client_test" recovery="relocate"> <netfs ref="nfstest_data" __enforce_timeouts="1"/> </service> </rm>
付録E コマンドラインツールの要約
コマンドラインツール | 使用対象 | 目的 |
---|---|---|
ccs_config_dump — クラスター設定のダンプツール | クラスターインフラストラクチャー | ccs_config_dump は、実行している設定の XML 出力を生成します。一部のサブシステムはデフォルトの情報を設定に格納/セットすることがあるため、実行している設定がファイル上に保存されている設定と異なることがあります。これらの値は、通常設定のディスク上バージョンには存在しませんが、クラスターがランタイム時に正常に機能するために必要です。このツールに関する詳細は ccs_config_dump(8) の man ページを参照してください。 |
ccs_config_validate — クラスター設定の妥当性検証ツール | クラスターインフラストラクチャー | ccs_config_validate は、各ノード上の /usr/share/cluster/cluster.rng にあるスキーマ cluster.rng に対して cluster.conf の妥当性を検証します。このツールに関する詳細は ccs_config_validate(8) の man ページを参照してください。 |
clustat — クラスターステータスのユーティリティ | 高可用性サービス管理のコンポーネント | clustat コマンドはクラスターのステータスを表示します。メンバーシップの情報、定足数表示、設定済みの全ユーザーサービスの状態を示します。このツールの詳細については clustat(8) の man ページを参照してください。 |
clusvcadm — クラスターユーザーサービス管理のユーティリティ | 高可用性サービス管理のコンポーネント | clusvcadm コマンドを使用すると、クラスター内の高可用性サービスの有効、無効、再配置、再起動を行うことができます。このツールの詳細については clusvcadm(8) の man ページを参照してください。 |
cman_tool — クラスター管理ツール | クラスターインフラストラクチャー | cman_tool は CMAN クラスターマネージャーを管理するプログラムです。これにより、クラスターへの参加と離脱、ノードの kill、クラスター内でノードの定足数投票の期待値の変更が可能になります。このツールの詳細については cman_tool(8) の man ページを参照してください。 |
fence_tool — フェンスツール | クラスターインフラストラクチャー | fence_tool はフェンスドメインに対する参加と離脱に使用するプログラムです。このツールの詳細については、ence_tool(8) の man ページを参照してください。 |
付録F High Availability LVM (HA-LVM)
- アプリケーションがクラスター対応で、かつ一度に複数のマシンで同時に実行するようチューニングされている場合は、CLVM の使用をお勧めします。具体的には、使用しているクラスターの複数のノードにストレージへのアクセスが必要で、そのストレージがアクティブなノード間で共有される場合は、CLVM を使用する必要があります。論理ボリュームが設定されている間に物理ストレージへのアクセスをロックすることにより、ユーザーは CLVM を使用して共有ストレージ上で論理ボリュームを設定できます。また、CLVM はクラスター化されたロッキングサービスを使用して共有ストレージを管理します。CLVM 及び LVM 設定の全般情報は、『論理ボリュームマネージャ管理』 を参照してください。
- ストレージにアクセスする単一ノードのみがいつでもアクティブなアクティブ/パッシブ (フェイルオーバー) 構成でアプリケーションが最適に実行する場合は、High Availability Logical Volume Management (HA-LVM) エージェントの使用をお勧めします。
- 推奨されるメソッドは CLVM の使用ですが、これは論理ボリュームを単独でアクティブ化するだけです。これによるメリットは、簡単に設定できること、管理上のミス (使用中の論理ボリュームの削除など) の回避が向上することです。CLVM を使用するには、
clvmd
デーモンを含む High Availability アドオン及び Resilient Storage アドオンソフトウェアが実行されている必要があります。このメソッドを使用して HA-LVM を設定する手順は、「CLVM を使用した HA-LVM フェイルオーバーの設定 (推奨)」 に記載されています。 - 2 番目のメソッドは、ローカルマシンのロックと LVM 「タグ」の使用です。このメソッドのメリットは、LVM クラスターパッケージが必要でない点です。一方で、設定する際に必要な手順は他にもあり、管理者がアクティブでないクラスター内のノードから論理ボリュームを誤って削除することを防ぐことはできません。このメソッドを使用して HA-LVM を設定する手順は、「タグ付けによる HA-LVM フェイルオーバーの設定」 に記載されています。
F.1. CLVM を使用した HA-LVM フェイルオーバーの設定 (推奨)
- ご使用のシステムが CLVM に対応するよう設定されていることを確認してください。以下が要件です。
- CLVM 論理ボリュームがミラーされる場合は
cmirror
パッケージも含め、High Availability アドオン及び Resilient Storage アドオンがインストールされている。 /etc/lvm/lvm.conf
ファイル内のグローバルセクションのlocking_type
パラメーターが「3」の値に設定されている。clvmd
デーモンを含め、High Availability アドオン及び Resilient Storage アドオンソフトウェアが実行している必要がある。CLVM ミラーリングの場合は、cmirrord
サービスも起動している必要があります。
- 以下の例のとおり、標準 LVM 及びファイルシステムのコマンドを使用して論理ボリュームとファイルシステムを作成します。
#
pvcreate /dev/sd[cde]1
#vgcreate -cy shared_vg /dev/sd[cde]1
#lvcreate -L 10G -n ha_lv shared_vg
#mkfs.ext4 /dev/shared_vg/ha_lv
#lvchange -an shared_vg/ha_lv
LVM 論理ボリュームの作成についての詳細は、『論理ボリュームマネージャの管理』 を参照してください。 /etc/cluster/cluster.conf
ファイルを編集して、新規作成された論理ボリュームを使用しているサービスの 1 つにリソースとして含めます。別の方法として、Conga 又はccs
コマンドを使用して、LVM 及びファイルシステムリソースをクラスター用に設定することも可能です。以下の例は、クラスターリソースとして CLVM 論理ボリュームを設定する/etc/cluster/cluster.conf
ファイルのリソースマネージャーのセクションです。<rm> <failoverdomains> <failoverdomain name="FD" ordered="1" restricted="0"> <failoverdomainnode name="neo-01" priority="1"/> <failoverdomainnode name="neo-02" priority="2"/> </failoverdomain> </failoverdomains> <resources> <lvm name="lvm" vg_name="shared_vg" lv_name="ha-lv"/> <fs name="FS" device="/dev/shared_vg/ha-lv" force_fsck="0" force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options="" self_fence="0"/> </resources> <service autostart="1" domain="FD" name="serv" recovery="relocate"> <lvm ref="lvm"/> <fs ref="FS"/> </service> </rm>
F.2. タグ付けによる HA-LVM フェイルオーバーの設定
/etc/lvm/lvm.conf
ファイルのタグを使用して HA-LVM フェイルオーバーを設定するには、以下の手順を実行します。
/etc/lvm/lvm.conf
ファイル内のグローバルセクションのlocking_type
パラメーターが「1」の値に設定されているようにしてください。- 以下の例のとおり、標準 LVM 及びファイルシステムのコマンドを使用して論理ボリュームとファイルシステムを作成します。
#
pvcreate /dev/sd[cde]1
#vgcreate shared_vg /dev/sd[cde]1
#lvcreate -L 10G -n ha_lv shared_vg
#mkfs.ext4 /dev/shared_vg/ha_lv
LVM 論理ボリュームの作成についての詳細は、『論理ボリュームマネージャの管理』 を参照してください。 /etc/cluster/cluster.conf
ファイルを編集して、新規作成された論理ボリュームを使用しているサービスの 1 つにリソースとして含めます。別の方法として、Conga 又はccs
コマンドを使用して、LVM 及びファイルシステムリソースをクラスター用に設定することも可能です。以下の例は、クラスターリソースとして CLVM 論理ボリュームを設定する/etc/cluster/cluster.conf
ファイルのリソースマネージャーのセクションです。<rm> <failoverdomains> <failoverdomain name="FD" ordered="1" restricted="0"> <failoverdomainnode name="neo-01" priority="1"/> <failoverdomainnode name="neo-02" priority="2"/> </failoverdomain> </failoverdomains> <resources> <lvm name="lvm" vg_name="shared_vg" lv_name="ha_lv"/> <fs name="FS" device="/dev/shared_vg/ha_lv" force_fsck="0" force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options="" self_fence="0"/> </resources> <service autostart="1" domain="FD" name="serv" recovery="relocate"> <lvm ref="lvm"/> <fs ref="FS"/> </service> </rm>
注記
ボリュームグループに論理ボリュームが複数ある場合は、lvm
リソースの論理ボリューム名 (lv_name
) は、空欄か指定しないようにしてください。また、HA-LVM 設定では、ボリュームグループは単一のサービスによってのみ使用されることがある点に注意してください。/etc/lvm/lvm.conf
ファイルのvolume_list
フィールドを編集します。/etc/cluster/cluster.conf
ファイルに一覧表示されているとおり、ご使用の root ボリュームグループ名とホスト名は @ を先頭に付けて入力してください。ここに含めるホスト名は、編集しているlvm.conf
ファイルがあるマシンであり、リモートのホスト名ではありません。なお、この文字列は、cluster.conf
ファイル内のノード名とマッチ しなければなりません。以下は、/etc/lvm/lvm.conf
ファイルのサンプルエントリです。volume_list = [ "VolGroup00", "@neo-01" ]
このタグは、共有 VG 又は LV をアクティブ化するために使用します。HA-LVM を使用して共有されるボリュームグループ名は 含めないようにしてください。- 使用しているクラスターノード上の
initrd
デバイスを更新します。#
dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
- 全ノードを再起動して、正しい
initrd
デバイスが使用中であることを確認してください。
付録G 改訂履歴
改訂履歴 | |||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
改訂 6.0-21.3 | Mon Jul 21 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-21.2 | Mon Apr 7 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-21.1 | Mon Apr 7 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-21 | Wed Nov 13 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-20 | Wed Nov 6 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-16 | Tue Oct 29 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-15 | Fri Sep 27 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-12 | Thu Sep 26 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-3 | Thu Sep 05 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-2 | Fri Jun 14 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 6.0-1 | Thu Jun 13 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-25 | Mon Feb 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-23 | Wed Jan 30 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-22 | Tue Jan 29 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-20 | Fri Jan 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-19 | Thu Jan 17 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-16 | Mon Nov 26 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-15 | Wed Nov 20 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-12 | Thu Nov 1 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-7 | Thu Oct 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-6 | Tue Oct 23 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-4 | Tue Oct 16 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-2 | Thu Oct 11 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 5.0-1 | Mon Oct 8 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 4.0-5 | Fri Jun 15 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 4.0-4 | Tue Jun 12 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 4.0-3 | Tue May 21 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 4.0-2 | Wed Apr 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 4.0-1 | Fri Mar 30 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 3.0-5 | Thu Dec 1 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 3.0-4 | Mon Nov 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 3.0-3 | Fri Oct 21 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 3.0-2 | Fri Oct 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 3.0-1 | Wed Sep 28 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 2.0-1 | Thu May 19 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
改訂 1.0-1 | Wed Nov 10 2010 | ||||||||||||||||||||||||||||||
|
索引
シンボル
- はじめに, はじめに
- その他の Red Hat Enterprise Linux ドキュメント, はじめに
- クラスター
- クラスターの管理, Red Hat High Availability アドオンを設定する前の作業, Conga を使用した Red Hat High Availability アドオンの管理, Red Hat High Availability アドオンを使用した ccs の管理, コマンドラインツールを使用した Red Hat High Availability アドオンの管理
- ACPI の設定, 統合されたフェンスデバイスと使用するための ACPI 設定
- clustat で HA サービスを表示, clustat を使用した HA サービスステータスの表示
- cman_tool version -r を使用したクラスター設定の更新, cman_tool version -r を使用した設定の更新
- IP ポートの有効化, IP ポートの有効化
- scp を使用したクラスター設定の更新, scp を使用した設定の更新
- クラスタを再起動, クラスターの起動、停止、再起動、削除
- クラスターから離脱, ノードのクラスターに対する離脱/参加, ノードのクラスターに対する離脱/参加
- クラスターの起動、停止、再起動, クラスターソフトウェアの起動と停止
- クラスターへ参加, ノードのクラスターに対する離脱/参加, ノードのクラスターに対する離脱/参加
- クラスターを停止, クラスターの起動、停止、再起動、削除, クラスターの起動と停止
- クラスターを削除, クラスターの起動、停止、再起動、削除
- クラスターを開始, クラスターの起動、停止、再起動、削除, クラスターの起動と停止
- クラスターノードの再起動, クラスターノードの再起動
- クラスターノードの削除, クラスターからのメンバーの削除
- クラスターノードの管理, クラスターノードの管理, クラスターノードの管理
- クラスターノードの追加, 稼働しているクラスターへのメンバーの追加, 稼働しているクラスターへのメンバーの追加
- クラスター内の問題の診断と修正, クラスター内の問題の診断と修正
- クラスター内の問題の診断と是正, クラスター内の問題の診断と是正
- 互換性のあるハードウェア, 互換性のあるハードウェア
- 設定iptables, IP ポートの有効化
- 設定からノードを削除。設定にノードを追加, ノードの削除と追加
- 設定の妥当性検証, 設定の妥当性検証
- 設定の更新, 設定の更新
- 高可用性サービスの管理, 高可用性サービスの管理, 高可用性 (HA) サービスの管理
- 高可用性サービスの管理、凍結とその解除, clusvcadm を使用した HA サービスの管理, Freeze と Unfreeze の操作時の注意事項
- クラスターの設定, Conga を使用した Red Hat High Availability アドオンの設定, ccs コマンドを使用した Red Hat High Availability アドオンの設定, Red Hat High Availability の手動での設定
- クラスターサービス, クラスターへのクラスターサービスの追加, クラスターへのクラスターサービスの追加, クラスターへのクラスターサービスの追加
- (参照 クラスター設定へ追加)
- クラスターサービスマネージャ
- クラスターサービスマネージャー
- クラスターソフトウェア
- クラスターリソースのステータスチェック, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- クラスターリソースのタイプ, HA サービス設定の注意事項
- クラスターリソース間の関係, リソース間の親、子、兄弟の関係
- クラスター管理
- NetworkManager, NetworkManager の注意事項
- quorum disk 使用に関する注意事項, Quorum Disk 使用に関する注意事項
- ricci の注意事項, ricci の注意事項
- SELinux, Red Hat High Availability アドオンと SELinux
- ネットワークスイッチとマルチキャストアドレス, マルチキャストアドレス
- 仮想マシン, クラスター化環境での仮想マシンの設定
- 使用に関する注意事項 qdisk, Quorum Disk 使用に関する注意事項
- 設定時の一般的な注意事項, 設定時の一般的な注意事項
- ステータスチェック、クラスターリソース, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- タイプ
- クラスターリソース, HA サービス設定の注意事項
- タイムアウトフェイルオーバー, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- ツール、コマンドライン, コマンドラインツールの要約
- トラブルシューティング
- クラスター内の問題の診断と修正, クラスター内の問題の診断と修正
- クラスター内の問題の診断と是正, クラスター内の問題の診断と是正
- ハードウェア
- 互換性, 互換性のあるハードウェア
- パラメーター、HA リソース, HA リソースパラメーター
- パラメーター、フェンスデバイス, フェンスデバイスパラメーター
- フィードバック, フィードバック
- フェイルオーバーのタイムアウト, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- フェンスエージェント
- fence_apc, フェンスデバイスパラメーター
- fence_apc_snmp, フェンスデバイスパラメーター
- fence_bladecenter, フェンスデバイスパラメーター
- fence_brocade, フェンスデバイスパラメーター
- fence_cisco_mds, フェンスデバイスパラメーター
- fence_cisco_ucs, フェンスデバイスパラメーター
- fence_drac5, フェンスデバイスパラメーター
- fence_eaton_snmp, フェンスデバイスパラメーター
- fence_egenera, フェンスデバイスパラメーター
- fence_eps, フェンスデバイスパラメーター
- fence_hpblade, フェンスデバイスパラメーター
- fence_ibmblade, フェンスデバイスパラメーター
- fence_idrac, フェンスデバイスパラメーター
- fence_ifmib, フェンスデバイスパラメーター
- fence_ilo, フェンスデバイスパラメーター
- fence_ilo2, フェンスデバイスパラメーター
- fence_ilo3, フェンスデバイスパラメーター
- fence_ilo_mp, フェンスデバイスパラメーター
- fence_imm, フェンスデバイスパラメーター
- fence_intelmodular, フェンスデバイスパラメーター
- fence_ipdu, フェンスデバイスパラメーター
- fence_ipmilan, フェンスデバイスパラメーター
- fence_rhevm, フェンスデバイスパラメーター
- fence_rsb, フェンスデバイスパラメーター
- fence_scsi, フェンスデバイスパラメーター
- fence_virt, フェンスデバイスパラメーター
- fence_vmware_soap, フェンスデバイスパラメーター
- fence_wti, フェンスデバイスパラメーター
- telnet/SSH による APC パワースイッチ, フェンスデバイスパラメーター
- フェンスデバイス
- Brocade ファブリックスイッチ, フェンスデバイスパラメーター
- Cisco MDS, フェンスデバイスパラメーター
- Cisco UCS, フェンスデバイスパラメーター
- Dell DRAC 5, フェンスデバイスパラメーター
- Dell iDRAC, フェンスデバイスパラメーター
- Eaton ネットワークパワースイッチ, フェンスデバイスパラメーター
- Egenera SAN コントローラー, フェンスデバイスパラメーター
- ePowerSwitch, フェンスデバイスパラメーター
- Fence virt, フェンスデバイスパラメーター
- Fujitsu Siemens Remoteview Service Board (RSB), フェンスデバイスパラメーター
- HP BladeSystem, フェンスデバイスパラメーター
- HP iLO, フェンスデバイスパラメーター
- HP iLO MP, フェンスデバイスパラメーター
- HP iLO2, フェンスデバイスパラメーター
- HP iLO3, フェンスデバイスパラメーター
- HP iLO4, フェンスデバイスパラメーター
- IBM BladeCenter, フェンスデバイスパラメーター
- IBM BladeCenter SNMP, フェンスデバイスパラメーター
- IBM Integrated Management Module, フェンスデバイスパラメーター
- IBM iPDU, フェンスデバイスパラメーター
- IF MIB, フェンスデバイスパラメーター
- Intel Modular, フェンスデバイスパラメーター
- IPMI LAN, フェンスデバイスパラメーター
- RHEV-M REST API, フェンスデバイスパラメーター
- SCSI fencing, フェンスデバイスパラメーター
- SNMP による APC パワースイッチ, フェンスデバイスパラメーター
- VMware (SOAP インターフェース), フェンスデバイスパラメーター
- WTI パワースイッチ, フェンスデバイスパラメーター
- マルチキャストアドレス
- ネットワークスイッチとマルチキャストアドレスの使用に関する注意事項, マルチキャストアドレス
- マルチキャストトラフィック、有効, クラスターコンポーネントに対する iptables ファイアウォールの設定
- 一般的
- クラスター管理の注意事項, 設定時の一般的な注意事項
- 仮想マシン、クラスター内, クラスター化環境での仮想マシンの設定
- 動作、HA リソース, HA リソースの動作
- 妥当性検証
- クラスターの設定, 設定の妥当性検証
- 概要
- 新機能と変更された機能, 新機能と変更された機能
- 機能、新機能と変更された機能, 新機能と変更された機能
- 統合されたフェンスデバイス
- ACPI の設定, 統合されたフェンスデバイスと使用するための ACPI 設定
- 表
- HA リソース、パラメーター, HA リソースパラメーター
- フェンスデバイス、パラメーター, フェンスデバイスパラメーター
- 設定
- HA サービス, HA サービス設定の注意事項
- 関係
- クラスターリソース, リソース間の親、子、兄弟の関係
A
- ACPI
B
- Brocade ファブリックスイッチフェンスデバイス , フェンスデバイスパラメーター
C
- CISCO MDS フェンスデバイス, フェンスデバイスパラメーター
- Cisco UCS フェンスデバイス, フェンスデバイスパラメーター
- Conga
- consensus 値, 2 ノードクラスター内の totem の consensus 値
D
- Dell DRAC 5 フェンスデバイス, フェンスデバイスパラメーター
- Dell iDRAC フェンスデバイス , フェンスデバイスパラメーター
E
- Eaton ネットワークパワースイッチ, フェンスデバイスパラメーター
- Egenera SAN コントローラーフェンスデバイス, フェンスデバイスパラメーター
- ePowerSwitch フェンスデバイス, フェンスデバイスパラメーター
F
- fence agent
- fence_ilo4, フェンスデバイスパラメーター
- Fence virt フェンスデバイス, フェンスデバイスパラメーター
- fence_apc fence エージェント, フェンスデバイスパラメーター
- fence_apc_snmp フェンスエージェント, フェンスデバイスパラメーター
- fence_bladecenter フェンスエージェント, フェンスデバイスパラメーター
- fence_brocade フェンスエージェント, フェンスデバイスパラメーター
- fence_cisco_mds フェンスエージェント, フェンスデバイスパラメーター
- fence_cisco_ucs フェンスエージェント, フェンスデバイスパラメーター
- fence_drac5 フェンスエージェント, フェンスデバイスパラメーター
- fence_eaton_snmp フェンスエージェント, フェンスデバイスパラメーター
- fence_egenera フェンスエージェント, フェンスデバイスパラメーター
- fence_eps フェンスエージェント, フェンスデバイスパラメーター
- fence_hpblade フェンスエージェント, フェンスデバイスパラメーター
- fence_ibmblade フェンスエージェント, フェンスデバイスパラメーター
- fence_idrac フェンスエージェント, フェンスデバイスパラメーター
- fence_ifmib フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo2 フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo3 フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo4 フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo_mp フェンスエージェント, フェンスデバイスパラメーター
- fence_imm フェンスエージェント, フェンスデバイスパラメーター
- fence_intelmodular フェンスエージェント, フェンスデバイスパラメーター
- fence_ipdu フェンスエージェント, フェンスデバイスパラメーター
- fence_ipmilan フェンスエージェント, フェンスデバイスパラメーター
- fence_rhevm フェンスエージェント, フェンスデバイスパラメーター
- fence_rsb フェンスエージェント, フェンスデバイスパラメーター
- fence_scsi フェンスエージェント, フェンスデバイスパラメーター
- fence_virt フェンスエージェント, フェンスデバイスパラメーター
- fence_vmware_soap フェンスエージェント, フェンスデバイスパラメーター
- fence_wti フェンスエージェント, フェンスデバイスパラメーター
- Fujitsu Siemens Remoteview Service Board (RSB) フェンスデバイス, フェンスデバイスパラメーター
H
- HA サービスの設定
- 概要, HA サービス設定の注意事項
- High Availability LVM の設定, High Availability LVM (HA-LVM)
- HP Bladesystem フェンスデバイス, フェンスデバイスパラメーター
- HP iLO MP フェンスデバイス, フェンスデバイスパラメーター
- HP iLO フェンスデバイス, フェンスデバイスパラメーター
- HP iLO2 フェンスデバイス, フェンスデバイスパラメーター
- HP iLO3 フェンスデバイス, フェンスデバイスパラメーター
- HP iLO4 フェンスデバイス, フェンスデバイスパラメーター
I
- IBM BladeCenter SNMP フェンスデバイス, フェンスデバイスパラメーター
- IBM BladeCenter フェンスデバイス, フェンスデバイスパラメーター
- IBM Integrated Management Module フェンスデバイス, フェンスデバイスパラメーター
- IBM iPDU フェンスデバイス, フェンスデバイスパラメーター
- IF MIB フェンスデバイス, フェンスデバイスパラメーター
- Intel Modular フェンスデバイス, フェンスデバイスパラメーター
- IP ポート
- 有効化, IP ポートの有効化
- IPMI LAN フェンスデバイス, フェンスデバイスパラメーター
- iptables
- 設定, IP ポートの有効化
- iptables ファイアウォール, クラスターコンポーネントに対する iptables ファイアウォールの設定
L
- LVM、High Availability, High Availability LVM (HA-LVM)
N
- NetworkManager
- クラスター使用のために無効化, NetworkManager の注意事項
- nfsexport リソース、設定, nfsexport および nfsserver リソースの設定
- nfsserver リソース、設定, nfsexport および nfsserver リソースの設定
Q
- qdisk
- 使用に関する注意事項, Quorum Disk 使用に関する注意事項
- quorum disk
- 使用に関する注意事項, Quorum Disk 使用に関する注意事項
R
- RHEV-M REST API フェンスデバイス, フェンスデバイスパラメーター
- ricci
- クラスター管理の注意事項, ricci の注意事項
S
- SCSI フェンシング, フェンスデバイスパラメーター
- SELinux
- SNMP フェンスデバイスによる APC パワースイッチ , フェンスデバイスパラメーター
T
- telnet/SSH フェンスデバイスによる APC パワースイッチ, フェンスデバイスパラメーター
- totem タグ
- consensus 値, 2 ノードクラスター内の totem の consensus 値
V
- VMware (SOAP インターフェース) フェンスデバイス, フェンスデバイスパラメーター
W
- WTI パワースイッチフェンスデバイス, フェンスデバイスパラメーター