クラスターの管理
High Availability アドオンの設定と管理
エディッション 0
概要
はじめに
- 『Red Hat Enterprise Linux インストールガイド』 — Red Hat Enterprise Linux 6 のインストールに関する情報を提供しています。
- 『Red Hat Enterprise Linux 導入ガイド』 — Red Hat Enterprise Linux 6 の導入、設定、管理に関する情報を提供しています。
- 『High Availability アドオンの概要』 — Red Hat High Availability アドオンについて大まかに説明しています。
- 『論理ボリュームマネージャの管理』 — クラスター化環境における Logical Volume Manager (LVM) の実行に関する情報など LVM について説明しています。
- 『Global File System 2: 設定と管理』 — Resilient Storage アドオンに含まれている Red Hat GFS2 (Red Hat Global File System 2) のインストール、設定、メンテナンスに関する情報を提供しています。
- 『DM マルチパス機能』 — Red Hat Enterprise Linux 6 の Device-Mapper Multipath (デバイスマッパーマルチパス) 機能の使用に関する情報を提供しています。
- 『ロードバランサーの管理』 — Load Balancer アドオンを使用したハイパフォーマンスシステムとサービスの設定に関する情報を提供します。これは、リアルサーバー群のセット全域で IP 負荷分散用に Linux Virtual Servers (LVS) を提供する統合ソフトウェアコンポーネントのセットです。
- 『リリースノート』 — Red Hat 製品の最新リリース情報を提供しています。
1. フィードバック リンクのコピーリンクがクリップボードにコピーされました!
Cluster_Administration(EN)-6 (2013-11-13T16:26)
Cluster_Administration(EN)-6 (2013-11-13T16:26)
第1章 Red Hat High Availability アドオンの設定と管理の概要 リンクのコピーリンクがクリップボードにコピーされました!
注記
1.1. 新機能と変更された機能 リンクのコピーリンクがクリップボードにコピーされました!
1.1.1. Red Hat Enterprise Linux 6.1 の新機能と変更された機能 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat Enterprise Linux 6.1 リリース以降、Red Hat High Availability アドオンは SNMP トラップに対するサポートを提供しています。Red Hat High Availability アドオンを使用して SNMP トラップを設定する方法については、10章Red Hat High Availability アドオンを使用した SNMP の設定 を参照してください。
- Red Hat Enterprise Linux 6.1 リリース以降、Red Hat High Availability アドオンは
ccsクラスター設定コマンドに対するサポートを提供しています。ccsコマンドの詳細については、5章ccs コマンドを使用した Red Hat High Availability アドオンの設定 と 6章Red Hat High Availability アドオンを使用した ccs の管理 を参照してください。 - Conga を使用した Red Hat High Availability アドオンソフトウェアの設定と管理については、Conga 画面と機能サポートが更新されました。
- Red Hat Enterprise Linux 6.1 リリース以降、
ricciを使用する場合は、いずれかのノードから更新済みのクラスター設定を初めて伝播する時にパスワードが必要になります。ricciに関する情報は、「ricciの注意事項」 を参照してください。 - サービスの Restart-Disable 障害ポリシーを指定できるようになりました。これは、サービスが失敗した場合にシステムがサービスを再起動を試行することを意味します。ただし、サービスの再起動も失敗した場合は、サービスはクラスター内の別のホストに移動される代わりに無効になります。この機能については 「クラスターへのクラスターサービスの追加」 と 付録B HA リソースパラメーター で説明しています。
- 独立したサブツリーを非クリティカルと設定できるようになりました。これは、リソースが失敗した場合にはそのリソースのみが無効になることを意味します。本機能の詳細は、「クラスターへのクラスターサービスの追加」 と 「障害からの回復と独立したサブツリー」 を参照してください。
- 本ガイドには、新しい章として 9章クラスター内の問題の診断と修正 が追加されました。
1.1.2. Red Hat Enterprise Linux 6.2 の新機能と変更された機能 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat Enterprise Linux は、アクティブ/アクティブ構成で Clustered Samba を実行するサポートを提供するようになりました。Clustered Samba 設定の詳細については、11章Clustered Samba の設定 を参照してください。
- luci をホストしているシステム上で認証できる全ユーザーは luci にログインできます。ただし、Red Hat Enterprise Linux 6.2 以降、管理者 (root ユーザー又は管理者パーミッションを持つユーザー) がユーザーに対してパーミッションを設定するまでは、luci を実行しているシステムの root ユーザーのみが luci コンポーネントにアクセスできます。ユーザーに luci のパーミッションを設定する詳細については、「luci へのアクセス制御」 を参照してください。
- クラスターのノードは、UDP ユニキャストトランスポートのメカニズムを使用して、ノード間の通信が行われます。UDP ユニキャスト設定に関する詳細情報は 「UDP ユニキャストトラフィック」 を参照してください。
/etc/sysconfig/luciファイルを使用することで、luci の動作を設定できるようになりました。例えば、luci が機能している IP アドレスのみを特別に設定できます。luci が機能している IP アドレスのみを設定する詳細については、表2.2「luci を実行するコンピューター上で有効な IP ポート」 を参照してください。/etc/sysconfig/luciファイルの一般的な詳細は、「/etc/sysconfig/luciを使用した luci の設定」 を参照してください。ccsコマンドに、利用可能なフェンスデバイスの一覧を表示する--lsfenceoptsオプションが追加されました。また、--lsfenceoptsfence_type オプションは利用可能なフェンスタイプを表示します。これらのオプションの詳細については、「フェンスデバイスとフェンスデバイスオプションの一覧表示」 を参照してください。ccsコマンドに、クラスターに現在利用可能なクラスターサービスの一覧を表示する--lsserviceoptsオプションが追加されました。また、--lsserviceoptsservice_type オプションは、特定のタイプのサービスに指定できるオプションの一覧を表示します。これらのオプションの詳細については、「利用可能なクラスターサービスおよびリソースの一覧表示」 を参照してください。- Red Hat Enterprise Linux 6.2 リリースでは、VMware (SOAP インターフェース) フェンスエージェントに対するサポートを提供しています。フェンスデバイスのパラメーターについての詳細は、付録A フェンスデバイスパラメーター を参照してください。
- Red Hat Enterprise Linux 6.2 リリースでは、RHEV 3.0 以降の RHEV-M REST API フェンスエージェントに対するサポートを提供しています。フェンスデバイスのパラメーターについての詳細は、付録A フェンスデバイスパラメーター を参照してください。
- Red Hat Enterprise Linux 6.2 リリース以降、
ccsコマンドを使用してクラスター内で仮想マシンを設定する場合、--addvmオプション (addserviceオプションではない) を使用できます。これにより、クラスター設定ファイルのrm設定ノードで直接vmリソースを定義できます。ccsコマンドを使用して仮想マシンリソースを設定する詳細については、「仮想マシンのリソース」 を参照してください。 - 本ガイドに、新しい付録として 付録D クラスターサービスリソースチェックとフェイルオーバーのタイムアウト が加わりました。この付録は、
rgmanagerがクラスターリソースのステータスをモニターする方法、ステータスチェックの間隔を修正する方法について説明しています。また、操作のタイムアウトによりサービスが失敗することを示した__enforce_timeoutsサービスパラメーターについても説明しています。 - 本ガイドには、「クラスターコンポーネントに対する iptables ファイアウォールの設定」 の項が追加されています。この項では、様々なクラスターコンポーネントに対して
iptablesファイアウォールを使用してマルチキャストトラフィックを可能にするために使用できるフィルタリングについて説明しています。
1.1.3. Red Hat Enterprise Linux 6.3 の新機能と変更された機能 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat Enterprise Linux 6.3 リリースでは、
condorリソースエージェントに対するサポートを提供しています。HA リソースパラメーターの詳細については、付録B HA リソースパラメーター を参照してください。 - 本ガイドに、付録F High Availability LVM (HA-LVM) の付録が新たに加わりました。
- 本ガイド全体に渡り、クラスターの再起動が必要になる設定変さらについて明確化を図りました。これらの変更は、「設定の変更が反映されない」 にまとめています。
fence_ipmilanフェンスデバイスは、権限レベルのパラメーターをサポートします。フェンスデバイスのパラメーターについての詳細は、付録A フェンスデバイスパラメーター を参照してください。- 本ガイドに、「クラスター化環境での仮想マシンの設定」 のセクションが新たに加わりました。
- 本ガイドに、「luci 設定のバックアップと復元」 のセクションが新たに加わりました。
- 本ガイドに、「クラスターデーモンがクラッシュする」 のセクションが新たに加わりました。
- Red Hat Enterprise Linux 6.3 以降、root ユーザー又は luci 管理者のパーミッションを付与されたユーザーは、luci インターフェースを使用してユーザーをシステムに追加できるようになりました。詳細は 「luci へのアクセス制御」 を参照してください。
- Red Hat Enterprise Linux 6.3 リリース以降、
ccsコマンドによる設定の検証は、-hオプションを使って指定するノードの/usr/share/cluster/cluster.rngにあるクラスタースキーマに従って行います。これまでは、ccsコマンドはccsコマンド自体でパッケージ化されたローカルシステムの/usr/share/ccs/cluster.rngのクラスタースキーマを常に使用していました。設定の検証については、「設定の妥当性検証」 を参照してください。 - 付録A フェンスデバイスパラメーター のフェンスデバイスパラメーターについて説明した表、付録B HA リソースパラメーター の HA リソースパラメーターについて説明した表には、
cluster.confファイルに表示されているとおりパラメーター名も記載されています。
1.1.4. Red Hat Enterprise Linux 6.4 の新機能および変更された機能 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat Enterprise Linux 6.4 リリースでは、Eaton Network Power Controller (SNMP Interface) フェンスエージェント、HP BladeSystem フェンスエージェント、IBM iPDU フェンスエージェントに対応しています。フェンスデバイスのパラメーターに関する情報は、付録A フェンスデバイスパラメーター を参照してください。
- 付録B HA リソースパラメーター では、NFS サーバーのリソースエージェントに関する説明が追加されています。
- Red Hat Enterprise Linux 6.4 では、root ユーザーまたは luci 管理者権限を持つユーザーは、luci インターフェースを使用してユーザーをシステムから削除できるようになりました。これについては、「luci へのアクセス制御」 に記載されています。
- 付録B HA リソースパラメーター では、ファイルシステムおよび GFS2 HA リソースの新規パラメーター
nfsrestartについて説明しています。 - 本ガイドには、 「以前の設定を上書きするコマンド」 のセクションが追加されました。
- IPMI LAN フェンスエージェントは、付録A フェンスデバイスパラメーター に記載されているように、IPMI デバイスの権限レベルを設定するパラメーターに対応するようになりました。
- クラスター内のノード間通信ができるように、イーサネットのボンディングモード 1 以外に、0 と 2 へのサポートが追加されています。本ガイドのトラブルシューティングに関するアドバイスで、対応のボンディングモードのみを使用するように提案されていましたが、現在はこの旨を記載しています。
- VLAN タグのネットワークデバイスは、クラスターのハートビート通信に対応するようになりました。ハートビート通信に対応していない旨のトラブルシューティングアドバイスは、本書から削除されています。
- Red Hat High Availability アドオンは、冗長リングプロトコルの設定に対応するようになりました。この機能の使用および
cluster.conf設定ファイルの設定に関する一般情報は、「冗長リングプロトコルの設定」 を参照してください。luci で冗長リングプロトコルを設定する方法は、「冗長リングプロトコルの設定」 を参照してください。ccsコマンドで、冗長リングプロトコルを設定する方法は、「冗長リングプロトコルの設定」 を参照してください。
1.1.5. Red Hat Enterprise Linux 6.5 の新機能および変更された機能 リンクのコピーリンクがクリップボードにコピーされました!
- 本ガイドに 「nfsexport および nfsserver リソースの設定」 セクションが新たに加わりました。
- 付録A フェンスデバイスパラメーター のフェンスデバイスパラメーターについての表が更新され、luci インターフェイスのマイナーな更新が反映されています。
1.2. 設定の基本 リンクのコピーリンクがクリップボードにコピーされました!
- ハードウェアの設定。「ハードウェアの設定」 を参照してください。
- Red Hat High Availability アドオンソフトウェアのインストール。「Red Hat High Availability アドオンソフトウェアのインストール」 を参照してください。
- Red Hat High Availability アドオンソフトウェアの設定。「Red Hat High Availability アドオンソフトウェアの設定」 を参照してください。
1.3. ハードウェアの設定 リンクのコピーリンクがクリップボードにコピーされました!
- クラスターノード — Red Hat Enterprise Linux 6 ソフトウェアを実行可能なコンピューター。RAM 1 GB 以上
- 公共ネットワーク用のネットワークスイッチ — クライアントがクラスターにアクセスするために必要です。
- プライベートネットワーク用のネットワークスイッチ — クラスターノード同士や、ネットワークパワースイッチとファイバーチェンネルスイッチなど、他のクラスターハードウェアとの通信に必要となります。
- フェンスデバイス — フェンスデバイスが必要になります。エンタープライズレベルのクラスターでのフェンシングには、ネットワークパワースイッチが推奨されます。対応するフェンスデバイスについての詳細は、付録A フェンスデバイスパラメーター を参照してください。
- ストレージ — 一部のタイプのストレージがクラスターに必要です。図1.1「Red Hat High Availability アドオンハードウェアの概要」 では共有ストレージが表示されていますが、特定の用途には共有ストレージが不要の場合もあります。
図1.1 Red Hat High Availability アドオンハードウェアの概要
1.4. Red Hat High Availability アドオンソフトウェアのインストール リンクのコピーリンクがクリップボードにコピーされました!
yum install コマンドを使用して、Red Hat High Availability アドオンソフトウェアのパッケージをインストールします。
yum install rgmanager lvm2-cluster gfs2-utils
# yum install rgmanager lvm2-cluster gfs2-utils
rgmanager のみをインストールしても、HA クラスターを作成するために必要な依存性をすべて、HighAvailability チャンネルから引っ張ってきます。lvm2-cluster と gfs2-utils パッケージは、ResilientStorage チャンネルの一部ですが、お使いのサイトでは必要がない可能性もあります。
Red Hat High Availability アドオンソフトウェアのアップグレード リンクのコピーリンクがクリップボードにコピーされました!
- 任意の単一クラスターノード上の全クラスターサービスをシャットダウンします。ノード上でクラスターソフトウェアを停止する手順は、「クラスターソフトウェアの停止」 を参照してください。
rgmanagerを停止する前に、クラスターで管理中のサービスと仮想マシンを手動でホストから再配置することが望ましいでしょう。 yum updateコマンドを実行してインストールしたパッケージを更新します。- クラスターノードを再起動するか、手動でクラスターサービスを再開始します。ノード上でクラスターソフトウェアを起動する手順については 「クラスターソフトウェアの起動」 を参照してください。
1.5. Red Hat High Availability アドオンソフトウェアの設定 リンクのコピーリンクがクリップボードにコピーされました!
- Conga — Red Hat High Availability アドオンをインストール、設定、管理するための総合的なユーザーインターフェースです。Conga を使用した High Availability アドオンの設定と管理の詳細については、3章Conga を使用した Red Hat High Availability アドオンの設定 と 4章Conga を使用した Red Hat High Availability アドオンの管理 を参照してください。
ccsコマンド — このコマンドは Red Hat High Availability アドオンの設定と管理を行います。ccsコマンドを使用した High Availability アドオンの設定と管理の詳細については、5章ccs コマンドを使用した Red Hat High Availability アドオンの設定 と 6章Red Hat High Availability アドオンを使用した ccs の管理 を参照してください。- コマンドラインツール — Red Hat High Availability アドオンの設定と管理を行うためのコマンドラインツール群です。コマンドラインツールを使用したクラスターの設定と管理の詳細については、7章Red Hat High Availability の手動での設定 と 8章コマンドラインツールを使用した Red Hat High Availability アドオンの管理 を参照してください。推奨されるコマンドラインツールは 付録E コマンドラインツールの要約 にまとめています。
注記
system-config-cluster は Red Hat Enterprise Linux 6 では利用できません。
第2章 Red Hat High Availability アドオンを設定する前の作業 リンクのコピーリンクがクリップボードにコピーされました!
重要
2.1. 設定時の一般的な注意事項 リンクのコピーリンクがクリップボードにコピーされました!
- サポートされるクラスターノードの数
- High Availability アドオンでサポートされるクラスターノードの最大数は 16 です。
- 単一のサイトクラスター
- 今回は単一サイトクラスターのみ完全にサポートされています。複数の物理的な場所に渡るクラスターは正式にはサポートされていません。複数のサイトクラスターについての詳細と説明に関しては、Red Hat セールス又はサポート担当者にご相談ください。
- GFS2
- GFS2 ファイルシステムは、スタンドアロンシステム、あるいはクラスター設定の一部としても実装できますが、Red Hat は単一ノードファイルシステムとしての GFS2 の使用をサポートしていません。Red Hat は、ハイパフォーマンスの単一ノードファイルシステムを複数サポートしています。これらは、一般的にクラスターファイルシステムより低いオーバーヘッドを持つ単一ノード用に最適化されています。単一ノードのみがファイルシステムをマウントする必要がある状況では、Red Hat は GFS2 よりも、こうしたファイルシステムの使用を推奨します。Red Hat は、既存のお客様に対して単一ノードの GFS2 ファイルシステムを引き続きサポートします。GFS2 ファイルシステムをクラスターファイルシステムとして設定する場合は、クラスター内の全てのノードが共有ファイルシステムにアクセスできるようにしてください。一部のノードがファイルシステムへのアクセスを持ち、他のノードは持っていない非対称クラスター設定はサポートされません。このような設定では、全てのノードが実際に GFS2 ファイルシステム自体をマウントする必要がありません。
- 単一障害点のないハードウェア設定
- クラスターは、デュアルコアコントローラー RAID アレイ、複数のボンディングされたネットワークチャンネル、クラスターメンバーとストレージ間のマルチパス、冗長 UPS (un-interruptible power supply) システムを含むことができます。これで、1 つの障害によりアプリケーションのダウンタイムやデータの損失が発生しないようにします。別の方法として、単一障害点のないクラスターよりも低い可用性を提供する低コストのクラスターをセットアップすることも可能です。例えば、シングルコントローラー RAID アレイとシングルイーサネットチャンネルのみを持つクラスターのセットアップが可能です。ホスト RAID コントローラー、クラスターサポートのないソフトウェア RAID、マルチイニシエーターパラレル SCSI 設定など一部の低コスト代替手段は、互換性がないか、共有クラスターストレージとして使用するには適切ではありません。
- データ整合性の保証
- データ整合性を確保するために、一度に 1 つのノードだけがクラスターサービスを実行してクラスターサービスのデータにアクセスできます。クラスターハードウェア設定内のパワースイッチを使用することで、フェイルオーバープロセス中に 1 つのノードがそのノードの HA サービスを再開する前に別のノードをパワーサイクルできるようにします。これにより 2 つのノードが同時に同じデータにアクセスしてデータが破損するのを防止します。フェンスデバイス (遠隔操作でクラスターノード群の電力供給、シャットダウン、再起動を行うハードウェア又はソフトウェアソリューション) を使用して、全ての障害状況下でデータの整合性を保証します。
- イーサネットチャンネルボンディング
- クラスタークォーラムとノードの健全性は、イーサネットを介してクラスターノード間のメッセージ通信で判定されます。さらに、クラスターノード群は他のクリティカルな各種クラスター機能 (例えば、フェンシング) にイーサネットを使用します。マルチイーサネットインターフェースは、イーサネットチャンネルボンディングと同一体として動作するよう設定され、クラスターノード群と他のクラスターハードウェア間の標準的なスイッチドイーサネット接続における単一障害点のリスクを軽減します。Red Hat Enterprise Linux 6.4 ではボンディングモード 0、1、2 がサポートされています。
- IPv4 と IPv6
- High Availability アドオンは IPv4 と IPv6 の両方のインターネットプロトコルをサポートします。High Availability アドオンでの IPv6 のサポートは Red Hat Enterprise Linux 6 では初めてです。
2.2. 互換性のあるハードウェア リンクのコピーリンクがクリップボードにコピーされました!
2.3. IP ポートの有効化 リンクのコピーリンクがクリップボードにコピーされました!
iptables ルールを提供しています。
2.3.1. クラスターノードでの IP ポートの有効化 リンクのコピーリンクがクリップボードにコピーされました!
system-config-firewall を使用して IP ポートを有効化できます。
| IP ポート番号 | プロトコル | コンポーネント |
|---|---|---|
| 5404, 5405 | UDP | corosync/cman (クラスターマネージャー) |
| 11111 | TCP | ricci (クラスターの更新情報を伝播) |
| 21064 | TCP | dlm (分散ロックマネージャー) |
| 16851 | TCP | modclusterd |
2.3.2. luci の IP ポートの有効化 リンクのコピーリンクがクリップボードにコピーされました!
注記
| IP ポート番号 | プロトコル | コンポーネント |
|---|---|---|
| 8084 | TCP | luci (Conga ユーザーインターフェースサーバー) |
/etc/sysconfig/luci ファイルを使用して設定を有効した Red Hat Enterprise Linux 6.1 リリース以降、luci が機能する IP アドレスのみを特別に設定できるようになりました。使用しているサーバーインフラストラクチャーに複数のネットワークが組み込まれており、内部ネットワークからのみ luci にアクセスしたい場合は、この機能を使用できます。このためには、ファイル内の host を指定する行をコメント解除して編集します。例えば、ファイルの host 設定を 10.10.10.10 に変更するには、host の行を次のように変更します。
host = 10.10.10.10
host = 10.10.10.10
/etc/sysconfig/luci ファイルの詳細については、「/etc/sysconfig/luci を使用した luci の設定」 を参照してください。
2.3.3. クラスターコンポーネントに対する iptables ファイアウォールの設定 リンクのコピーリンクがクリップボードにコピーされました!
cman (Cluster Manager) では以下のフィルタリングを使用します。
iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 -d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 -d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$ iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
dlm (Distributed Lock Manager) の場合:
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT
ricci (Conga リモートエージェントの一部) の場合:
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT
modclusterd (Conga リモートエージェントの一部) の場合:
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
luci (Conga ユーザーインターフェースサーバー) の場合:
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 8084 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 8084 -j ACCEPT
igmp (Internet Group Management Protocol) の場合:
iptables -I INPUT -p igmp -j ACCEPT
$ iptables -I INPUT -p igmp -j ACCEPT
service iptables save ; service iptables restart
$ service iptables save ; service iptables restart
2.4. /etc/sysconfig/luci を使用した luci の設定 リンクのコピーリンクがクリップボードにコピーされました!
/etc/sysconfig/luci ファイルを使用して luci の動作のいくつかを設定できるようになりました。このファイルで変更できるパラメーターには、サーバー設定だけでなく init スクリプトにより使用される動作環境の補助的な設定も含まれます。また、このファイルを編集して、アプリケーション設定のパラメーターを修正することもできます。ファイル内には、編集によって変更可能な設定パラメーターを説明した手順が記載されています。
/etc/sysconfig/luci ファイルの設定以外の行は変更しないことをお勧めします。また、このファイル、特に INITSCRIPT セクションに必要な構文には従うようにしてください。ここでは、等号記号の前後に空白を入れることはできません。また、空白を含む文字列を囲む引用符を使用する必要があります。
/etc/sysconfig/luci ファイルを編集することにより luci が機能するポートを変更する方法を示しています。
/etc/sysconfig/luciファイル内の次の行をコメント解除します:#port = 4443
#port = 4443Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 4443 を希望するポート番号に置き換えます。これは 1024 (特権ポートではない) かそれ以上でなければなりません。例えば、次のようにファイルの行を編集して、luci が機能するポートを 8084 に設定できます。
port = 8084
port = 8084Copy to Clipboard Copied! Toggle word wrap Toggle overflow - luci サービスを再起動して、変更を反映させます。
重要
/etc/sysconfig/luci ファイル内の設定パラメーターを修正してデフォルト値を再定義する場合は、デフォルト値の代わりに新しい値を使用することをお勧めします。例えば、luci が機能するポートを修正する場合、「luci の IP ポートの有効化」 で説明のとおり luci の IP ポートを有効にする時に修正した値を指定するようにしてください。
/etc/sysconfig/luci ファイルで設定できるパラメーターの完全な情報は、ファイル内のドキュメントを参照してください。
2.5. 統合されたフェンスデバイスと使用するための ACPI 設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
shutdown -h now) を試みるのではなく、統合されたフェンスデバイスが迅速かつ完全にノードをオフにできるようにします。これに対して、ACPI Soft-Off が有効な場合、統合されたフェンスデバイスはノードをオフにするのに 4 秒以上かかります (以下の注記参照)。さらには、ACPI Soft-Off が有効で、シャットダウン中にノードがパニックやフリーズを起こすと、統合されたフェンスデバイスがノードをオフにできない場合があります。これらの状況下では、フェンシングは遅延されるか、失敗します。結果的に、ノードが統合されたフェンスデバイスでフェンスされ ACPI Soft-Off が有効であると、クラスターの復帰は遅くなるか、復帰に管理者の介入が必要になります。
注記
chkconfig 管理を使用して、フェンスされた時にノードが直ちにオフになることを確認します。ACPI Soft-Off を無効にするための推奨される方法は chkconfig 管理を使用することです。ただし、このメソッドがご使用のクラスターに十分でない場合は、以下の代替メソッドのいずれかを使用して ACPI Soft-Off を無効にできます:
- BIOS 設定を "instant-off" 又は遅延なくノードをオフにする同様の設定に変更
注記
BIOS で ACPI Soft-Off を無効にすることは、一部のコンピューターでは不可能な場合があります。 /boot/grub/grub.confファイルのカーネルブートコマンドの行にacpi=offを追記重要
このメソッドは ACPI を完全に無効にします。ACPI が完全に無効の場合、一部のコンピューターは正しく起動しません。このメソッドは、他のメソッドがご使用のクラスターに効果的でない場合に のみ 使用してください。
- 「
chkconfig管理を使用した ACPI Soft-Off の無効化」 — 推奨されるメソッド - 「BIOS を使用した ACPI Soft-Off の無効化」 — 1 番目の代替メソッド
- 「
grub.confファイル内での ACPI の完全無効化」 — 2 番目の代替メソッド
2.5.1. chkconfig 管理を使用した ACPI Soft-Off の無効化 リンクのコピーリンクがクリップボードにコピーされました!
chkconfig 管理を使用して ACPI Soft-Off を無効にするには、chkconfig 管理から ACPI デーモン (acpid) を削除するか、acpid をオフにします。
注記
chkconfig 管理を使用して ACPI Soft-Off を無効にします。
- 以下のどちらかのコマンドを実行します。
chkconfig --del acpid— このコマンドはchkconfig管理からacpidを削除します。— または —chkconfig --level 345 acpid off— このコマンドはacpidをオフにします。
- ノードを再起動します。
- クラスターが設定され稼働している間に、フェンスされた時点でノードが直ちにオフになることを確認します。
注記
ノードはfence_nodeコマンド、又は Conga でフェンスできます。
2.5.2. BIOS を使用した ACPI Soft-Off の無効化 リンクのコピーリンクがクリップボードにコピーされました!
chkconfig 管理 (「chkconfig 管理を使用した ACPI Soft-Off の無効化」) を使用することです。しかし、このメソッドがご使用のクラスターに効果的でない場合は、本セクションの手順に従ってください。
注記
- ノードを再起動して、
BIOS CMOS Setup Utilityプログラムを起動します。 - メニュー(又は同等の電源管理メニュー)に移動します。
- メニューで 機能 (又は同等の機能) を (又は、遅延なく電源ボタンを使ってノードをオフにできるのと同等の設定) にセットします。例2.1「
BIOS CMOS Setup Utility: を に設定」 は、 が に、 が にセットされている メニューを示しています。注記
、 、 と同等の機能は、コンピューターによって異なります。しかし、この手順の目的は、遅延なしに電源ボタンを介してコンピューターの電源オフができるように BIOS を設定することです。 BIOS CMOS Setup Utilityプログラムを終了して、BIOS 設定を保存します。- クラスターが設定され稼働している間に、フェンスされた時点でノードが直ちにオフになることを確認します。
注記
ノードはfence_nodeコマンド、又は Conga でフェンスできます。
例2.1 BIOS CMOS Setup Utility: を に設定
2.5.3. grub.conf ファイル内での ACPI の完全無効化 リンクのコピーリンクがクリップボードにコピーされました!
chkconfig 管理 (「chkconfig 管理を使用した ACPI Soft-Off の無効化」) を使用することです。使用中のクラスターにこの推奨されるメソッドが効果的でない場合は、BIOS 電源管理 (「BIOS を使用した ACPI Soft-Off の無効化」) を使用して ACPI Soft-Off を無効にできます。どのメソッドも効果的でない場合は、grub.conf ファイルのカーネルブートコマンドラインに acpi=off を追記すると ACPI を完全に無効にできます。
重要
grub.conf ファイルを編集することにより ACPI を完全に無効にできます。
- テキストエディターで
/boot/grub/grub.confを開きます。 - ノードを再起動します。
- クラスターが設定され稼働している間に、フェンスされた時点でノードが直ちにオフになることを確認します。
注記
ノードはfence_nodeコマンド、又は Conga でフェンスできます。
例2.2 acpi=off が追記されたカーネルブートコマンドライン
acpi=off がカーネルブートコマンドライン (「kernel /vmlinuz-2.6.32-193.el6.x86_64.img」で始まる行) に追加されました。
2.6. HA サービス設定の注意事項 リンクのコピーリンクがクリップボードにコピーされました!
rgmanager は、既製のアプリケーション用にコールドフェイルオーバーを実装します。Red Hat High Availability アドオンでは、アプリケーションは他のクラスターリソースにより設定されます。これにより、クラスタークライアントに対する明らかな中断なしに 1 つのクラスターノードから別のノードにフェイルオーバーできる HA サービスを形成できます。HA サービスのフェイルオーバーが発生する可能性があるのは、クラスターノードが失敗した場合、又はクラスターシステム管理者がサービスをあるクラスターノードから別のノードへ移動した場合 (例えば、予定されたクラスターノードの停止) です。
- IP アドレスリソース — IP アドレス 10.10.10.201
- 「httpd-content」と呼ばれるアプリケーションリソース — ウェブサーバーアプリケーション init スクリプト
/etc/init.d/httpd(httpdを指定) - ファイルシステムリソース —「gfs2-content-webserver」と呼ばれる Red Hat GFS2
図2.1 ウェブサーバーのクラスターサービスの例
注記
/etc/cluster/cluster.conf 内にリソースツリーとして表されます。クラスター設定ファイル内では、各リソースツリーは各リソース、その属性、リソースツリー内での他のリソースとの関係 (親、子、兄弟の関係) を指定する XML 表現です。
注記
- サービスを作成するために必要なリソースのタイプ
- リソース間での親、子、兄弟の関係
2.7. 設定の妥当性検証 リンクのコピーリンクがクリップボードにコピーされました!
/usr/share/cluster/cluster.rng のクラスタースキーマに沿って自動的に妥当性が検証されます。また、ccs_config_validate コマンドを使用するとクラスター設定の妥当性をいつでも検証できます。ccs コマンドを使用した設定の妥当性検証については、「設定の妥当性検証」 を参照してください。
/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (例えば /usr/share/doc/cman-3.0.12/cluster_conf.html) を参照してください。
- XML 妥当性 — 設定ファイルが有効な XML ファイルであることをチェックします。
- 設定のオプション — オプション (XML の要素と属性) が有効であることをチェックします。
- オプションの値 — オプションに有効なデータが含まれていることをチェックします (限定的)。
- 無効な XML — 例2.4「
cluster.confのサンプル設定:無効な XML」 - 無効なオプション — 例2.5「
cluster.confのサンプル設定:無効なオプション」 - 無効なオプション値 — 例2.6「
cluster.confのサンプル設定:無効なオプション値」
例2.3 cluster.conf のサンプル設定:有効なファイル
例2.4 cluster.conf のサンプル設定:無効な XML
</cluster> ではなく <cluster> となっています。
例2.5 cluster.conf のサンプル設定:無効なオプション
logging ではなく loging となっています。
例2.6 cluster.conf のサンプル設定:無効なオプション値
node-01.example.com の clusternode の行に nodeid があります。この値は正の値 ("1") ではなく負の値 ("-1") となっています。nodeid 属性の値は、正の値でなければなりません。
2.8. NetworkManager の注意事項 リンクのコピーリンクがクリップボードにコピーされました!
注記
NetworkManager が実行中あるいは chkconfig コマンドを使用して実行するように設定されている場合、cman サービスは起動しません。
2.9. Quorum Disk 使用に関する注意事項 リンクのコピーリンクがクリップボードにコピーされました!
qdiskd で、補助的なヒューリスティックを提供してノードの健全性を判定します。ヒューリスティックを使用することで、ネットワークパーティションが発生した場合に、ノードの運用に重要となる要素を決定できます。例えば、3:1 に分かれた 4 ノードクラスターでは、通常 3 つのノードが 3 対 1 の過半数で自動的に「勝ち」ます。この状況では、1 つのノードがフェンスされます。しかし、qdiskd を使用すると、クリティカルなリソース (例: クリティカルなネットワークパス) へのアクセスを基にしてその 1 つのノードが勝てるようにヒューリスティックを設定できます。使用しているクラスターにノードの健全性を判定する追加のメソッドが必要な場合は、そのニーズに合うように qdiskd を設定することをお勧めします。
注記
qdiskd を設定する必要はありません。特別な要件の例としては、「all-but-one (1 つ以外は全て)」の設定があります。all-but-one 設定では、1 つのノードだけが機能している場合でも定足数を維持するための十分な定足数投票数を提供するように qdiskd を設定します。
重要
qdiskd パラメーターはサイトの環境と特別な要件によって異なります。ヒューリスティック及び他の qdiskd パラメーターの使用を理解するためには、qdisk(5) の man ページを参照してください。qdiskd を理解してそれをサイトに使用する上でサポートが必要な場合は、Red Hat 認定サポート担当者にご連絡ください。
qdiskd を使用する必要がある場合は、以下の注意事項を考慮に入れてください。
- クラスターノードの投票数
- Quorum Disk の使用時は、各クラスターノードは 1 つの投票数を持っている必要があります。
- CMAN メンバーシップのタイムアウト値
qdiskdメンバーシップタイムアウト値は、CMAN メンバーシップタイムアウト値 (ノードがメンバーではなく停止していると CMAN が判定するまでのノードが応答しない時間) に基づいて自動的に設定されます。qdiskdは、CMAN タイムアウト内で実行できることを確認するための追加の健全性チェックも行います。この値の再設定が必要な場合は、以下の点を考慮する必要があります。CMAN メンバーシップタイムアウト値は、少なくともqdiskdメンバーシップタイムアウト値の 2 倍にすることをお勧めします。その理由は、quorum(定足数)デーモンは失敗したノードをそれ自身で検出しなければならず、その実行に CMAN よりもかなり長い時間がかかる場合があるためです。他のサイト特有の条件が CMAN とqdiskdのメンバーシップタイムアウト値の関係に影響を与える場合があります。CMAN メンバーシップタイムアウト値の調節に関するサポートについては、Red Hat 認定サポート担当者にご連絡ください。- フェンシング
qdiskdの使用時にフェンシングが確実に信頼できるようにするには、パワーフェンシングを使用します。qdiskdで設定されていないクラスターには他のタイプのフェンシングが信頼できる場合もありますが、qdiskdで設定されたクラスター用には信頼できません。- ノードの最大数
qdiskdで設定されたクラスターは最大で 16 のノードをサポートします。この上限はスケーラビリティによるものです。つまり、ノード数を増加すると、共有 Quorum Disk デバイス上の同期 I/O 競合の量が増加します。- Quorum disk デバイス
- quorum disk デバイスは、クラスター内の全ノードによる並行読み取り/書き込みのアクセスを持つ共有ブロックデバイスです。ブロックデバイスの最小限サイズは 10 メガバイトです。
qdiskdで使用できる共有ブロックデバイスの例としては、マルチポート SCSI RAID アレイ、ファイバーチャンネル RAID SAN、RAID 構成の iSCSI ターゲットがあります。Cluster Quorum Disk Utility のmkqdiskを使用して quorum disk デバイスを作成することができます。このユーティリティの使用方法については、mkqdisk(8) の man ページをご覧ください。注記
JBOD を quorum disk として使用することは推奨されません。JBOD は信頼できるパフォーマンスを提供できないため、ノードがそれに迅速に書き込むことができない可能性があります。ノードが quorum disk デバイスに迅速に書き込むことができないと、ノードは誤ってクラスターから削除されます。
2.10. Red Hat High Availability アドオンと SELinux リンクのコピーリンクがクリップボードにコピーされました!
targeted にセットした状態で enforcing の状態の SELinux をサポートします。
注記
fenced_can_network_connect が永続的に on に設定されていることを確認してください。この設定により、fence_xvm フェンシングエージェントが正常に機能し、システムによる仮想マシンのフェンシングが可能になります。
2.11. マルチキャストアドレス リンクのコピーリンクがクリップボードにコピーされました!
注記
2.12. UDP ユニキャストトラフィック リンクのコピーリンクがクリップボードにコピーされました!
cluster.conf 設定ファイルの cman transport="udpu" パラメーターを設定することによって、UDP ユニキャストを使用するように Red Hat High-Availability アドオンを設定できます。また、「ネットワークの設定」 の説明のとおり Conga ユーザーインターフェースの ページからユニキャストを指定することも可能です。
2.13. ricci の注意事項 リンクのコピーリンクがクリップボードにコピーされました!
ricci が ccsd に置き換わります。そのため、各クラスターノードで ricci が実行している必要があります。この目的は、ricci が cman_tool version -r コマンド、ccs コマンド、又は luci ユーザーインターフェースサーバーを介していようと、更新されたクラスター設定を伝播するためです。ricci を起動するには、service ricci start を使用するか、chkconfig を使ってブート時の起動を有効にします。ricci の IP ポートを有効にする方法については 「クラスターノードでの IP ポートの有効化」 を参照してください。
ricci を使用するにはパスワードが必要です。使用しているシステムに ricci をインストール後、passwd ricci コマンドを使って root としてユーザー ricci に ricci のパスワードを設定します。
2.14. クラスター化環境での仮想マシンの設定 リンクのコピーリンクがクリップボードにコピーされました!
rgmanager ツールを使用することをお勧めします。virsh を使用してマシンを起動すると、複数の場所で仮想マシンが実行することにつながり、仮想マシン内のデータが破損する恐れがあります。
virsh ではこの設定ファイルを設定しない限り認識されないため、virsh を使用することで誤って仮想マシンを起動しにくくなります。
path の属性を使用することで、デフォルト以外の場所を参照できます。path 属性はディレクトリ又はコロン (:) の記号で区切られたディレクトリのセットであって、特定のファイルへのパスではない点に注意してください。
警告
libvirt-guests サービスは、rgmanager を実行している全ノードで無効にすることをお勧めします。仮想マシンが自動起動/再開すると、複数の場所で仮想マシンが実行することにつながり、仮想マシン内のデータが破損する恐れがあります。
vm リソースResource)」 を参照してください。
第3章 Conga を使用した Red Hat High Availability アドオンの設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
3.1. 設定のタスク リンクのコピーリンクがクリップボードにコピーされました!
- クラスターを作成。「クラスターの作成」 を参照してください。
- グローバルクラスタープロパティを設定。「グローバルクラスタープロパティ」 を参照してください。
- フェンスデバイスを設定。「フェンスデバイスの設定」 を参照してください。
- クラスターメンバー用にフェンシングを設定。「クラスターメンバー用のフェンシングの設定」 を参照してください。
- フェイルオーバードメインを作成。「フェイルオーバードメインの設定」 を参照してください。
- リソースを作成。「グローバルクラスターリソースの設定」 を参照してください。
- クラスターサービスを作成。「クラスターへのクラスターサービスの追加」 を参照してください。
3.2. luci の起動 リンクのコピーリンクがクリップボードにコピーされました!
注記
luci を使用してクラスターを設定するには、「ricci の注意事項」 で説明のとおり ricci がインストールされ、クラスターノード上で稼働している必要があります。そのセクションで記述していますが、ricci を使用する場合は 「クラスターの作成」 の説明のとおり、クラスター作成時に各クラスターノード用に luci が要求するパスワードが必要です。
- luci をホストするコンピューターを選択して、そのコンピューターに luci ソフトウェアをインストールします。例えば:
yum install luci
# yum install luciCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記
通常は、サーバーケージ又はデータセンター内のコンピューターが luci をホストします。ただし、クラスターコンピューターは luci をホストできます。 service luci startを使用して luci を開始します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記
Red Hat Enterprise Linux release 6.1 以降、/etc/sysconfig/luciファイルを使用してポートやホストパラメーターなど luci の動作を設定できるようになりました。詳細は 「/etc/sysconfig/luciを使用した luci の設定」 を参照してください。修正したポートやホストパラメーターは、luci サービスの起動時に表示される URL に自動的に反映されます。- Web ブラウザーで、luci サーバーの URL を URL アドレスバーに指定して、
Go(それに該当するもの) をクリックします。luci サーバーの URL 構文は、https://luci_server_hostname:luci_server_portで、luci_server_port のデフォルト値は8084となっています。luci への初回アクセス時には、(luci サーバーの) 自己署名 SSL 証明書に関するウェブブラウザーのプロンプトが表示されます。ダイアログボックスが確認されると、ウェブブラウザーに luci ログインページが表示されます。 - luci をホストしているシステム上で認証できる全ユーザーは luci にログインできます。ただし、Red Hat Enterprise Linux 6.2 以降、管理者 (root ユーザー又は管理者パーミッションを持つユーザー) がユーザーにパーミッションを設定するまでは、luci を実行しているシステムの root ユーザーのみが luci コンポーネントにアクセスできます。ユーザーに luci のパーミッションを設定する詳細については、「luci へのアクセス制御」 を参照してください。
図3.1 luci Homebase ページ
注記
3.3. luci へのアクセス制御 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat Enterprise Linux 6.2 では、root ユーザーまたは luci アプリケーションを実行しているシステムで luci 管理者権限を持つユーザーは、システム上の各ユーザーにパーミッションを設定することで、様々な luci コンポーネントへのアクセスを制御することができます。
- Red Hat Enterprise Linux 6.3 では、root ユーザーまたは luci 管理者のパーミッションを付与されたユーザーは、luci インターフェースにユーザーを追加し、これらのユーザーのユーザーパーミッションを設定できるようになりました。これらユーザーをシステムに追加してパスワードの設定をする必要はありますが、この機能により、このユーザーが luci に初めてログインする前にユーザーのパーミッションを設定できるようになりました。
- Red Hat Enterprise Linux 6.4 では、root ユーザーまたは luci 管理者権限を持つユーザーは、luci インターフェースを使用してユーザーを luci インターフェースから削除できるようになりました。これでそのユーザーに設定されたパーミッションがリセットされます。
注記
/etc/pam.d/luci ファイルを編集することで、luci による認証動作を修正することができます。Linux-PAM の使用方法に関しては、pam(8) man ページを参照してください。
root または事前に管理者権限を付与されたユーザーでログインして、luci 画面の右上隅の セクションをクリックしてください。すると、 ページが表示され、既存ユーザーが表示されます。
- ユーザーに root ユーザーと同じパーミッションを付与します。全クラスター上の完全なパーミッションであり、root 以外の他の全ユーザーのパーミッションを設定/削除することができます。これらのパーミッションは制限できません。
- 「クラスターの作成」 の説明のとおり、ユーザーは新規クラスターを作成できるようになります。
- 「luci インターフェースへの既存クラスターの追加」 の説明のとおり、ユーザーは既存のクラスターを luci インターフェースに追加できるようになります。
- ユーザーは特定のクラスターを閲覧できるようになります。
- ユーザーは特定のクラスターの設定を修正できるようになります。ただし、クラスターノードの追加および削除は対象外です。
- 「高可用性サービスの管理」 の説明のとおり、ユーザーは高可用性サービスを管理できるようになります。
- 「クラスターノードの管理」 の説明のとおり、ユーザーはクラスターの個々のノードを管理できるようになります。
- 「クラスターの作成」 の説明のとおり、ユーザーはクラスターからノードの追加/削除ができるようになります。
- 「クラスターの起動、停止、再起動、削除」 の説明のとおり、ユーザーは luci インターフェースからクラスターを削除できるようになります。
3.4. クラスターの作成 リンクのコピーリンクがクリップボードにコピーされました!
- luci ページの左側にあるメニューから をクリックします。図3.2「luci のクラスター管理のページ」 に示してあるように、 画面が表示されます。
図3.2 luci のクラスター管理のページ
- をクリックします。そうすると 図3.3「luci のクラスター作成のダイアログボックス」 に示してあるように ダイアログボックスが表示されます。
図3.3 luci のクラスター作成のダイアログボックス
- 必要に応じて、 ダイアログボックスに以下のパラメーターを入力します:
- のテキストボックスに、クラスター名を入力します。クラスター名は 15 文字以下にしてください。
- クラスター内の各ノードが同じ ricci パスワードである場合、 にチェックを入れると、ノード追加時に フィールドに自動入力できます。
- クラスター内のノードの名前を カラムに入力して、そのノード用の ricci パスワードを カラムに入力します。ノード名の長さは、最大 255 バイトまでになります。
- システムをクラスタートラフィック用のみに使用される専用のプライベートネットワークで設定している場合、luci はクラスターノード名が解決するアドレスとは異なるアドレス上の ricci と通信するように設定すると良いでしょう。これを行うには、アドレスを として入力します。
- ricci エージェント用にデフォルトの 11111 とは異なるポートを使用している場合は、そのパラメーターを変更できます。
- をクリックして、クラスター内の追加ノード毎にノード名と ricci パスワードを入力します。
- クラスターを作成する時点でノードに既にインストールされているクラスターソフトウェアパッケージをアップグレードしたくない場合は、 オプションを選択します。全てのクラスターソフトウェアパッケージをアップグレードしたい場合は、 オプションを選択します。
注記
か のオプションのどちらを選択するにしても、ベースのクラスターコンポーネントの一部が欠如している場合 (cman、rgmanager、modcluster及びそれら全ての依存関係)、それらはインストールされます。インストールできなければ、ノードの作成は失敗します。 - の選択は任意です。
- クラスター化ストレージが必要な場合は、 を選択します。これにより、クラスター化ストレージをサポートするパッケージがダウンロードされ、クラスター化 LVM が有効になります。ただし、これは Resilient Storage アドオン、又は Scalable File System アドオンへのアクセスがある場合にのみ選択してください。
- をクリックします。 をクリックすると以下のアクションが発生します:
- を選択した場合は、クラスターソフトウェアパッケージがノード上にダウンロードされます。
- クラスターソフトウェアがノードにインストールされます (又は、適切なソフトウェアパッケージがインストールされたことが確認されます)。
- クラスター設定ファイルが更新され、クラスター内の各ノードに伝播します。
- 追加されたノード群がクラスターに参加します。
クラスターが作成中であることを知らせるメッセージが表示されます。クラスターの準備ができると、図3.4「クラスターノードの表示」 にあるように新規作成されたクラスターのステータスが表示されます。ricci がどのノードでも稼働していない場合は、クラスター作成は失敗することに注意して下さい。図3.4 クラスターノードの表示
- クラスターを作成するために をクリックした後に、クラスターノード表示ページの上部にあるメニューから 又は の機能をクリックすることで、クラスターに対するノードの追加/削除ができます。クラスター全体を削除しない限り、ノードを削除するにはまずノードを停止する必要があります。現在稼働中の既存のクラスターからノードを削除する方法については 「クラスターからのメンバーの削除」 を参照してください。
注記
クラスターからクラスターノードの削除は、元に戻すことが不可能な破壊的な操作です。
3.5. グローバルクラスタープロパティ リンクのコピーリンクがクリップボードにコピーされました!
3.5.1. 全般プロパティの設定 リンクのコピーリンクがクリップボードにコピーされました!
- テキストボックスは、クラスター名を表示します。ここでは、クラスター名を変更することはできません。クラスター名を変更する唯一の方法は、新しい名前で新規にクラスター設定を作成することです。
- の値は、クラスターの作成時に
1にセットされており、クラスター設定を変更する度に自動的に増加します。ただし、別の値にセットする必要がある場合は、 テキストボックスで指定できます。
3.5.2. フェンスデーモンプロパティの設定 リンクのコピーリンクがクリップボードにコピーされました!
- パラメーターは、ノードが失敗後、ノード (フェンスドメインのメンバー) をフェンシングするまでにフェンスデーモン (
fenced) が待機する秒数です。 のデフォルト値は、0です。この値はクラスターとネットワークのパフォーマンスに合わせて変更できます。 - パラメーターは、ノードが fence ドメインを結合してからノードをフェンシングするまでの fence デーモン (
fenced) の待機時間 (秒数) です。luci は、 の値を3に設定します。一般的な の値は 20 秒から 30 秒の間となっていますが、クラスターやネットワークのパフォーマンスに左右されます。
注記
3.5.3. ネットワークの設定 リンクのコピーリンクがクリップボードにコピーされました!
- これがデフォルト設定です。このオプションが選択されている場合、Red Hat High Availability アドオンソフトウェアはクラスター ID を基にしてマルチキャストアドレスを作成します。アドレスの下位 16 ビットを生成して、それを IP プロトコルが IPV4 又は IPV6 であるかに応じてアドレスの上部に追加します:
- IPV4 の場合 — 形成されるアドレスは、239.192 に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
- IPV6 の場合 — 形成されるアドレスは、FF15:: に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
注記
クラスター ID は、各クラスター用にcmanが生成する一意の識別子です。クラスター ID を表示するには、1 つのクラスターノードでcman_tool statusコマンドを実行します。 - 特定のマルチキャストアドレスを使用する必要がある場合は、このオプションを選択して テキストボックスにマルチキャストアドレスを入力します。マルチキャストアドレスを指定する場合は、
cmanが使用する 239.192.x.x シリーズ(IPv6 の場合は FF15::)を使用することをお勧めします。この範囲以外のマルチキャストアドレスを使用すると、予期できない結果が生じる場合があります。例えば、224.0.0.x (「ネットワーク上の全ホスト」) を使用した場合、正しくルートされないか、一部のハードウェアでは全くルートされない可能性さえあります。マルチキャストアドレスを指定/修正した場合は、それを反映させるためにクラスターを再起動する必要があります。Conga を使ったクラスターの起動/停止に関する詳細は、「クラスターの起動、停止、再起動、削除」 を参照してください。注記
マルチキャストアドレスを指定する場合、クラスターパケットが通過するルーターの設定を確認するようにしてください。一部のルーターはアドレスを認識するのに長時間かかり、クラスターのパフォーマンスに重大な影響を与える場合があります。 - Red Hat Enterprise Linux 6.2 リリースでは、クラスター内のノードは UDP ユニキャストトランスポートのメカニズムを使用することで通信可能となっています。ただし、クラスターネットワークについては IP マルチキャストの使用を推奨してます。UDP ユニキャストは、IP マルチキャストを使用できない場合に活用する代替手段となります。UDP ユニキャストを使った GFS2 のデプロイメントは推奨されません。
3.5.4. 冗長リングプロトコルの設定 リンクのコピーリンクがクリップボードにコピーされました!
3.5.5. Quorum Disk の設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
| パラメーター | 説明 | ||||
|---|---|---|---|---|---|
mkqdisk ユーティリティによって作成される quorum disk のラベルを指定します。このフィールドが使用されると、quorum デーモンは /proc/partitions ファイルを読み取り、各ブロックデバイスの qdisk 署名を確認して、指定したラベルと比較します。これは、quorum デバイス名がノード間で異なる場合の設定に役立ちます。 | |||||
| |||||
ノードが「生存」と見なされるための最低限のスコア。スコアが省略されている場合や「0」にセットされていると、デフォルトの関数である floor((n+1)/2) が使用されます。n はヒューリスティックのスコアの合計です。 の値は、ヒューリスティックのスコアの合計を超過してはいけません。超過した場合は、quorum disk は利用できません。 |
注記
/etc/cluster/cluster.conf) に変更を伝播します。ただし、quorum disk が動作する、あるいは quorum disk のパラメーターに行った変更が反映されるには、クラスターを再起動 (「クラスターの起動、停止、再起動、削除」 を参照) して、各ノードで qdiskd デーモンが再起動することを確認する必要があります。
3.5.6. ロギング設定 リンクのコピーリンクがクリップボードにコピーされました!
- にチェックマークを入れると、ログファイル内のメッセージのデバッグを有効にします。
- にチェックマークを入れると、
syslogへのメッセージを有効にします。 及び を選択できます。 設定は、選択したレベル以上でメッセージがsyslogに送信されることを意味しています。 - にチェックマークを入れると、ログファイルへのメッセージを有効にします。 の名前を指定できます。 設定は、選択したレベル以上でメッセージがログファイルに書き込まれることを意味しています。
syslog とログファイルの設定を指定することも可能です。
3.6. フェンスデバイスの設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
- フェンスデバイスの作成 —「フェンスデバイスの作成」 を参照してください。フェンスデバイスを作成して命名した後は、「クラスターメンバー用のフェンシングの設定」 に示してあるようにクラスター内の各ノード用にフェンスデバイスを設定できます。
- フェンスデバイスの更新 — 「フェンスデバイスの修正」 を参照してください。
- フェンスデバイスの削除 — 「フェンスデバイスの削除」 を参照してください。
注記
図3.5 luci フェンスデバイスの設定ページ
3.6.1. フェンスデバイスの作成 リンクのコピーリンクがクリップボードにコピーされました!
- 設定ページから、 をクリックします。 をクリックすると、Add Fence Device (Instance) (フェンスデバイス(インスタンス)の追加) ダイアログボックスが表示されます。このダイアログボックスから、設定するフェンスデバイスのタイプを選択します。
- フェンスデバイスのタイプに応じて、Add Fence Device (Instance) ダイアログボックス内の情報を指定します。フェンスデバイスパラメーターについての詳細情報は、付録A フェンスデバイスパラメーター を参照してください。「クラスターメンバー用のフェンシングの設定」 で示してあるように、一部のケースでは、個別のノード用にフェンスを設定する時にはフェンスデバイスに対してノード特有のパラメーターを追加で指定する必要があります。
- をクリックします。
3.6.2. フェンスデバイスの修正 リンクのコピーリンクがクリップボードにコピーされました!
- 設定ページから、修正したいフェンスデバイスの名前をクリックします。そのデバイス用に設定された値が示されたフェンスデバイスのダイアログボックスが表示されます。
- フェンスデバイスを修正するには、表示されたパラメーターへの変更を入力します。詳細は 付録A フェンスデバイスパラメーター を参照してください。
- をクリックして、設定が更新されるのを待ちます。
3.6.3. フェンスデバイスの削除 リンクのコピーリンクがクリップボードにコピーされました!
注記
- 設定のページから、フェンスデバイスの左にあるボックスにチェックマークを入れて、削除するデバイスを選択します。
- をクリックして設定が更新されるのを待ちます。デバイスが削除中であることを示すメッセージが表示されます。
3.7. クラスターメンバー用のフェンシングの設定 リンクのコピーリンクがクリップボードにコピーされました!
3.7.1. 単一ノードに対する単一フェンスデバイスの設定 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックすることで、クラスター内のノード群のフェンシングを設定できます。これにより、クラスターを構成するノード群が表示されます。これはまた、luci ページの左側のメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。
- 任意のノード名をクリックします。ノードのリンクをクリックすると、そのノードが設定された方法を示すリンク先のページが表示されます。ノード固有のページは、ノード上で現在稼働しているサービスと、そのノードがメンバーとなっているフェイルオーバードメインを表示します。既存のフェイルオーバードメインを修正するには、その名前をクリックします。フェイルオーバードメインの設定についての詳細は、「フェイルオーバードメインの設定」 をご覧ください。
- ノード固有のページで、 の下にある をクリックします。これにより、 ダイアログボックスが表示されます。
- このノード用に設定しているフェンシングメソッドの を入力します。 これは Red Hat High Availability アドオンで使用される任意の名前です。これはデバイスの DNS 名と同じではありません。
- をクリックします。そうすると の下に先ほど追加したメソッドを表示するノード固有の画面が表示されます。
- このメソッド用のフェンスインスタンスを設定するには、フェンスメソッドの下に表示される ボタンをクリックします。これにより、「フェンスデバイスの作成」 の説明のとおり、以前に設定したフェンスデバイスを選択できる ドロップダウンメニューが表示されます。
- このメソッド用にフェンスデバイスを選択します。このフェンスデバイスにノード固有のパラメーターを設定する必要がある場合は、設定すべきパラメーターがディスプレイに表示されます。フェンシングパラメーターの詳細については 付録A フェンスデバイスパラメーター を参照してください。
注記
パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) 用には、ノード特定のパラメーター画面で がデフォルト選択されます。これにより、フェンス済みのノードのストレージへのアクセスは、再起動されるまでは再度有効になりません。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node(8) の man ページを参照してください。 - をクリックします。これにより、フェンスメソッドとフェンスインスタンスを表示するノード固有の画面に戻ります。
3.7.2. バックアップフェンスデバイスの設定 リンクのコピーリンクがクリップボードにコピーされました!
- 「単一ノードに対する単一フェンスデバイスの設定」 に記載されている手順に従って、ノードにプライマリフェンシングメソッドを設定します。
- 定義したプライマリメソッドのディスプレイで、 をクリックします。
- このノードに設定するバックアップフェンシングメソッドの名前を入力して、 をクリックします。これにより、先ほどプライマリフェンスメソッドの下に追加したメソッドを示すノード固有の画面が表示されます。
- をクリックしてこのメソッドにフェンスインスタンスを設定します。これにより、「フェンスデバイスの作成」 の説明のとおり、以前に設定したフェンスデバイスを選択できるドロップダウンメニューが表示されます。
- このメソッド用にフェンスデバイスを選択します。このフェンスデバイスにノード固有のパラメーターを設定する必要がある場合は、設定すべきパラメーターがディスプレイに表示されます。フェンシングパラメーターの詳細については 付録A フェンスデバイスパラメーター を参照してください。
- をクリックします。これにより、フェンスメソッドとフェンスインスタンスを表示するノード固有の画面に戻ります。
3.7.3. 冗長電源装置を持つノードの設定 リンクのコピーリンクがクリップボードにコピーされました!
- 冗長電源を持つノードにフェンシングを設定するには、まず各電源スイッチをクラスター用のフェンスデバイスとして設定する必要があります。フェンスデバイスの設定に関する詳細は、「フェンスデバイスの設定」 を参照してください。
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックします。これにより、クラスターを構成するノード群が表示されます。これはまた、luci ページの左側のメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。
- 任意のノード名をクリックします。ノードのリンクをクリックすると、そのノードが設定された方法を示すリンク先のページが表示されます。
- ノード固有のページで、 をクリックします。
- このノードに設定するフェンシングメソッドの名前を入力します。
- をクリックします。そうすると の下に先ほど追加したメソッドを表示するノード固有の画面が表示されます。
- をクリックすることで、このメソッド用のフェンスインスタンスとして 1 つ目の電源装置を設定します。これにより、「フェンスデバイスの作成」 の説明のとおり、以前に設定したパワーフェンシングデバイスを選択できるドロップダウンメニューが表示されます。
- このメソッドにパワーフェンスデバイスの 1 つを選択して、このデバイス用に適切なパラメーターを入力します。
- をクリックします。これにより、フェンスメソッドとフェンスインスタンスを表示するノード固有の画面に戻ります。
- 1 つ目のパワーフェンシングデバイスを設定した同じフェンスメソッドの下で、 をクリックします。これにより、「フェンスデバイスの作成」 の説明のとおり、以前に設定した 2 つ目のパワーフェンシングデバイスを選択できるドロップダウンメニューが表示されます。
- このメソッドに 2 つ目のパワーフェンスデバイスを選択して、このデバイス用に適切なパラメーターを入力します。
- をクリックします。これで、フェンスメソッドとフェンスインスタンスを表示するノード固有の画面に戻り、各デバイスがシステム電源を連続でオフ/オンにすることを表示します。これは 図3.6「二重パワーフェンシング設定」 で示しています。
図3.6 二重パワーフェンシング設定
3.8. フェイルオーバードメインの設定 リンクのコピーリンクがクリップボードにコピーされました!
- Unrestricted(制限なし) — 優先するメンバーのサブセットを指定できるようにしますが、このドメインに割り当てられたクラスターサービスはいずれの利用可能なメンバーでも実行できます。
- Restricted(制限あり) — 特定のクラスターサービスを実行できるメンバーを制限できるようにします。制限されたフェイルオーバードメインのメンバーがどれも使用できない場合は、クラスターサービスを (手動あるいはクラスターソフトウェアによっても) 開始できません。
- Unordered(優先順なし) — クラスターサービスが優先順なしのフェイルオーバードメインへ割り当てられる場合、クラスターサービスを実行するメンバーは、優先順なしの利用可能なフェイルオーバードメインメンバーから選択されます。
- Ordered(優先順あり) — フェイルオーバードメインのメンバー間で優先順を指定できるようにします。一覧のトップにあるメンバーが最優先となり、次に一覧の 2 番目のメンバー、その後も順に続きます。
- Failback(フェイルバック) — フェイルオーバードメイン内のサービスが、ノード障害の前に元々実行していたノードへフェイルバックするかどうかを指定できるようにします。この特性の設定が役立つのは、ノードが繰り返し失敗し、それが優先順ありのフェイルオーバードメインの一部であるような状況です。この状況では、ノードがフェイルオーバードメイン内の優先ノードである場合には、優先ノードと別のノード間でサービスがフェイルオーバーとフェイルバックを繰り返す可能性があるため、パフォーマンスに重大な影響を与えることになります。
注記
優先順のあるフェイルオーバーが設定されている場合にのみ、フェイルバックの特性が利用できます。
注記
注記
httpd など) を実行するためのクラスターを設定する作業を最小限にできます。このためには、クラスターサービスを実行する全てのメンバー上で、設定を同一にする必要があります。クラスターサービスを実行するようクラスター全体を設定する代わりに、クラスターサービスに関連付ける制限ありのフェイルオーバードメイン内のメンバーのみを設定するだけで済みます。
注記
3.8.1. フェイルオーバードメインの追加 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックすることで、クラスター用のフェイルオーバードメインを設定できます。これにより、このクラスター用に設定したフェイルオーバードメインが表示されます。
- をクリックします。 をクリックすると 図3.7「luci フェイルオーバードメイン設定のダイアログボックス」 で示してあるように、Add Failover Domain to Cluster(フェイルオーバードメインをクラスターに追加)ダイアログボックスが表示されます。
図3.7 luci フェイルオーバードメイン設定のダイアログボックス
- Add Failover Domain to Cluster ダイアログボックスで、 テキストボックスでフェイルオーバードメイン名を指定します。
注記
名前は、クラスター内で使用されている他の名前に対して、その目的を区別できるような説明的な名前にすることをお勧めします。 - フェイルオーバードメイン内のメンバーのフェイルオーバー優先度のセッティングを有効にするには、 チェックボックスをクリックします。 にチェックマークを入れると、その優先度の値 をフェイルオーバードメインのメンバーとして選択した各ノードに設定できます。
- このフェイルオーバードメイン内のメンバーにフェイルオーバーを限定するには、 チェックボックスをクリックします。 にチェックマークを入れると、このフェイルオーバードメインに割り当てられたサービスはこのフェイルオーバードメイン内のノードのみにフェイルオーバーします。
- ノードがこのフェイルオーバードメイン内にフェイルバックしないように指定するには、 チェックボックスをクリックします。 にチェックマークを入れた場合に、サービスが優先ノードからフェイルオーバーすると、サービスは回復後にそのオリジナルノードにフェイルバックしません。
- このフェイルオーバードメインのメンバーを設定します。フェイルオーバードメインのメンバーになる予定の各ノードの チェックボックスをクリックします。 にチェックマークが入っている場合は、フェイルオーバードメインの各メンバー用の テキストボックス内で優先度を設定します。
- をクリックします。これにより、新規に作成したフェイルオーバードメインを表示する Failover Domains ページが表示されます。新規のドメインが作成されたことを示すメッセージが表示されます。ページをリフレッシュしてステータスを更新してください。
3.8.2. フェイルオーバードメインの修正 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックすることで、クラスター用のフェイルオーバードメインを設定できます。これにより、このクラスター用に設定されたフェイルオーバードメインが表示されます。
- フェイルオーバードメイン名をクリックします。フェイルオーバードメインの設定ページが表示されます。
- フェイルオーバードメインの 、、又は のプロパティを修正するには、プロパティ横のチェックボックスにチェックマークを入れるか外してから、 をクリックします。
- フェイルオーバードメインのメンバーシップを修正するには、クラスターメンバーの横にあるチェックボックスにチェックマークを入れるか外します。フェイルオーバードメインの優先度が設定されている場合は、クラスターメンバーの優先度設定も修正できます。 をクリックします。
3.8.3. フェイルオーバードメインの削除 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックすることで、クラスター用のフェイルオーバードメインを設定できます。これにより、このクラスター用に設定されたフェイルオーバードメインが表示されます。
- 削除するフェイルオーバードメインにチェックマークを入れます。
- をクリックします。
3.9. グローバルクラスターリソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックすることで、クラスターにリソースを追加できます。これにより、そのクラスター用に設定されたリソースが表示されます。
- をクリックします。 ドロップダウンメニューが表示されます。
- の下にあるドロップダウンボックスをクリックして、設定するリソースタイプを選択します。
- 追加するリソース用のリソースパラメーターを入力します。付録B HA リソースパラメーター はリソースパラメーターについて説明しています。
- をクリックします。 をクリックすると、Resources を表示するリソースページに戻ります。ここでは、追加されたリソース (及び他のリソース) が表示されます。
- luci の ページから、修正するリソースの名前をクリックします。これで、リソースのパラメーターが表示されます。
- リソースパラメーターを編集します。
- をクリックします。
- luci の ページから、削除するリソースのチェックボックスをクリックします。
- をクリックします。
3.10. クラスターへのクラスターサービスの追加 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックすることで、クラスターへサービスを追加できます。これにより、そのクラスター用に設定されているサービスが表示されます (「高可用性サービスの管理」 で説明してあるように、 ページからサービスの起動/再起動/無効を行うことも可能です)。
- をクリックします。 ダイアログボックスが表示されます。
- Add Service Group to Cluster ダイアログボックスにある、 テキストボックスにサービスの名前を入力します。
注記
名前は、クラスター内の他のサービスと明白に区別できる名前を使用してください。 - クラスターが開始して稼働する時に、サービスが自動起動するようにしたい場合は、 チェックボックスにチェックマークを入れます。このチェックボックスにチェックマークが入って いない 場合は、クラスターが停止状態から復帰する時に手動でサービスを起動する必要があります。
- チェックボックスにチェックマークを入れて、他のサービスが実行していないノード上でのみサービスが実行できるようにポリシーを設定します。
- クラスターにフェイルオーバードメインを設定した場合、 パラメーターのドロップダウンメニューを使用してこのサービス用にフェイルオーバードメインを選択できます。フェイルオーバードメインの設定についての詳細は、「フェイルオーバードメインの設定」 を参照してください。
- ドロップダウンボックスを使用して、サービスの回復ポリシーを選択します。オプションとしては、サービスの 、、、 があります。オプションを選択すると、システムはサービスを再配置する前に、失敗したサービスの再起動を試行することを意味します。 オプションを選択した場合、システムは別のノードでサービスの再起動を試行することを意味します。 オプションを選択すると、システムはコンポーネントに障害があった場合にリソースグループを無効にすることを意味します。 オプションを選択した場合は、システムはサービスに障害があった場合にサービスの再起動を試行することを意味します。ただし、サービスの再起動が失敗した場合、サービスはクラスター内の別のホストに移動する代わりに無効になります。サービスの回復ポリシーとして 又は を選択した場合、サービスの再配置/無効化までの再起動が失敗する最大回数と、再起動を破棄するまでの時間を秒単位で指定することができます。
- サービスにリソースを追加するには、 をクリックします。 をクリックすると、 ドロップダウンボックスが表示され、既存のグローバルリソースの追加、又はこのサービス のみ に利用可能な新規リソースの追加を行うことができます。
注記
フローティング IP アドレスリソースを含むクラスターサービスの設定時には、IP リソースを最初のエントリーとして設定する必要があります。- 既存のグローバルリソースを追加するには、 ドロップダウンボックスから既存のリソース名をクリックします。設定するサービス用の ページ上にリソースとそのパラメーターが表示されます。グローバルリソースの追加/修正についての詳細は 「グローバルクラスターリソースの設定」 をご覧ください。
- このサービスにのみ利用可能な新規リソースを追加するには、 ドロップダウンボックスから設定するリソースのタイプを選択して、追加するリソースのリソースパラメーターを入力します。付録B HA リソースパラメーター は、リソースパラメーターについて説明しています。
- リソースをサービスに追加する場合、それが既存のグローバルリソース又はこのサービスのみに利用可能なリソースであるかに関わらず、リソースを 又は と指定できます。リソースを独立したサブツリーと指定した場合、リソースに障害が発生すると、システムが通常の回復を試行する前に (サービス全体ではなく) そのリソースのみが再起動します。そのサービス用に回復ポリシーを実装するまでに、ノード上のそのリソースに対して試行する再起動の最大回数を指定できます。また、システムがそのサービスに回復ポリシーを実装するまでの時間を秒単位で指定することもできます。リソースを非クリティカルなリソースと指定した場合、リソースに障害が発生すると、そのリソースのみが再起動します。リソースが失敗を繰り返す場合は、サービス全体ではなくそのリソースのみが無効になります。リソースを無効にするまでに、ノード上のそのリソースに対して試行する再起動の最大回数を指定できます。また、システムがそのリソースを無効にするまでの時間を秒単位で指定することもできます。
- 定義するリソースに子リソースを追加したい場合は、 をクリックします。 をクリックすると、 ドロップダウンボックスが表示され、既存のグローバルリソースの追加、又はこのサービスのみに利用可能な新規リソースの追加を行うことができます。使用している要件に合うように、リソースへ子リソースを追加し続けることも可能です。
注記
Samba サービスのリソースを追加する場合は、別のリソースの子としてではなく、そのサービスに直接追加します。注記
フローティング IP アドレスリソースを含むクラスターサービスの依存関係ツリー設定時には、IP リソースを別のリソースの子としてではなく、最初のエントリーとして設定する必要があります。 - リソース群のサービスへの追加、子リソースのリソース群への追加が完了したら、 をクリックします。 をクリックすると、追加済みのサービス(及び他のサービス群)を表示する ページに戻ります。
注記
ifconfig コマンドではなく) /sbin/ip addr show コマンドを使用します。以下は、クラスターサービスを実行しているノードで /sbin/ip addr show コマンドを実行した場合の出力です。
- ダイアログボックスから、修正するサービスの名前をクリックします。これにより、そのサービス用に設定されているパラメーターとリソースが表示されます。
- サービスパラメーターを編集します。
- をクリックします。
- luci ページから、削除するサービス用のチェックボックスをクリックします。
- をクリックします。
- Red Hat Enterprise Linux 6.3 以降は、luci がサービスを削除する前に、サービスグループの削除を確認するメッセージが表示され、サービスを構成するリソースを停止します。サービスを削除せずにダイアログボックスを閉じるには、 をクリックします。選択したサービスを削除するには、 をクリックしてください。
第4章 Conga を使用した Red Hat High Availability アドオンの管理 リンクのコピーリンクがクリップボードにコピーされました!
4.1. luci インターフェースへの既存クラスターの追加 リンクのコピーリンクがクリップボードにコピーされました!
- luci ページの左側にあるメニューの をクリックします。 画面が表示されます。
- をクリックします。 画面が表示されます。
- 既存クラスター内にあるいずれかのノードのホスト名と ricci パスワードを入力します。クラスター内の各ノードにはクラスターの全ての設定情報が含まれているため、これでクラスターを luci インターフェースに追加するための十分な情報を提供できます。
- をクリックします。 の画面にクラスター名とクラスター内の他のノード名が表示されます。
- クラスター内の各ノード用に個別の ricciパスワードを入力するか、パスワードを 1 つ入力して を選択します。
- をクリックします。ここで、以前に設定したクラスターが 画面に表示されます。
4.2. luci インターフェースからのクラスターの削除 リンクのコピーリンクがクリップボードにコピーされました!
- luci ページの左側にあるメニューの をクリックします。 画面が表示されます。
- 削除するクラスターを選択します。
- をクリックします。luci 管理 GUI からクラスターを削除するか確認されます。
4.3. クラスターノードの管理 リンクのコピーリンクがクリップボードにコピーされました!
4.3.1. クラスターノードの再起動 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。
- 再起動するノード用のチェックボックスをクリックすることでそのノードを選択します。
- ページ上部にあるメニューから 機能を選択します。これにより選択したノードが再起動して、そのノードが再起動中であることを示すメッセージがページ上部に表示されます。
- ページをリフレッシュして、ノードが更新されていることを確認します。
4.3.2. ノードのクラスターに対する離脱/参加 リンクのコピーリンクがクリップボードにコピーされました!
Not a cluster member(クラスターメンバーではない) として引き続き表示されます。クラスター設定からノードを完全に削除するための情報は 「クラスターからのメンバーの削除」 をご覧ください。
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。
- クラスターから離脱させるノードを選択するには、そのチェックボックスをクリックします。
- ページ上部のメニューから 機能を選択します。これでページ上部にメッセージが表示され、ノードが停止中であることを示します。
- ページをリフレッシュして、ノードが更新されていることを確認します。
4.3.3. 稼働しているクラスターへのメンバーの追加 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。
- をクリックします。 をクリックすると、Add Nodes To Cluster(クラスターにノードを追加) のダイアログボックスが表示されます。
- テキストボックスにノード名を入力します。 テキストボックスに ricci パスワードを入力します。 ricci エージェント用にデフォルトの 11111 以外の異なるポートを使用している場合は、このパラメーターを使用しているポートに変更します。
- クラスター化ストレージをサポートしてクラスター化 LVM を有効にするパッケージをダウンロードするためにクラスター化ストレージが必要な場合は、 のチェックボックスにチェックマークを入れます。これは、Resilient Storage アドオン又は Scalable File System アドオンにアクセスできる場合にのみ選択してください。
- さらにノードを追加するには、 をクリックして、追加ノード毎に名前とパスワードを入力します。
- をクリックします。 をクリックすると、以下の動作が行われます:
- を選択した場合は、クラスターソフトウェアパッケージが追加ノード上にダウンロードされます。
- クラスターソフトウェアがノードにインストールされます (又は、適切なソフトウェアパッケージがインストールされたことが確認されます)。
- クラスター設定ファイルが更新され、クラスター内の各ノードに伝播します — 追加ノードも伝播します。
- 追加されたノードがクラスターに参加します。
ノードがクラスターに追加されていることを示すメッセージとともに ページが表示されます。ページをリフレッシュして、ステータスを更新します。 - ノード追加のプロセスが完了したら、「フェンスデバイスの設定」 に示してあるように新規追加ノードのノード名をクリックしてこのノード用にフェンシングを設定します。
4.3.4. クラスターからのメンバーの削除 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター固有のページから、クラスターディスプレイの上部にある をクリックします。これにより、クラスターを構成するノード群が表示されます。これは、luci ページの左側にあるメニューから の下にあるクラスター名をクリックした時に表示されるデフォルトのページでもあります。
注記
ノードの削除時にノード上で実行中のサービスをフェイルオーバーさせるには、次の手順を省略してください。 - 削除されるノード上で実行中の各サービスを無効/再配置します。サービスの無効と再配置の詳細については 「高可用性サービスの管理」 を参照してください。
- 削除するノード、又はノード群を選択します。
- をクリックします。Nodes ページはノードが削除されていることを示します。ページをリフレッシュして、現在のステータスを確認します。
重要
4.4. クラスターの起動、停止、再起動、削除 リンクのコピーリンクがクリップボードにコピーされました!
Not a cluster member のステータスで引き続きクラスターノードのディスプレイに表示されます。
- 各ノードの横にあるチェックボックスをクリックすることで、クラスター内の全てのノードを選択します。
- ページ上部のメニューから 機能を選択します。これにより、メッセージがページ上部に表示され各ノードが停止されることを示します。
- ページをリフレッシュして、ノード群が更新されていることを確認します。
- 各ノードの横にあるチェックボックスをクリックすることで、クラスター内の全てのノードを選択します。
- ページ上部のメニューから 機能を選択します。
- ページをリフレッシュして、ノード群が更新されていることを確認します。
重要
- 各ノードの横にあるチェックボックスをクリックすることで、クラスター内の全てのノードを選択します。
- ページ上部のメニューから 機能を選択します。
4.5. 高可用性サービスの管理 リンクのコピーリンクがクリップボードにコピーされました!
- サービスの起動
- サービスの再起動
- サービスの無効化
- サービスの削除
- サービスの再配置
- — 現在稼働していないいずれかのサービスを起動するには、起動したいサービスのチェックボックスをクリックしてそのサービスを選択し、 をクリックします。
- — 現在稼働中のいずれかのサービスを再起動するには、再起動したいサービスのチェックボックスをクリックしてそのサービスを選択し、 をクリックします。
- — 現在稼働中のいずれかのサービスを無効にするには、無効にしたいサービスのチェックボックスをクリックしてそのサービスを選択し、 をクリックします。
- — 現在稼働していないいずれかのサービスを削除するには、削除したいサービスのチェックボックスをクリックしてそのサービスを選択し、 をクリックします。
- — 稼働中のサービスを再配置するには、サービス群ディスプレイ内でそのサービス名をクリックします。これにより、そのサービスのサービス設定ページが表示され、サービスが現在実行しているノードを示すディスプレイが表示されます。Start on node...(指定ノードで開始) ドロップダウンボックスから、サービスを再配置したいノードを選択して、 アイコンをクリックします。画面上部にメッセージが表示され、サービスが起動していることを示します。選択したノード上でサービスが稼働していることを示す画面を確認するには、画面をリフレッシュする必要がある場合があります。
注記
選択した実行中のサービスがvmサービスの場合、ドロップダウンボックスはrelocateオプションの代わりにmigrateオプションを表示します。
注記
4.6. luci 設定のバックアップと復元 リンクのコピーリンクがクリップボードにコピーされました!
/var/lib/luci/data/luci.db ファイルに格納されている luci データベースのバックアップをとることができます。これは cluster.conf ファイルに格納されているクラスター設定自体ではありません。代わりに、luci が管理するユーザー、クラスター、関連プロパティの一覧が含まれています。デフォルトでは、この手順で作成するバックアップは luci.db ファイルと同じディレクトリに書き込まれます。
service luci stopを実行します。service luci backup-dbを実行します。オプションとして、backup-dbコマンドにパラメーターとしてファイル名を指定することができます。これにより、そのファイルに luci データベースが書き込まれます。例えば、luci データベースを/root/luci.db.backupファイルに書き込むには、service luci backup-db /root/luci.db.backupコマンドを実行します。ただし、/var/lib/luci/data/以外の場所に書き込まれるバックアップファイル (service luci backup-dbの使用時に指定するファイル名を持つバックアップ) は、list-backupsコマンドの出力には表示されない点に注意してください。service luci startを実行します。
service luci stopを実行します。service luci list-backupsを実行します。復元するファイル名に注意してください。service luci restore-db /var/lib/luci/data/lucibackupfileを実行します。ここでは、lucibackupfile が復元するバックアップファイルです。例えば、次のコマンドはluci-backup20110923062526.dbバックアップファイルに格納された luci 設定情報を復元します:service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db
service luci restore-db /var/lib/luci/data/luci-backup20110923062526.dbCopy to Clipboard Copied! Toggle word wrap Toggle overflow service luci startを実行します。
host.pem ファイルを失ったような場合は、クラスターノードを再認証するために手動でクラスターを luci に追加しなおす必要があります。
luci1 マシンで行われ、バックアップの復元は luci2 マシンで行われます。
- 以下の一連のコマンドを実行して、
luci1で luci バックアップを作成します。また、SSL 証明書ファイルと luci バックアップをluci2にコピーします。service luci stop service luci backup-db service luci list-backups /var/lib/luci/data/luci-backup20120504134051.db scp /var/lib/luci/certs/host.pem /var/lib/luci/data/luci-backup20120504134051.db root@luci2:
[root@luci1 ~]# service luci stop [root@luci1 ~]# service luci backup-db [root@luci1 ~]# service luci list-backups /var/lib/luci/data/luci-backup20120504134051.db [root@luci1 ~]# scp /var/lib/luci/certs/host.pem /var/lib/luci/data/luci-backup20120504134051.db root@luci2:Copy to Clipboard Copied! Toggle word wrap Toggle overflow luci2マシンで、luci がインストールされ実行中でないことを確認してください。インストールされていない場合はインストールしてください。- 以下の一連のコマンドを実行して、認証が適切であることを確認し、
luci1からluci2への luci データベースの復元を行います。cp host.pem /var/lib/luci/certs/ chown luci: /var/lib/luci/certs/host.pem /etc/init.d/luci restore-db ~/luci-backup20120504134051.db shred -u ~/host.pem ~/luci-backup20120504134051.db service luci start
[root@luci2 ~]# cp host.pem /var/lib/luci/certs/ [root@luci2 ~]# chown luci: /var/lib/luci/certs/host.pem [root@luci2 ~]# /etc/init.d/luci restore-db ~/luci-backup20120504134051.db [root@luci2 ~]# shred -u ~/host.pem ~/luci-backup20120504134051.db [root@luci2 ~]# service luci startCopy to Clipboard Copied! Toggle word wrap Toggle overflow
第5章 ccs コマンドを使用した Red Hat High Availability アドオンの設定 リンクのコピーリンクがクリップボードにコピーされました!
ccs クラスター設定コマンドのサポートを提供しています。ccs コマンドにより、管理者は cluster.conf クラスター設定ファイルの作成/修正/表示が可能です。ccs コマンドを使用して、クラスター設定ファイルをローカルファイルシステム又はリモートノード上で設定できます。さらには、ccs コマンドにより、管理者は設定済のクラスター内にある 1 つ又はすべてのノードでクラスターサービスの起動と停止を行うこともできます。
ccs コマンドを使用した Red Hat High Availability アドオンクラスター設定ファイルの設定方法について説明しています。実行中のクラスターを管理するための ccs コマンドの使用に関しては 6章Red Hat High Availability アドオンを使用した ccs の管理 をご覧ください。
注記
注記
cluster.conf の要素と属性を参照します。cluster.conf の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html) にある注釈付きスキーマを参照してください。
5.1. 操作の概要 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドの使用に関する一般的な操作について説明します。
5.1.1. ローカルシステム上でのクラスター設定ファイルの作成 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用すると、クラスターノードでクラスター設定ファイルを作成できます。あるいは、ローカルファイルシステムでクラスター設定ファイルを作成して、それをクラスター内のホストに送信することも可能です。これによりローカルマシンのファイルでの作業が可能になるため、バージョン管理下で維持管理ができます。別の方法として、ニーズに合わせてファイルをタグ付けすることも可能です。ccs コマンドを使用するには、root 権限は必要ありません。
ccs コマンドを使用してクラスターノード上でクラスター設定ファイルを作成/編集する場合、-h オプションを使用して、ホスト名を指定します。これは、ホストの cluster.conf ファイルを作成/編集することになります:
ccs -h host [options]
ccs -h host [options]
ccs コマンドで -f オプションを使用して、クラスターの操作を行う時に設定ファイル名を指定します。ファイル名は任意に指定できます。
ccs -f file [options]
ccs -f file [options]
ccs コマンドで --setconf オプションを使用して、ファイルをクラスターノードに送信することができます。クラスター内のホストマシン上で、送信したファイルは cluster.conf と名前が付けられ、/etc/cluster ディレクトリに配置されます。
ccs -h host -f file --setconf
ccs -h host -f file --setconf
5.1.2. 現在のクラスター設定の表示 リンクのコピーリンクがクリップボードにコピーされました!
ccs -h host --getconf
ccs -h host --getconf
5.1.3. ccs コマンドを使用した ricci パスワードの指定 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドは cluster.conf ファイルのコピーをクラスターのノード群に配布します。このコマンドの実行には、「ricci の注意事項」 で説明してあるように、クラスターノード群に ricci がインストールされ稼働している必要があります。ricci を使用する場合は、いずれかのマシンから ricci とやりとりを行う初回時にパスワードが必要になります。
ccs コマンドが必要な場合にパスワードをプロンプトします。別の方法として、-p オプションを使用して、コマンドラインで ricci パスワードを指定することも可能です。
ccs -h host -p password --sync --activate
ccs -h host -p password --sync --activate
ccs コマンドの --sync オプションを使用して cluster.conf ファイルをクラスター内の全ノードに伝播し、そのコマンドに ricci パスワードを指定する場合、ccs コマンドはクラスター内の各ノードにそのパスワードを使用します。個々のノードで ricci に違うパスワードを設定する必要がある場合は、--setconf に -p オプションを付けて使用することで、設定ファイルを同時に 1 つのノードに配布できます。
5.1.4. クラスター設定コンポーネントの修正 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用して、クラスターコンポーネント及びそれらの属性をクラスター設定ファイル内で設定します。そのファイルにクラスターコンポーネントを追加した後に、そのコンポーネントの属性を修正するには、定義したコンポーネントを削除してから、属性を修正して再度コンポーネントを追加しなければなりません。各コンポーネントでこれを実行する方法の詳細は、本章の個別のセクションで紹介しています。
cman クラスターコンポーネントの属性は、クラスターコンポーネントの変更手順に例外を追加できます。この属性を変更するには、ccs コマンドの --setcman オプションを実行して、新しい属性を指定します。「以前の設定を上書きするコマンド」 に記載されているように、このオプションを指定すると、明示的に指定していない値はすべてデフォルト値にリセットされるので注意してください。
5.1.5. 以前の設定を上書きするコマンド リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドの中には、プロパティを設定すると上書きセマンティクスの実装をするオプションが複数あります。つまり、設定を何も指定せずにオプションの 1 つをつけて ccs コマンドを実行できますが、全設定がデフォルト値にリセットされるということです。これらのオプションは以下のとおりです。
--settotem--setdlm--setrm--setcman--setmulticast--setaltmulticast--setfencedaemon--setlogging--setquorumd
ccs -h hostname --setfencedaemon
# ccs -h hostname --setfencedaemon
post_fail_delay プロパティを 5 に設定することができます。
ccs -h hostname --setfencedaemon post_fail_delay=5
# ccs -h hostname --setfencedaemon post_fail_delay=5
post_join_delay プロパティを 10 にリセットすると、post_fail_delay プロパティはデフォルト値にリセットされます。
ccs -h hostname --setfencedaemon post_join_delay=10
# ccs -h hostname --setfencedaemon post_join_delay=10
post_fail_delay と post_join_delay の両方のプロパティをリセットするには、以下の例のように、同じコマンド内で両方を指定します。
ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10
# ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10
5.1.6. 設定の妥当性検証 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用して、クラスター設定ファイルの作成/編集を行う場合、設定はクラスタースキーマに従って自動的に検証されます。Red Hat Enterprise Linux 6.3 リリース以降、ccs コマンドは -h オプションで指定するノードの /usr/share/cluster/cluster.rng にあるクラスタースキーマに従って設定を検証します。これまでは、ccs コマンドは ccs コマンドでパッケージ化されたローカルシステムのクラスタースキーマである /usr/share/ccs/cluster.rng を常に使用していました。-f オプションを使用してローカルシステムを指定する場合は、ccs コマンドはそのシステムで ccs コマンドでパッケージ化されたクラスタースキーマの /usr/share/ccs/cluster.rng を引き続き使用します。
5.2. 設定のタスク リンクのコピーリンクがクリップボードにコピーされました!
ccs を使用して Red Hat High Availability アドオンソフトウェアを設定するには、以下のステップを実行します。
- クラスター内の全てのノード上で ricci が稼働していることを確認。「ricci の起動」 を参照してください。
- クラスターを作成。「クラスターの作成」 を参照してください。
- フェンスデバイスを設定。「フェンスデバイスの設定」 を参照してください。
- クラスターメンバー用にフェンシングを設定。「クラスターメンバー用のフェンシングの設定」 を参照してください。
- フェイルオーバードメインを作成。「フェイルオーバードメインの設定」 を参照してください。
- リソースを作成。「グローバルクラスターリソースの設定」 を参照してください。
- クラスターサービスを作成。「クラスターへのクラスターサービスの追加」 を参照してください。
- 必要に応じて quorum disk を設定。「Quorum disk の設定」 を参照してください。
- グローバルクラスタープロパティを設定。「その他のクラスター設定」 を参照してください。
- クラスター設定ファイルを全てのクラスターノードに伝播。「クラスタノード群への設定ファイルの伝播」 を参照してください。
5.3. ricci の起動 リンクのコピーリンクがクリップボードにコピーされました!
- 使用しているクラスターノードの IP ポートは、ricci に対して有効である必要があります。クラスターノードの IP ポートを有効にする方法については 「クラスターノードでの IP ポートの有効化」 をご覧ください。
service ricci start Starting ricci: [ OK ]
# service ricci start
Starting ricci: [ OK ]
5.4. クラスターの作成 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用した、フェンシング、フェイルオーバードメイン、HA サービスのないスケルトンクラスター設定の作成/修正/削除の方法を説明しています。後続のセクションでは、これらの設定方法を説明します。
- クラスターの 1 つのノード上でクラスター設定ファイルを作成するには、
ccsコマンドを使用します。これに、-hパラメーターを付けるとファイルを作成するノードを指定でき、createclusterオプションを付けるとクラスターの名前を指定できます:ccs -h host --createcluster clustername
ccs -h host --createcluster clusternameCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、以下のコマンドではmyclusterと呼ばれる設定ファイルをnode-01.example.comに作成します:ccs -h node-01.example.com --createcluster mycluster
ccs -h node-01.example.com --createcluster myclusterCopy to Clipboard Copied! Toggle word wrap Toggle overflow クラスター名は 15 文字以内にしてください。指定するホスト上に既にcluster.confファイルが存在する場合は、次のコマンドを実行してその既存ファイルを入れ替えます。お使いのローカルシステムにクラスター設定ファイルを作成したい場合、-hオプションではなく-fオプションを指定してください。ファイルのローカル作成に関する情報は、「ローカルシステム上でのクラスター設定ファイルの作成」 を参照してください。 - クラスターに含まれるノードを設定するには、クラスター内の各ノードに対して以下のコマンドを実行します。ノード名の長さは、最大 255 バイトまでになります。
ccs -h host --addnode node
ccs -h host --addnode nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、以下の 3 つのコマンドはnode-01.example.com、node-02.example.com、及びnode-03.example.comのノードをnode-01.example.com上にある設定ファイルに追加します:ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.com
ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow クラスター用に設定されているノード群の一覧を表示するには、以下のコマンドを実行します:ccs -h host --lsnodes
ccs -h host --lsnodesCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例5.1「3 つのノードを追加した後のcluster.confファイル」 は、クラスターmyclusterを作成した後のnode-01.example.com、node-02.example.com、及びnode-03.example.comのノードを含むcluster.conf設定ファイルを示しています。例5.1 3 つのノードを追加した後の
cluster.confファイルCopy to Clipboard Copied! Toggle word wrap Toggle overflow ノードをクラスターに追加する時に、定足数があるかどうか判定するのにノードが貢献する投票数を指定できます。クラスターノードの投票数をセットするには以下のコマンドを使用します:ccs -h host --addnode host --votes votes
ccs -h host --addnode host --votes votesCopy to Clipboard Copied! Toggle word wrap Toggle overflow ノードの追加時に、ccsはノード識別子として使用される一意の整数をノードに割り当てます。ノードの作成時に手動でノード識別子を指定する場合は、以下のコマンドを使用します:ccs -h host --addnode host --nodeid nodeid
ccs -h host --addnode host --nodeid nodeidCopy to Clipboard Copied! Toggle word wrap Toggle overflow クラスターからノードを削除するには、次のコマンドを使用します:ccs -h host --rmnode node
ccs -h host --rmnode nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow
5.5. フェンスデバイスの設定 リンクのコピーリンクがクリップボードにコピーされました!
post_fail_delay属性は、ノードに障害が起こった後にノード (フェンスドメインのメンバー) をフェンスするまでフェンスデーモン (fenced) が待機する秒数です。post_fail_delayのデフォルト値は0です。この値はクラスター及びネットワークパフォーマンスに合わせて変更できます。post-join_delay属性は、ノードが fence ドメインを結合してからノードをフェンシングするまでの fence daemon (fenced) の待機時間 (秒数) です。post_join_delayのデフォルト値は、6で、 の一般的な設定は 20 秒から 30 秒の間となっていますが、クラスターやネットワークのパフォーマンスにより左右されます。
post_fail_delayおよび post_join_delay 属性の値を ccs コマンドの--setfencedaemon オプションでリセットします。ただし、ccs --setfencedaemon コマンドを実行すると、明示的に設定された既存のフェンスデーモンプロパティをすべて上書きして、デフォルト値にリストアする点に注意してください。
post_fail_delay 属性の値を設定するには、以下のコマンドを実行します。すると、この属性値以外で、このコマンドで設定した既存のフェンスデーモンプロパティが、デフォルト値にリストアします。
ccs -h host --setfencedaemon post_fail_delay=value
ccs -h host --setfencedaemon post_fail_delay=value
post_join_delay 属性の値を設定するには、以下のコマンドを実行します。すると、この属性値以外で、このコマンドで設定した既存のフェンスデーモンプロパティが、デフォルト値にリストアします。
ccs -h host --setfencedaemon post_join_delay=value
ccs -h host --setfencedaemon post_join_delay=value
post_join_delay 属性と post_fail_delay 属性両方の値を設定するには、以下のコマンドを実行します。
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value
注記
post_join_delay 属性と post_fail_delay 属性に関する詳細、及び変更可能な追加のフェンスデーモンプロパティの詳細については、fenced(8) の man ページ、/usr/share/cluster/cluster.rng にあるクラスタースキーマ、/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html の注釈付きスキーマを参照してください。
ccs -h host --addfencedev devicename [fencedeviceoptions]
ccs -h host --addfencedev devicename [fencedeviceoptions]
node1 の設定ファイルに、IP アドレスが apc_ip_example、ログイン名が login_example、パスワードが password_example である my_apc と呼ばれる APC フェンスデバイスを設定するには、次のコマンドを実行します。
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example login=login_example passwd=password_example
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example login=login_example passwd=password_example
cluster.conf 設定ファイルの fencedevices セクションを示しています。
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/>
</fencedevices>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/>
</fencedevices>
ccs コマンドの使用方法については、「フェンスデバイスとフェンスデバイスオプションの一覧表示」 を参照してください。
ccs -h host --rmfencedev fence_device_name
ccs -h host --rmfencedev fence_device_name
myfence と呼ばれるフェンスデバイスをクラスターノード node1 上にあるクラスター設定ファイルから削除するには、以下のコマンドを実行します:
ccs -h node1 --rmfencedev myfence
ccs -h node1 --rmfencedev myfence
5.6. フェンスデバイスとフェンスデバイスオプションの一覧表示 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用すると、利用可能なフェンスデバイスの一覧及び各フェンスタイプのオプション一覧を表示することができます。また、ccs コマンドでは、使用しているクラスターに現在設定されているフェンスデバイスの一覧も表示できます。
ccs -h host --lsfenceopts
ccs -h host --lsfenceopts
node1 で利用可能なフェンスデバイスを一覧表示します。サンプルの出力を表示します。
ccs -h host --lsfenceopts fence_type
ccs -h host --lsfenceopts fence_type
fence_wti フェンスエージェントのフェンスオプションを一覧表示します。
ccs -h host --lsfencedev
ccs -h host --lsfencedev
5.7. クラスターメンバー用のフェンシングの設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
5.7.1. 単一パワーベースのフェンスデバイスによるノードの設定 リンクのコピーリンクがクリップボードにコピーされました!
fence_apc フェンシングエージェントを使用する my_apc と呼ばれるフェンスデバイスを使います。この例では、「フェンスデバイスの設定」 にあるように、これまで my_apc という名前のデバイスが --addfencedev オプションで設定されていました。
- ノード用のフェンスメソッドを追加して、そのフェンスメソッドの名前を入力します。
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.comにある設定ファイル内でノードnode-01.example.com用にAPCと呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod APC node01.example.com
ccs -h node01.example.com --addmethod APC node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - メソッド用のフェンスインスタンスを追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先であるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow たとえば、クラスターノードnode-01.example.com上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APCと呼ばれるメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、my_apcと呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1
ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1Copy to Clipboard Copied! Toggle word wrap Toggle overflow
APC と呼ばれるメソッドで各ノードにフェンスメソッドが設定されます。フェンスメソッド用のデバイスは my_apc をデバイス名として指定しますが、これは 「フェンスデバイスの設定」 で説明してあるように、以前に --addfencedev オプションで設定したデバイスです。各ノードは、一意の APC スイッチパワーポート番号で設定されます。node-01.example.com のポート番号は 1 で、node-02.example.com のポート番号は 2、node-03.example.com のポート番号は 3 となります。
cluster.conf」 は、クラスター内の各ノードにこれらのフェンシングメソッドとインスタンスを追加した後の cluster.conf 設定ファイルを示しています。
例5.2 パワーベースのフェンスメソッドを追加した後の cluster.conf
5.7.2. 単一のストレージベースのフェンスデバイスによるノードの設定 リンクのコピーリンクがクリップボードにコピーされました!
on または enable の明示的なアクションが意図的に追加されたノードに対して設定を行った該当するフェンスデバイスをミラーするデバイスを指定します。
fence_node(8) の man ページを参照してください。
sanswitch1 と呼ばれるフェンスデバイスを使用する単一のストレージベースのフェンスデバイスでノードを設定します。このフェンスデバイスは fence_sanbox2 フェンシングエージェントを使用します。
- ノード用のフェンスメソッドを追加して、そのフェンスメソッドの名前を入力します。
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.comにある設定ファイル内でノードnode-01.example.com用にSANと呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod SAN node01.example.com
ccs -h node01.example.com --addmethod SAN node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - メソッド用のフェンスインスタンスを追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先であるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.com上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、SANと呼ばれるメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、sanswitch1と呼ばれるフェンスデバイス上の SAN スイッチパワーポート 11 を使用するとします:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11Copy to Clipboard Copied! Toggle word wrap Toggle overflow - このノード上でストレージベースのフェンスデバイスにアンフェンシングを設定するには、以下のコマンドを実行します。
ccs -h host --addunfence fencedevicename node action=on|off
ccs -h host --addunfence fencedevicename node action=on|offCopy to Clipboard Copied! Toggle word wrap Toggle overflow
SAN と呼ばれるフェンスメソッドを各ノードに設定します。フェンスメソッド用のデバイスは sanswitch をデバイス名として指定しますが、これは 「フェンスデバイスの設定」 で説明してあるように、以前に --addfencedev オプションで設定したデバイスです。各ノードは一意の SAN 物理ポート番号で設定されます。node-01.example.com 用のポート番号は 11 で、node-02.example.com のポート番号は 12、node-03.example.com のポート番号は 13 となります。
cluster.conf」 は、フェンシングメソッド、フェンシングインスタンス、及びアンフェンシングをクラスター内の各ノードに追加した後の cluster.conf 設定ファイルを示しています。
例5.3 ストレージベースのフェンスメソッドを追加した後の cluster.conf
5.7.3. バックアップフェンスデバイスの設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
ccs コマンドで設定する最初のメソッドがプライマリのフェンシングメソッドとなり、2 番目に設定するメソッドがバックアップのフェンシングメソッドとなります。この順序を変更するには、設定ファイルからプライマリのフェンシングメソッドを削除後、そのメソッドを再度追加しなおします。
ccs -h host --lsfenceinst [node]
ccs -h host --lsfenceinst [node]
my_apc、フェンスエージェントは fence_apc です。また、 バックアップ用のフェンスデバイスは sanswitch1、フェンスエージェントは fence_sanbox2 を使用します。sanswitch1 デバイスはストレージベースのフェンスエージェントのため、このデバイスにアンフェンシングを設定する必要もあります。
- ノード用にプライマリのフェンスメソッドを追加して、そのフェンスメソッドに名前を付けます。
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.comにある設定ファイル内でノードnode-01.example.com用のプライマリメソッドとしてAPCと呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod APC node01.example.com
ccs -h node01.example.com --addmethod APC node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - プライマリメソッド用にフェンスインスタンスを追加します。ノード用に使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow たとえば、クラスターノードnode-01.example.com上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APCと呼ばれるメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、my_apcと呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1
ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1Copy to Clipboard Copied! Toggle word wrap Toggle overflow - ノード用のバックアップフェンスメソッドを追加してフェンスメソッドに名前を付けます。
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.comにある設定ファイル内でノードnode-01.example.com用にSANと呼ばれるバックアップフェンスメソッドを設定するには、以下のコマンドを使用します:ccs -h node01.example.com --addmethod SAN node01.example.com
ccs -h node01.example.com --addmethod SAN node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - バックアップメソッド用にフェンスインスタンスを追加します。ノード用に使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります:
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.com上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、SANと呼ばれるメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、sanswitch1と呼ばれるフェンスデバイス上の SAN スイッチパワーポート 11 を使用するとします:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11Copy to Clipboard Copied! Toggle word wrap Toggle overflow sanswitch1デバイスはストレージベースのデバイスであるため、このデバイス用にアンフェンシングを設定する必要があります。ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on
ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow
cluster.conf」 は、パワーベースのプライマリのフェンシングメソッド及びストレージベースのバックアップのフェンシングメソッドを、クラスター内の各ノードに追加した後の cluster.conf 設定ファイルを示しています。
例5.4 バックアップのフェンスメソッドを追加した後の cluster.conf
注記
5.7.4. 冗長電源を持つノードの設定 リンクのコピーリンクがクリップボードにコピーされました!
action 属性を off に設定してから、各デバイスのaction 属性を on に設定する必要があります。
- 冗長電源を持つノードにフェンシングを設定するには、各電源スイッチをクラスターのフェンスデバイスとして設定する必要があります。フェンスデバイスの設定に関する詳細は、「フェンスデバイスの設定」 を参照してください。クラスター用に現在設定されているフェンスデバイスの一覧を表示するには、次のコマンドを実行します:
ccs -h host --lsfencedev
ccs -h host --lsfencedevCopy to Clipboard Copied! Toggle word wrap Toggle overflow - ノード用のフェンスメソッドを追加して、そのフェンスメソッドの名前を入力します。
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.comにある設定ファイル内でノードnode-01.example.com用にAPC-dualと呼ばれるフェンスメソッドを設定するには、以下のコマンドを実行します:ccs -h node01.example.com --addmethod APC-dual node01.example.com
ccs -h node01.example.com --addmethod APC-dual node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 1 つ目の電源装置用のフェンスインスタンスをフェンスメソッドに追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。ここで
action属性をoffとして設定します。ccs -h host --addfenceinst fencedevicename node method [options] action=off
ccs -h host --addfenceinst fencedevicename node method [options] action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.com上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dualと呼ばれるメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、apc1と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action属性をoffに設定します。ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=off
ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 2 つ目の電源装置用のフェンスインスタンスをフェンスメソッドに追加します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。ここで、このインスタンスにも
action属性をoffとして設定します:ccs -h host --addfenceinst fencedevicename node method [options] action=off
ccs -h host --addfenceinst fencedevicename node method [options] action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.com上の設定ファイル内に 2 つ目のフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dualと呼ばれる 1 つ目のインスタンスに指定した時と同じメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、apc2と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action属性をoffに設定します。ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=off
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow - ここで、1 つ目の電源装置用に別のフェンスインスタンスをフェンスメソッドに追加して、
action属性をonとして設定します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。また、action属性をonとして指定します:ccs -h host --addfenceinst fencedevicename node method [options] action=on
ccs -h host --addfenceinst fencedevicename node method [options] action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.com上の設定ファイル内にフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dualと呼ばれるメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、apc1と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action属性をonに設定します。ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=on
ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 2 つ目の電源装置用のフェンスインスタンスをフェンスメソッドに追加し、このインスタンス用に
action属性をonに指定します。ノードに使用するフェンスデバイス、このインスタンスの適用先となるノード、メソッドの名前、及びこのノードに特有であるこのメソッド用のオプションを指定する必要があります。また、action属性をonに指定します。ccs -h host --addfenceinst fencedevicename node method [options] action=on
ccs -h host --addfenceinst fencedevicename node method [options] action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、クラスターノードnode-01.example.com上の設定ファイル内に 2 つ目のフェンスインスタンスを設定するには、以下のコマンドを実行します。ここでは、APC-dualと呼ばれる 1 つ目のインスタンスに指定した時と同じメソッドを使用してクラスターノードnode-01.example.comをフェンスするために、apc2と呼ばれるフェンスデバイス上の APC スイッチパワーポート 1 を使用するとします。また、action属性をonに設定します。ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=on
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow
cluster.conf」 は、2 つの電源装置用のフェンシングをクラスターの各ノードに追加した後の cluster.conf 設定ファイルを示しています。
例5.5 二重パワーフェンシングを追加した後の cluster.conf
5.7.5. フェンスメソッドとフェンスインスタンスの削除 リンクのコピーリンクがクリップボードにコピーされました!
ccs -h host --rmmethod method node
ccs -h host --rmmethod method node
node01.example.com 用に設定した APC と呼ばれるフェンスメソッドを、クラスターノード node01.example.com 上のクラスター設定ファイルから削除するには、以下のコマンドを実行します:
ccs -h node01.example.com --rmmethod APC node01.example.com
ccs -h node01.example.com --rmmethod APC node01.example.com
ccs -h host --rmfenceinst fencedevicename node method
ccs -h host --rmfenceinst fencedevicename node method
node01.example.com 用に設定された APC-dual と呼ばれるメソッドの apc1 と呼ばれるフェンスデバイスの全てのインスタンスを、クラスターノード node01.example.com 上のクラスター設定ファイルから削除するには、以下のコマンドを実行します:
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
5.8. フェイルオーバードメインの設定 リンクのコピーリンクがクリップボードにコピーされました!
- Unrestricted(制限なし) — 優先するメンバーのサブセットを指定できるようにしますが、このドメインに割り当てられたクラスターサービスはいずれの利用可能なメンバーでも実行できます。
- Restricted(制限あり) — 特定のクラスターサービスを実行できるメンバーを制限できるようにします。制限されたフェイルオーバードメインのメンバーがどれも使用できない場合は、クラスターサービスを (手動あるいはクラスターソフトウェアによっても) 開始できません。
- Unordered(優先順なし) — クラスターサービスが優先順なしのフェイルオーバードメインへ割り当てられる場合、クラスターサービスを実行するメンバーは、優先順なしの利用可能なフェイルオーバードメインメンバーから選択されます。
- Ordered(優先順あり) — フェイルオーバードメインのメンバー間で優先順を指定できるようにします。一覧のトップにあるメンバーが最優先となり、次に一覧の 2 番目のメンバー、その後も順に続きます。
- Failback(フェイルバック) — フェイルオーバードメイン内のサービスが、ノード障害の前に元々実行していたノードへフェイルバックするかどうかを指定できるようにします。この特性の設定が役立つのは、ノードが繰り返し失敗し、それが優先順ありのフェイルオーバードメインの一部であるような状況です。この状況では、ノードがフェイルオーバードメイン内の優先ノードである場合には、優先ノードと別のノード間でサービスがフェイルオーバーとフェイルバックを繰り返す可能性があるため、パフォーマンスに重大な影響を与えることになります。
注記
優先順のあるフェイルオーバーが設定されている場合にのみ、フェイルバックの特性が利用できます。
注記
注記
httpd など) を実行するためのクラスターを設定する作業を最小限にできます。このためには、クラスターサービスを実行する全てのメンバー上で、設定を同一にする必要があります。クラスターサービスを実行するようクラスター全体を設定する代わりに、クラスターサービスに関連付ける制限ありのフェイルオーバードメイン内のメンバーのみを設定するだけで済みます。
注記
- フェイルオーバードメインを追加するには、以下のコマンドを実行します:
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記
名前は、クラスター内で使用されている他の名前に対して、その目的を区別できるような説明的な名前にすることをお勧めします。例として次のコマンドでは、node-01.example.com上で制限なし、優先順あり、フェイルバックが可能なexample_priと呼ばれるフェイルオーバードメインを設定します:ccs -h node-01.example.com --addfailoverdomain example_pri ordered
ccs -h node-01.example.com --addfailoverdomain example_pri orderedCopy to Clipboard Copied! Toggle word wrap Toggle overflow - ノードをフェイルオーバードメインに追加するには、以下のコマンドを実行します:
ccs -h host --addfailoverdomainnode failoverdomain node priority
ccs -h host --addfailoverdomainnode failoverdomain node priorityCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、node-01.example.com上の設定ファイルでフェイルオーバードメインexample_priを設定して、優先順位 1 を持つnode-01.example.com、優先順位 2 を持つnode-02.example.com、及び優先順位 3 を持つnode-03.example.comを含むようにするには、以下のコマンド群を実行します:ccs -h node-01.example.com --addfailoverdomainnode example_pri node-01.example.com 1 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-02.example.com 2 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-03.example.com 3
ccs -h node-01.example.com --addfailoverdomainnode example_pri node-01.example.com 1 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-02.example.com 2 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-03.example.com 3Copy to Clipboard Copied! Toggle word wrap Toggle overflow
ccs -h host --lsfailoverdomain
ccs -h host --lsfailoverdomain
ccs -h host --rmfailoverdomain name
ccs -h host --rmfailoverdomain name
ccs -h host --rmfailoverdomainnode failoverdomain node
ccs -h host --rmfailoverdomainnode failoverdomain node
5.9. グローバルクラスターリソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
- Global (グローバル) — クラスター内の全てのサービスに利用可能なリソースです。
- Service-specific(サービス特有) — 1 つのサービスにのみ利用可能なリソースです。
ccs -h host --lsservices
ccs -h host --lsservices
ccs -h host --addresource resourcetype [resource options]
ccs -h host --addresource resourcetype [resource options]
node01.example.com 上のクラスター設定ファイルに追加します。リソースの名前は web_fs で、ファイルシステムデバイスは /dev/sdd2、ファイルシステムのマウントポイントは /var/www、ファイルシステムタイプは ext3 となります。
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h host --rmresource resourcetype [resource options]
ccs -h host --rmresource resourcetype [resource options]
5.10. クラスターへのクラスターサービスの追加 リンクのコピーリンクがクリップボードにコピーされました!
- 以下のコマンドを使用してクラスターにサービスを追加します:
ccs -h host --addservice servicename [service options]
ccs -h host --addservice servicename [service options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記
名前は、クラスター内の他のサービスと明白に区別できる名前を使用してください。クラスター設定にサービスを追加する時、以下の属性を設定します。autostart— クラスターの開始時にサービスを自動起動するかどうかを指定します。有効にするには「1」を、無効にするには「0」を使用します。デフォルトは有効です。domain— フェイルオーバードメインを指定します(必要な場合)。exclusive— 他のサービスが稼働していないノード上でのみサービスを稼働するポリシーを指定します。recovery— サービスの回復ポリシーを指定します。オプションとしては、サービスの再配置、再起動、無効、再起動後に無効、があります。再起動の回復ポリシーは、システムが障害が発生したサービスを別のノードに再配置する前に、そのサービスの再起動を試行することを示しています。再配置のポリシーは、異なるノードでサービスの再起動を試行することを意味します。無効のポリシーは、いずれかのコンポーネントに障害が発生した場合にシステムがリソースグループを無効にすることを示しています。再起動後に無効のポリシーでは、サービスに障害が発生した場合システムがサービスの再起動を試行することを意味します。ただし、そのサービスの再起動が失敗すると、サービスはクラスター内の別のホストに移る代わりに無効になります。サービスの回復ポリシーとして 又は を選択した場合、サービスの再配置/無効化までに再起動が失敗する最大回数と、再起動を破棄するまでの時間を秒単位で指定することができます。
例えば、フェイルオーバードメインexample_priを使用し、回復ポリシーrelocateを持つexample_apacheと呼ばれるクラスターノードnode-01.example.comにある設定ファイルにサービスを追加するには、以下のコマンドを使用します:ccs -h node-01.example.com --addservice example_apache domain=example_pri recovery=relocate
ccs -h node-01.example.com --addservice example_apache domain=example_pri recovery=relocateCopy to Clipboard Copied! Toggle word wrap Toggle overflow クラスターにサービスを設定する場合、クラスターに利用可能なサービスや各サービスに使用できるオプションの一覧を確認すると役立つ場合があります。利用可能なサービスとオプションの一覧を表示するためのccsコマンドの使用方法については、「利用可能なクラスターサービスおよびリソースの一覧表示」 を参照してください。 - 以下のコマンドを使用してリソースをサービスに追加します:
ccs -h host --addsubservice servicename subservice [service options]
ccs -h host --addsubservice servicename subservice [service options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 使用したいリソースのタイプに応じて、サービスにグローバル又はサービス特有のリソースを入力します。グローバルリソースを追加するには、ccsコマンドに--addsubserviceオプションを使用してリソースを追加します。例えば、web_fsと呼ばれるグローバルファイルシステムリソースをnode-01.example.comにあるクラスター設定ファイル上のexample_apacheと呼ばれるサービスに追加するには、以下のコマンドを実行します:ccs -h node01.example.com --addsubservice example_apache fs ref=web_fs
ccs -h node01.example.com --addsubservice example_apache fs ref=web_fsCopy to Clipboard Copied! Toggle word wrap Toggle overflow サービス特有のリソースをサービスに追加するには、全てのサービスオプションを指定する必要があります。例えば、以前にweb_fsをグローバルサービスとして定義していない場合は、次のコマンドを使ってそれをサービス特有のリソースとして追加できます:ccs -h node01.example.com --addsubservice example_apache fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h node01.example.com --addsubservice example_apache fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 子サービスをサービスに追加するには、
ccsコマンドに--addsubserviceオプションを使用して、サービスオプションを指定します。依存関係のツリー構造の中でサービスを追加する必要がある場合は、コロン (:) を使用して要素を区切り、括弧を使用して同じタイプのサブサービスを指定します。以下の例では、3 つ目のnfsclientサービスをnfsclientサービスのサブサービスとして追加します。これはnfsclientサービスのサブサービスであり、そのnfsclientサービスはservice_aと呼ばれるサービスのサブサービスです。ccs -h node01.example.com --addsubservice service_a nfsclient[1]:nfsclient[2]:nfsclient
ccs -h node01.example.com --addsubservice service_a nfsclient[1]:nfsclient[2]:nfsclientCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記
Samba-service リソースを追加している場合は、それを他のリソースの子としてでは なく、直接サービスに追加します。注記
フローティング IP アドレスリソースを含むクラスターサービスの依存関係ツリー設定時には、IP リソースを最初のエントリーとして設定する必要があります。
注記
ifconfig コマンドではなく) /sbin/ip addr show コマンドを使用します。以下は、クラスターサービスを実行しているノードで /sbin/ip addr show コマンドを実行した場合の出力です。
ccs -h host --rmservice servicename
ccs -h host --rmservice servicename
ccs -h host --rmsubservice servicename subservice [service options]
ccs -h host --rmsubservice servicename subservice [service options]
5.11. 利用可能なクラスターサービスおよびリソースの一覧表示 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用すると、クラスターに利用可能なサービスおよびリソースの一覧を表示できます。ccs コマンドを使用して、特定のサービスまたはリソースタイプに指定可能なオプションを一覧表示することもできます。
--lsresourceopts は --lsserviceopts のエイリアス)。
ccs -h host --lsserviceopts ccs -h host --lsresourceopts
ccs -h host --lsserviceopts
ccs -h host --lsresourceopts
node1 で利用可能なクラスターサービスおよびリソースを一覧表示します。サンプルの出力を表示します。
ccs -h host --lsserviceopts service_type
ccs -h host --lsserviceopts service_type
vm サービス用のサービスオプションを一覧表示します。
5.12. 仮想マシンのリソース リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用してクラスター内で仮想マシンを設定する場合、--addvm (addservice オプションではなく) を使用できます。これにより、クラスター設定ファイルの rm 設定ノードで直接 vm リソースが定義されることになります。
name 及び path 属性が必要です。name 属性は libvirt ドメインの名前と一致し、path 属性は共有の仮想マシン定義が格納されるディレクトリを指定します。
注記
path 属性は、個々のファイルへのパスではなく、パス指定又はディレクトリの名前です。
/mnt/vm_defs と呼ばれる共有ディレクトリに格納されている場合、次のコマンドは guest1 と呼ばれる仮想マシンを定義することになります。
ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
# ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
cluster.conf ファイルの rm 設定ノードに追加されます。
<vm name="guest1" path="/mnt/vm_defs"/>
<vm name="guest1" path="/mnt/vm_defs"/>
5.13. Quorum disk の設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
ccs -h host --setquorumd [quorumd options]
ccs -h host --setquorumd [quorumd options]
--setquorumd オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
/usr/share/cluster/cluster.rng にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html にある注釈付きスキーマを参照してください。
| パラメーター | 説明 |
|---|---|
| 秒単位の読み取り/書き込みサイクルの頻度 | |
十分に高いスコアがある時に quorum デーモンが cman に広告する投票数 | |
| ノードが dead と宣言されるまでにミスするサイクル数 | |
ノードが「生存」と見なされるための最低限スコア。スコアが省略されている場合や「0」にセットされていると、デフォルトの関数である floor((n+1)/2) が使用されます。n はヒューリスティックのスコアの合計です。 の値は、ヒューリスティックのスコアの合計を超過してはいけません。超過した場合は、quorum disk は利用できません。 | |
| quorum デーモンが使用するストレージデバイスです。このデバイスは全てのノードで同一でなければなりません。 | |
mkqdisk ユーティリティで作成される quorum disk のラベルを指定します。このフィールドにエントリがある場合は、ラベルは フィールドを上書きします。このフィールドが使用されると、 quorum デーモンは /proc/partitions を読み取り、見付かった全てのブロックデバイス上の qdisk 署名をチェックし、指定されたラベルと比較します。これは quorum デバイス名がノード間で異なる場合の設定に役立ちます。 |
ccs -h host --addheuristic [heuristic options]
ccs -h host --addheuristic [heuristic options]
| パラメーター | 説明 |
|---|---|
このヒューリスティックが利用可能か判断する際に使用されるプログラムへのパス。/bin/sh -c で実行可能なものなら何でも構いません。戻り値が 0 の場合は成功で、それ以外の値は失敗を意味します。このパラメーターは quorum ディスクを使用するために必要です。 | |
| ヒューリスティックが投票される頻度 (秒数) です。いずれのヒューリスティックもデフォルトの間隔は 2 秒です。 | |
| このヒューリスティックのウェイトです。ヒューリスティックのスコアを決定する時には注意が必要です。各ヒューリスティックのデフォルトのスコアは 1 です。 | |
| ヒューリスティックが利用不可能と宣言されるまでの連続する失敗数。 |
ccs -h host --lsquorum
ccs -h host --lsquorum
ccs -h host rmheuristic [heuristic options]
ccs -h host rmheuristic [heuristic options]
注記
qdiskd デーモンを確実に再起動できます。
5.14. その他のクラスター設定 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドの使用方法について説明します:
ccs コマンドを使用すると、totem オプション、dlm オプション、rm オプション、及び cman オプションを含む高度なクラスター設定のパラメーターを設定することもできます。これらのパラメーターを設定する方法についての詳細は ccs(8) の man ページ、及び /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html にある注釈付きクラスター設定ファイルのスキーマをご覧ください。
ccs -h host --lsmisc
ccs -h host --lsmisc
5.14.1. クラスター設定のバージョン リンクのコピーリンクがクリップボードにコピーされました!
1 にセットされ、そのクラスター設定を修正する度に自動的に増加します。ただし、他の値に設定する必要がある場合は、以下のコマンドで値を指定できます:
ccs -h host --setversion n
ccs -h host --setversion n
ccs -h host --getversion
ccs -h host --getversion
ccs -h host --incversion
ccs -h host --incversion
5.14.2. マルチキャスト設定 リンクのコピーリンクがクリップボードにコピーされました!
- IPv4 の場合 — 形成されるアドレスは、239.192 に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
- IPv6 の場合 — 形成されるアドレスは、FF15:: に Red Hat High Availability アドオンソフトウェアにより生成される下位 16 ビットが加わります。
注記
cman が生成する一意の識別子です。クラスター ID を表示するには、クラスターノードで cman_tool status コマンドを実行します。
ccs -h host --setmulticast multicastaddress
ccs -h host --setmulticast multicastaddress
--setmulticast オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
cman が使用する 239.192.x.x シリーズ(又は IPv6 の場合は FF15::)を使用することをお勧めします。この範囲以外のマルチキャストアドレスを使用すると、予期できない結果が生じる場合があります。例えば、224.0.0.x (「ネットワーク上の全ホスト」) を使用した場合、正しくルートされないか、一部のハードウェアでは全くルートされない可能性さえあります。
ccs コマンドを使ったクラスターの起動/停止に関する詳細は、「クラスターの起動と停止」 を参照してください。
注記
ccs コマンドに --setmulticast オプションを使用します。マルチキャストアドレスは指定しないでください。
ccs -h host --setmulticast
ccs -h host --setmulticast
5.14.3. 2 ノードクラスターの設定 リンクのコピーリンクがクリップボードにコピーされました!
ccs -h host --setcman two_node=1 expected_votes=1
ccs -h host --setcman two_node=1 expected_votes=1
--setcman オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
ccs --setcman コマンドを使用して two_node オプションの追加/削除/修正を行った場合、変更を反映させるためにクラスターを再起動する必要があります。ccs コマンドを使ったクラスターの起動/停止に関する詳細は、「クラスターの起動と停止」 を参照してください。
5.14.4. ロギング リンクのコピーリンクがクリップボードにコピーされました!
/var/log/cluster/daemon.log ファイルにログ記録されます:
ccs -h host --setlogging [logging options]
ccs -h host --setlogging [logging options]
ccs -h node1.example.com --setlogging debug=on
# ccs -h node1.example.com --setlogging debug=on
--setlogging オプションで設定したその他のプロパティをすべて、デフォルト値にリセットする点に注意してください。
ccs -h host --addlogging [logging daemon options]
ccs -h host --addlogging [logging daemon options]
corosync 及び fenced デーモンのデバッグを有効にします:
ccs -h node1.example.com --addlogging name=corosync debug=on ccs -h node1.example.com --addlogging name=fenced debug=on
# ccs -h node1.example.com --addlogging name=corosync debug=on
# ccs -h node1.example.com --addlogging name=fenced debug=on
ccs -h host --rmlogging name=clusterprocess
ccs -h host --rmlogging name=clusterprocess
fenced デーモンのデーモン固有のログ設定を削除します。
ccs -h host --rmlogging name=fenced
ccs -h host --rmlogging name=fenced
cluster.conf(5) の man ページを参照してください。
5.14.5. 冗長リングプロトコルの設定 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドの --addalt オプションを使用してノードに別の名前を追加します。
ccs -h host --addalt node_name alt_name
ccs -h host --addalt node_name alt_name
clusternet-node1-eth1 に別の名前 clusternet-node1-eth2 を設定します。
ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1-eth2
# ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1-eth2
ccs コマンドの --setaltmulticast オプションを使用します。
ccs -h host --setaltmulticast [alt_multicast_address] [alt_multicast_options].
ccs -h host --setaltmulticast [alt_multicast_address] [alt_multicast_options].
clusternet-node1-eth1 ノードに、cluster.conf ファイルで定義したクラスターに対する別のマルチキャストアドレス 239.192.99.88、ポート 888、TTL 3 を設定します。
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
ccs コマンドの --setaltmulticast オプションを指定しますが、マルチキャストアドレスは指定しないでください。「以前の設定を上書きするコマンド」 で記載されているように、このコマンドを実行すると、--setaltmulticast オプションで設定可能なその他のプロパティがすべて、デフォルト値にリセットされる点に注意してください。
5.15. クラスタノード群への設定ファイルの伝播 リンクのコピーリンクがクリップボードにコピーされました!
ccs -h host --sync --activate
ccs -h host --sync --activate
ccs -h host --checkconf
ccs -h host --checkconf
ccs -f file -h host --setconf
ccs -f file -h host --setconf
ccs -f file --checkconf
ccs -f file --checkconf
第6章 Red Hat High Availability アドオンを使用した ccs の管理 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用して Red Hat High Availability アドオンを管理する上での各種管理タスクについて説明しています。ccs コマンドは Red Hat Enterprise Linux 6.1 リリース以降のバージョンでサポートされています。本章は以下のようなセクションで構成されます。
6.1. クラスターノードの管理 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用したノード管理機能を実行する方法を説明しています:
6.1.1. ノードのクラスターに対する離脱/参加 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用すると、ノード上でクラスターサービスを停止することによりノードがクラスターから離脱するようにできます。ノードがクラスターから離脱しても、そのノードからクラスター設定情報を削除することにはなりません。ノードをクラスターから離脱させることで、クラスターの再起動時にノードが自動的に参加できないようにします。
-h オプションで指定されたノード上のクラスターサービスが停止します:
ccs -h host --stop
ccs -h host --stop
-h オプションで指定されたノード上でクラスターサービスを起動します:
ccs -h host --start
ccs -h host --start
6.1.2. 稼働しているクラスターへのメンバーの追加 リンクのコピーリンクがクリップボードにコピーされました!
6.2. クラスターの起動と停止 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用してクラスターを停止するには、以下のコマンドを使ってクラスター内の全てのノード上でクラスターサービスを停止します:
ccs -h host --stopall
ccs -h host --stopall
ccs コマンドを使用して稼働していないクラスターを起動するには、以下のコマンドを使ってクラスター内の全てのノード上でクラスターサービスを起動します:
ccs -h host --startall
ccs -h host --startall
6.3. クラスター内の問題の診断と是正 リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドを使用してもいくつかの簡単なチェックを実行できます。
ccs -h host --checkconf
ccs -h host --checkconf
ccs -f file --checkconf
ccs -f file --checkconf
第7章 Red Hat High Availability の手動での設定 リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf) を直接編集してコマンドラインツールを使用することにより Red Hat High Availability アドオンを設定する方法を説明しています。本章は、まず提供されるサンプルのファイルから一度に 1 セクションずつ設定ファイルを構築する手順を紹介します。提供されているサンプルファイルから始める方法以外に、cluster.conf の man ページからスケルトンの設定ファイルをコピーすることもできます。しかし、それを行った場合、本章で後ほど示される手順の情報と必ずしも合うとは限りません。クラスター設定ファイルを作成して設定する方法は他にもありますが、本章では、一度に 1 セクションずつ設定ファイルを構築する手順を提供します。また、この手順はあくまで使用しているクラスタリングニーズに適合するための設定ファイルを開発する出発点であることも注意してください。
重要
重要
cluster.conf の要素と属性を参照します。cluster.conf の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html) にある注釈付きスキーマを参照してください。
重要
cman_tool version -r コマンドを使用する必要があります。このコマンドを使用するには、ricci が稼働していなければなりません。ricci を使用する場合は、いずれかのマシンから ricci とやりとりをする初回時にパスワードが必要となります。ricci サービスについての詳細情報は、「ricci の注意事項」 を参照してください。
注記
7.1. 設定のタスク リンクのコピーリンクがクリップボードにコピーされました!
- クラスターを作成。「基本的なクラスター設定ファイルの作成」 を参照してください。
- フェンシングを設定。「フェンシングの設定」 を参照してください。
- フェイルオーバードメインを設定。「フェイルオーバードメインの設定」 を参照してください。
- HA サービスを設定。「HA サービスの設定」 を参照してください。
- 設定を確認。「設定の確認」 を参照してください。
7.2. 基本的なクラスター設定ファイルの作成 リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf) を作成して High Availability アドオンの実行を開始することができます。このセクションでは、単に開始点として、フェンシング、フェイルオーバードメイン、および HA サービスのないスケルトンクラスター設定ファイルを作成する方法を説明します。これ以降のセクションでは、設定ファイルでのこれらの部分を設定する方法を説明しています。
重要
- クラスター内のいずれかのノードで、例7.1「
cluster.confの例: 基本設定」 内のサンプルのテンプレートを使用して/etc/cluster/cluster.confを作成します。 - (オプション) 2 ノードクラスターを設定している場合は、設定ファイルに以下の行を追加して単一ノードでも定足数を維持できるようにします (例えば、1 つのノードが失敗した場合など):
<cman two_node="1" expected_votes="1"/>cluster.confファイルからtwo_nodeオプションを追加/削除した時に、設定を更新した場合は、変更を反映させるためにクラスターを再起動する必要があります。クラスターの設定を更新する詳細については、「設定の更新」 を参照してください。two_nodeオプションを指定する例は、例7.2「cluster.confの例: 基本的な 2 ノード設定」 を参照してください。 cluster属性を使用してクラスター名と設定のバージョン番号であるnameとconfig_versionを指定します。(例7.1「cluster.confの例: 基本設定」 又は 例7.2「cluster.confの例: 基本的な 2 ノード設定」 を参照)。clusternodesセクションで、clusternode属性を使用して各ノードのノード名とノード ID であるnameとnodeidを指定します。ノード名の長さは、最大 255 バイトまでになります。/etc/cluster/cluster.confを保存します。ccs_config_validateコマンドを実行することで、クラスタースキーマ (cluster.rng) に対するファイルの妥当性を検証します。例えば、ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 設定ファイルを各クラスターノード内の
/etc/cluster/に伝播します。例えば、scpコマンドを使用するとファイルを他のクラスターノードへ伝播できます。注記
クラスターの初回作成時には、この方法でクラスター設定ファイルを伝達する必要があります。クラスターがインストールされて稼働すると、クラスター設定ファイルはcman_tool version -rコマンドを使用して伝達できるようになります。更新した設定ファイルの伝達にはscpコマンドを使用することもできますが、scpコマンドの使用中は、全てのノードでクラスターソフトウェアが停止する必要があります。さらに、scpで更新済みの設定ファイルを伝達する場合は、ccs_config_validateを実行することをお勧めします。注記
サンプルの設定ファイル内に他の要素と属性がありますが (例えば、fenceとfencedevices)、それらは今すぐ設定する必要はありません。本章の後半の手順では、他の要素と属性の指定に関する情報が提供されています。 - クラスターを開始します。各クラスターノードで以下のコマンドを実行します:
service cman start例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのクラスターノードで
cman_tool nodesを実行して、ノード群がクラスター内でメンバーとして機能していることを確認します (ステータスカラム "Sts" で "M" として表示)。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - クラスターが稼働していれば、「フェンシングの設定」 に進みます。
基本設定の例 リンクのコピーリンクがクリップボードにコピーされました!
cluster.conf の例: 基本設定」 と 例7.2「cluster.conf の例: 基本的な 2 ノード設定」 (2 ノードクラスター用) はそれぞれ、開始点として非常に基本的なクラスター設定ファイルのサンプルを提供します。本章の後半にある手順には、フェンシングと HA サービスに関する情報が記載されています。
例7.1 cluster.conf の例: 基本設定
例7.2 cluster.conf の例: 基本的な 2 ノード設定
2 ノードクラスター内の totem の consensus 値 リンクのコピーリンクがクリップボードにコピーされました!
cluster.conf ファイル内にある totem タグの consensus 値を省略して、consensus 値が自動的に算出されるようにします。consensus 値が自動的に算出されると、以下のルールが適用されます:
- 2 つ、又はそれ以下のノードしかない場合、
consensus値は 上限 2000 msec で 下限 200 msec を持つ (token * 0.2) となります。 - 3 つ、又はそれ以上のノードがある場合、
consensus値は (token + 2000 msec) となります。
cman ユーティリティに consensus タイムアウトを設定させると、後で 2 ノードから 3 ノード (又はそれ以上) に移動するにはクラスターの再起動が必要になります。これは token タイムアウトを基にしてconsensus タイムアウトをより大きな値に変更する必要があるためです。
cluster.conf 内で以下のように実行できます:
<totem token="X" consensus="X + 2000" />
<totem token="X" consensus="X + 2000" />
cman 内の 2 ノード検出機能の場合、重要な点は物理ノードの数であり、 cluster.conf ファイル内の two_node=1 指示文の存在ではないことに注意して下さい。
7.3. フェンシングの設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
cluster.conf を設定します。
fencedevicesセクションでは、fencedevice要素とフェンスデバイス従属属性を使用して各フェンスデバイスを指定します。例7.3「cluster.confに追加された APC フェンスデバイス」 は APC フェンスデバイスを追加した設定ファイルの例を示しています。clusternodesセクションでは、各clusternodeセクションのfence要素内でノードの各フェンスメソッドを指定します。method属性である、nameを使用してフェンスメソッドの名前を指定します。device要素とその属性である、nameとフェンスデバイス特有のパラメーターを使用して各フェンスメソッド用のフェンスデバイスを指定します。例7.4「cluster.confに追加されたフェンスメソッド」 はクラスター内の各ノード用に 1 つのフェンスデバイスを持つフェンスメソッドの例を示しています。- パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) 用には、
clusternodesセクションでunfenceセクションを追加します。これにより、フェンス済みのノードは再起動されるまでは再度有効になりません。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node(8) の man ページを参照してください。unfenceセクションは、fenceセクションとは異なり、methodセクションが含まれていませんが、device参照を直接含んでいます。これはfenceの該当するデバイスセクションをミラーし、"on" 又は "enable" の明示的なアクション (action) がはっきりと追加されています。fenceとunfencedeviceの行によって同じfencedeviceが参照され、同じノード毎の引数が繰り返されます。action属性を "on" 又は "enable" に指定すると、再起動時にノードを有効にします。例7.4「cluster.confに追加されたフェンスメソッド」 と 例7.5「cluster.conf: ノード毎に複数のフェンスメソッド」 にはunfenceの要素と属性の例が含まれています。unfenceについての詳細は、fence_nodeの man ページを参照してください。 - 値を増加することにより
config_version属性を更新します (例えば、config_version="2"からconfig_version="3">へ変更)。 /etc/cluster/cluster.confを保存します。- (オプション)
ccs_config_validateコマンドを実行することでクラスタースキーマ (cluster.rng) に対して更新されたファイルを検証します。例えば:ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow cman_tool version -rコマンドを実行してクラスターノードの他の部分に設定を伝播します。このコマンドは追加の検証も実行します。更新されたクラスターの設定情報を伝播できるようにするには、各ノード内でricciが稼働している必要があります。- 更新した設定ファイルが伝播されたことを確認します。
- 「フェイルオーバードメインの設定」 へ進んでください。
fenced は次のメソッドを試行し、1 つが成功するまでメソッド群を繰り返します。
fenced は各フェンス/デバイス行に対してフェンスエージェントを 1 回実行しますが、フェンシングが成功と見なされるにはすべてが成功しなければなりません。
fence_apc の man ページ) でご覧になれます。さらには、付録A フェンスデバイスパラメーター ではフェンシングパラメーターの情報、/usr/sbin/ ではフェンスエージェントの情報、/usr/share/cluster/cluster.rng ではクラスタースキーマの情報、/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html) では注釈付きスキーマの情報を取得できます。
フェンシング設定の例 リンクのコピーリンクがクリップボードにコピーされました!
注記
例7.3 cluster.conf に追加された APC フェンスデバイス
fencedevice) は fencedevices 要素に追加されています。また、フェンスエージェント (agent) を fence_apc として、IP アドレス (ipaddr) を apc_ip_example として、ログイン (login) を login_example として、フェンスデバイス名 (name) を apc として、パスワード (passwd) を password_example として指定しています。
例7.4 cluster.conf に追加されたフェンスメソッド
method) が各ノードに追加されています。各ノードのフェンスメソッド名 (name) は APC です。各ノードのフェンスメソッドのデバイス (device) は、名前 (name) を apc 及び各ノード用に一意の APC スイッチパワーポート番号 (port) として指定します。ここでは例として、node-01.example.com のポート番号を 1 (port="1") とします。各ノードのデバイス名 (device name="apc") は、fencedevices 要素のこの行にあるapc の名前 apc によってフェンスデバイスをポイントします: fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"
例7.5 cluster.conf: ノード毎に複数のフェンスメソッド
例7.6 cluster.conf: マルチパス複数ポートのフェンシング
例7.7 cluster.conf: デュアル電源供給を持つノードのフェンシング
7.4. フェイルオーバードメインの設定 リンクのコピーリンクがクリップボードにコピーされました!
- Unrestricted(制限なし) — 優先するメンバーのサブセットを指定できるようにしますが、このドメインに割り当てられたクラスターサービスはいずれの利用可能なメンバーでも実行できます。
- Restricted(制限あり) — 特定のクラスターサービスを実行できるメンバーを制限できるようにします。制限されたフェイルオーバードメインのメンバーがどれも使用できない場合は、クラスターサービスは (手動あるいはクラスターソフトウェアによっても) 開始できません。
- Unordered(優先順なし) — クラスターサービスが優先順なしのフェイルオーバードメインへ割り当てられる場合、クラスターサービスを実行するメンバーは、優先順なしの利用可能なフェイルオーバードメインメンバーから選択されます。
- Ordered(優先順あり) — フェイルオーバードメインのメンバー内で優先順を指定できるようにします。優先順フェイルオーバードメインは、優先順位が一番低い番号を持つノードを最初に選択します。すなわち、フェイルオーバードメイン内で優先番号 "1" を持つノードの優先度が最も高くなるため、フェイルオーバードメイン内で最優先すべきノードとなります。そのノードの次に優先されるノードは、次に高い優先番号を持つノードとなります。
- Failback(フェイルバック) — フェイルオーバードメイン内のサービスが、ノード障害の前に元々実行していたノードへフェイルバックするかどうかを指定できるようにします。この特性の設定が役立つのは、ノードが繰り返し失敗し、それが優先順ありのフェイルオーバードメインの一部であるような状況です。この状況では、ノードがフェイルオーバードメイン内の優先ノードである場合には、優先ノードと別のノード間でサービスがフェイルオーバーとフェイルバックを繰り返す可能性があるため、パフォーマンスに重大な影響を与えることになります。
注記
優先順のあるフェイルオーバーが設定されている場合にのみ、フェイルバックの特性が利用できます。
注記
注記
httpd など) を実行するためのクラスターを設定する作業を最小限にできます。このためには、クラスターサービスを実行する全てのメンバー上で、設定を同一にする必要があります。クラスターサービスを実行するようクラスター全体を設定する代わりに、クラスターサービスに関連付ける制限ありのフェイルオーバードメイン内のメンバーのみを設定するだけで済みます。
注記
- クラスター内のいずれかのノードで
/etc/cluster/cluster.confを開きます。 - 使用する各フェイルオーバードメイン用の
rm要素内に以下のスケルトンセクションを追加します:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記
failoverdomainnode属性の数はフェイルオーバードメイン内のノード数で変化します。前述したテキスト内のスケルトンfailoverdomainセクションは 3 つのfailoverdomainnode要素を示しており、フェイルオーバードメインに 3 つのノードが存在することを示唆しています。 failoverdomainセクションでは、要素と属性の値を提供します。要素と属性の説明については、注釈付きクラスタースキーマの 『failoverdomain』 セクションを参照してください。注釈付きクラスタースキーマはいずれかのクラスターノード内の/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html(例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html) にあります。failoverdomainsセクションの例は、例7.8「cluster.confに追加されたフェイルオーバードメイン」 を参照してください。- 値を増加することにより
config_version属性を更新します (例えば、config_version="2"からconfig_version="3">へ変更)。 /etc/cluster/cluster.confを保存します。- (オプション)
ccs_config_validateコマンドを実行して、クラスタースキーマ (cluster.rng) に対するファイルの妥当性を検証します。たとえば、ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow cman_tool version -rコマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 「HA サービスの設定」 へ進みます。
cluster.conf に追加されたフェイルオーバードメイン」 は優先順のある制限なしのフェイルオーバードメインを持つ設定の例を示しています。
例7.8 cluster.conf に追加されたフェイルオーバードメイン
failoverdomains セクションには、クラスター内の各フェイルオーバードメイン用の failoverdomain セクションが含まれています。この例には、フェイルオーバードメインが 1 つあります。failoverdomain の行では、名前 (name) が example_pri として指定されています。さらに、フェイルバックなし (failback="0")、フェイルオーバーは優先順あり (ordered="1")、フェイルオーバードメインは制限なし (restricted="0") と指定されています。
7.5. HA サービスの設定 リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf を編集する方法を説明しています。
重要
7.5.1. クラスターリソースの追加 リンクのコピーリンクがクリップボードにコピーされました!
- Global(グローバル) — クラスター内のどのサービスにも利用可能なリソース。これらは、設定ファイル (
rm要素内) のresourcesセクションで設定されています。 - Service-specific(サービス特有) — 1 つのサービスのみに利用可能なリソース。これらは、設定ファイル (
rm要素内) の各serviceセクションで設定されています。
- クラスター内のいずれかのノードで
/etc/cluster/cluster.confを開きます。 rm要素内にresourcesセクションを追加します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - これに作成したいサービスに応じてリソースを入力します。例えば、Apache サービス内で使用したいリソースがあると想定します。それらがファイルシステム (
fs) リソース、IP (ip) リソース、及び Apache (apache) リソースで構成されているとします。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 値を増加することにより
config_version属性を更新します (例えば、config_version="2"からconfig_version="3"へ変更)。 /etc/cluster/cluster.confを保存します。- (オプション)
ccs_config_validateコマンドを実行して、クラスタースキーマ (cluster.rng) に対するファイルの妥当性を検証します。たとえば、ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow cman_tool version -rコマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- 「クラスターへのクラスターサービスの追加」 へ進みます。
例7.9 リソースが追加された cluster.conf ファイル
7.5.2. クラスターへのクラスターサービスの追加 リンクのコピーリンクがクリップボードにコピーされました!
注記
- クラスター内のいずれかのノードで
/etc/cluster/cluster.confを開きます。 - 各サービス用の
rm要素内にserviceセクションを追加します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow service要素内で以下のパラメーター (属性) を設定します:autostart— クラスターの開始時にサービスを自動起動するかどうかを指定します。有効にするには「1」を、無効にするには「0」を使用します。デフォルトは有効です。domain— フェイルオーバードメイン(必要である場合)を指定します。exclusive— 他のサービスが稼働していないノード上でのみサービスを稼働するポリシーを指定します。recovery— サービスの回復ポリシーを指定します。オプションとしては、サービスの再配置、再起動、無効、再起動後に無効、があります。
- 使用したいリソースのタイプに応じて、サービスにグローバル又はサービス特有のリソースを入力します。例えば、グローバルリソースを使用する Apache サービスは以下のようになります:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例えば、サービス特有のリソースを使用する Apache サービスは以下のようになります:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例7.10「サービスが追加されたcluster.conf:1 つはグローバルリソースを使用、もう 1 つはサービス特有のリソースを使用」 では、2 つのサービスを持つcluster.confファイルの例を示してします。example_apache— このサービスはグローバルリソースであるweb_fs、127.143.131.100及びexample_serverを使用します。example_apache2— このサービスはサービス特有のリソースであるweb_fs2、127.143.131.101、及びexample_server2を使用します。
- 値を増加することにより
config_version属性を更新します (例えば、config_version="2"からconfig_version="3">へ変更)。 /etc/cluster/cluster.confを保存します。- (オプション)
ccs_config_validateコマンドを実行することでクラスタースキーマ (cluster.rng) に対して更新されたファイルを検証します。例えば:ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow cman_tool version -rコマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- 「設定の確認」 へ進みます。
例7.10 サービスが追加された cluster.conf:1 つはグローバルリソースを使用、もう 1 つはサービス特有のリソースを使用
7.6. 冗長リングプロトコルの設定 リンクのコピーリンクがクリップボードにコピーされました!
- リングを 3 つ以上指定しないでください。
- 各リングで同じプロトコルを使用すること、IPv4 と IPv6 を混同しないようにしてください。
- 必要であれば、2 つ目のリングにマルチキャストアドレスを手動で指定可能です。2 つ目のリングにマルチキャストアドレスを指定した場合、代わりのマルチキャストアドレスまたは代わりのポートは 1 つ目のリングのマルチキャストアドレスと異なる必要があります。別のマルチキャストアドレスを指定しなかった場合、システムは 2 つ目のリングに別のマルチキャストアドレスを自動的に使用するようになっています。別のポートを指定した場合、操作の実行にポートとポート 1 をシステム自体で使用するため、1 つ目と 2 つ目のポート番号は 2 つ以上違うものでなければなりません。
- 同一サブネット上で 2 つの異なるインターフェースを使用しないでください。
- 一般的に、NIC またはスイッチのいずれかに問題が発生したときのために、2 種の NIC および 2 種のスイッチで冗長リングプロトコルを設定すると良いでしょう。
ifdownコマンドまたはservice network stopコマンドを使用して、ネットワークの問題のシミュレーションを行わないでください。このコマンドでは、クラスター全体が破壊され、クラスター内の全ノードを再起動しない限り回復しなくなります。- ケーブルが抜けると
ifdownが実行されるため、NetworkManagerを使用しないでください。 - NIC の 1 ノードに問題が発生すると、リング全体に問題があるとマーキングされます。
- 問題の発生したリングを回復するために手動介入は必要ありません。回復には、問題の NIC やスイッチなどのように、問題の原因となる部分を修正するだけで結構です。
cluster.conf ファイルの clusternode のセクションに altname コンポーネントを追加します。altname を指定するには、name 属性を指定してノードの 2 つ目のホスト名または IP アドレスを指定します。
clusternet-node1-eth1 の代わりの名前として clusternet-node1-eth2 を指定しています。
clusternode ブロックの altname セクションは、位置独立コードであるため、fence セクションの前にも後ろにも置くことが可能です。クラスターノードに複数の altname コンポーネントを指定しないでください。複数指定すると、システムが起動しなくなります。
cluster.conf 設定ファイルの cman セクションに altmulticast コンポーネントを含めることで、2 つ目のマルチキャストアドレス、ポート、TTL を手動で指定することができます。altmulticast コンポーネントでは、addr、port、ttl パラメーターを使用できます。
cman セクションで、2 つ目のリンクのマルチキャストアドレス、ポート、TTL を設定している例です。
7.7. デバッグオプションの設定 リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf に追加します。デフォルトでは、/var/log/cluster/daemon.log ファイルにログ記録されます。
/etc/cluster/cluster.conf ファイルに追加します。デーモン毎のロギング設定は、グローバル設定を上書きします。
cluster.conf(5) の man ページを参照してください。
7.8. nfsexport および nfsserver リソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
nfsexport または nfsserver リソースの設定時に考慮すべき点および問題点を説明します。
nfsexport リソースエージェントは、NFSv2 および NFSv3 クライアントで機能します。nfsexport の使用時には、以下のことを実行する必要があります。
nfsおよびnfslockがブート時に有効となっていることを確認。- 全クラスターノードで
RPCNFSDARGS="-N 4"を/etc/sysconfig/nfsファイルに追加。 nfslock="1"をcluster.confファイルのserviceコンポーネントに追加。- サービスを以下のように構成します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
nfsserver リソースエージェントは、NFSv3 および NFSv4 クライアントで機能します。nfsserver の使用時には、以下のことを実行する必要があります。
nfsおよびnfslockがブート時に無効となっていることを確認。- サービスで
nfslock="1"と設定されていないことを確認。 - サービスを以下のように構成します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
nfsserver リソースエージェントを用いるようにシステムを設定する際は、以下の制限を理解しておく必要があります。
- クラスター 1 つあたり 1 つの
nfsserverリソースのみを設定すること。さらに必要な場合は、問題となっている 2 つのサービスが決して同一ホスト上でスタートしないようにするために制限されたフェイルオーバードメインを使用する必要があります。 - 2 つ以上のサービスでグローバルに設定された
nfsserverリソースを参照しないこと。 - 古いスタイルの NFS サービスを同一クラスター内で新しい
nfsserverと混在させないこと。旧式の NFS サービスは NFS デーモンの稼働を必要としていましたが、nfsserverはサービス開始時にデーモンが停止している必要があります。 - 複数のファイルシステムを使用する場合は、エクスポートに継承を使用することができません。つまり、複数のファイルシステムでのサービスにおける
nfsclientリソースの再利用は制限されることになります。しかし、ターゲットおよびパス属性の明示的定義は、nfsclientsの数に制限されずに行うことができます。
7.9. 設定の確認 リンクのコピーリンクがクリップボードにコピーされました!
- 各ノードで、クラスターソフトウェアを起動します。このアクションにより、開始時のみにチェックされる追加設定が実行中の設定に含まれていることを確認します。
service cman restartを実行すると、クラスターソフトウェアを再起動できます。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - CLVM がクラスター化ボリュームの作成に使用されている場合は、
service clvmd startを実行します。例えば:service clvmd start Activating VGs: [ OK ]
[root@example-01 ~]# service clvmd start Activating VGs: [ OK ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Red Hat GFS2 を使用している場合は、
service gfs2 startを実行します。例えば:service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ]
[root@example-01 ~]# service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 高可用性 (HA) サービスを使用している場合は、
service rgmanager startを実行します。例えば:service rgmanager start Starting Cluster Service Manager: [ OK ]
[root@example-01 ~]# service rgmanager start Starting Cluster Service Manager: [ OK ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのクラスターノードで
cman_tool nodesを実行して、ノード群がクラスター内でメンバーとして機能していることを確認します (ステータスカラム "Sts" で "M" として表示)。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのノードで
clustatユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustatはクラスターノード群のステータスを表示します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - クラスターが期待通りに動作している場合は、設定ファイルの作成は終了です。8章コマンドラインツールを使用した Red Hat High Availability アドオンの管理 内に説明してあるコマンドラインツールを使用してクラスターを管理できます。
第8章 コマンドラインツールを使用した Red Hat High Availability アドオンの管理 リンクのコピーリンクがクリップボードにコピーされました!
重要
重要
cluster.conf の要素と属性を参照します。cluster.conf の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html) にある注釈付きスキーマを参照してください。
重要
cman_tool -r コマンドを使用する必要があります。このコマンドを使用するには、ricci が稼働していなければなりません。
注記
8.1. クラスターソフトウェアの起動と停止 リンクのコピーリンクがクリップボードにコピーされました!
8.1.1. クラスターソフトウェアの起動 リンクのコピーリンクがクリップボードにコピーされました!
service cman startservice clvmd start:クラスター化ボリュームの作成に CLVM が使用されている場合service gfs2 start:Red Hat GFS2 を使用している場合service rgmanager start:HA(高可用性)サービス (rgmanager) を使用している場合
8.1.2. クラスターソフトウェアの停止 リンクのコピーリンクがクリップボードにコピーされました!
service rgmanager stop:HA(高可用性)サービス (rgmanager) を使用している場合service gfs2 stop:Red Hat GFS2 を使用している場合umount -at gfs2:rgmanagerと Red Hat GFS2 を使用している場合に、rgmanagerの起動時に、マウントされていた(しかしシャットダウン時にアンマウントされていない)GFS2 ファイルも全てアンマウントされるようにするためです。service clvmd stop:クラスター化ボリュームの作成に CLVM が使用されている場合service cman stop
注記
8.2. ノードの削除と追加 リンクのコピーリンクがクリップボードにコピーされました!
8.2.1. クラスターからのノードの削除 リンクのコピーリンクがクリップボードにコピーされました!
重要
- いずれかのノードで
clusvcadmユーティリティを使用して、クラスターから削除されるノード上で実行している各 HA サービスの再配置/移行/停止を行います。clusvcadmの使用についての詳細は 「高可用性 (HA) サービスの管理」 を参照してください。 - クラスターから削除するノード上で 「クラスターソフトウェアの停止」 に従ってクラスターソフトウェアを停止します。例えば:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - クラスター内のいずれかのノードで
/etc/cluster/cluster.confを編集して、削除するノードのclusternodeセクションを削除します。例えば、例8.1「3 ノードクラスターの設定」 で、node-03.example.com が削除されることになっている場合、そのノードのclusternodeセクションを削除します。ノード (群) の削除によりクラスターが 2 ノードクラスターになる場合、設定ファイルに以下の行を追加することで単一ノードが定足数を維持できるようにします (例えば 1 つのノードが失敗した場合):<cman two_node="1" expected_votes="1"/>3 ノードと 2 ノードの設定の比較は、 「3 ノードと 2 ノードの設定サンプル」 を参照してください。 config_version属性を更新するには、値を増加します (例えば、config_version="2"からconfig_version="3">へ変更)。/etc/cluster/cluster.confを保存します。- (オプション)
ccs_config_validateコマンドを実行してクラスタースキーマ (cluster.rng) に対して更新したファイルを検証します。例えば:ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow cman_tool version -rコマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- クラスターのノード数を 2 つを超えるノードから 2 つのノードに変更した場合は、以下のようにしてクラスターソフトウェアを再起動しなければなりません:
- 各ノードで 「クラスターソフトウェアの停止」 に従ってクラスターソフトウェアを停止します。例えば:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 各ノードで 「クラスターソフトウェアの起動」 に従ってクラスターソフトウェアを起動します。例えば:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのクラスターノードで
cman_tool nodesを実行して、ノード群がクラスター内のメンバーとして機能していることを確認します (ステータスカラム "Sts" 内で "M" として表示)。例えば:cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com
[root@example-01 ~]# cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのノードで
clustatユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustatはクラスターノード群のステータスを表示します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow
8.2.2. クラスターへのノードの追加 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター内のいずれかのノードで
/etc/cluster/cluster.confを編集して、追加されるノード用にclusternodeセクションを追加します。例えば、例8.2「2 ノードクラスターの設定」 で、node-03.example.com が追加されることになっている場合、そのノードにclusternodeを追加します。ノード (群) の追加により 2 ノードクラスターから 3 つ以上のノードを持つクラスターへクラスターが遷移する場合、以下のcman属性を/etc/cluster/cluster.confから削除します:cman two_node="1"expected_votes="1"
3 ノードと 2 ノードの設定の比較は、 「3 ノードと 2 ノードの設定サンプル」 を参照してください。 config_version属性を更新するには、値を増加します (例えば、config_version="2"からconfig_version="3">へ変更)。/etc/cluster/cluster.confを保存します。- (オプション)
ccs_config_validateコマンドを実行してクラスタースキーマ (cluster.rng) に対して更新したファイルを検証します。例えば:ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow cman_tool version -rコマンドを実行して、設定をクラスターノードの残り部分へ伝播します。- 更新した設定ファイルが伝播されたことを確認します。
- 更新した設定ファイルを、クラスターに追加する各ノード内の
/etc/cluster/に伝播します。例えば、scpコマンドを使用して、更新した設定ファイルをクラスターに追加する各ノードへ送信します。 - クラスターのノード数が 2 つのノードから 2 つを超えるノードに遷移した場合は、以下のようにして既存のクラスターノード群内のクラスターソフトウェアを再起動しなければなりません:
- 各ノードで 「クラスターソフトウェアの停止」 に従ってクラスターソフトウェアを停止します。例えば:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 各ノードで 「クラスターソフトウェアの起動」 に従ってクラスターソフトウェアを起動します。例えば:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- クラスターに追加する各ノードで 「クラスターソフトウェアの起動」 に従って、クラスターソフトウェアを起動します。例えば:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのノードで
clustatユーティリティを使用して、それぞれ追加したノードがクラスターの一部として稼働していることを確認します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow clustatの使用についての詳細は、「高可用性 (HA) サービスの管理」 を参照してください。また、cman_tool statusを使用して、ノードの投票数、ノード数、定足数を確認することもできます。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのノードで
clusvcadmユーティリティを使用して、実行中のサービスを新規に参加したノードに移行/再配置できます。また、無効になっているサービスも有効にすることができます。clusvcadmの使用についての詳細は 「高可用性 (HA) サービスの管理」 をご覧ください。
8.2.3. 3 ノードと 2 ノードの設定サンプル リンクのコピーリンクがクリップボードにコピーされました!
例8.1 3 ノードクラスターの設定
例8.2 2 ノードクラスターの設定
8.3. 高可用性 (HA) サービスの管理 リンクのコピーリンクがクリップボードにコピーされました!
clustat と Cluster User Service Administration Utility である clusvcadm を使用します。clustat はクラスターのステータスを表示し、clusvcadm は高可用性サービスを管理する手段を提供します。
clustat と clusvcadm コマンドを使用した HA サービスの管理についての基本情報を提供しています。以下のようなサブセクションで構成されています:
8.3.1. clustat を使用した HA サービスステータスの表示 リンクのコピーリンクがクリップボードにコピーされました!
clustat はクラスター全域のステータスを表示します。メンバーシップ情報、定足数表示、全ての高可用性サービスの状態を表示して、clustat コマンドが実行されているノード (ローカル) を示します。表8.1「サービスのステータス」 はサービスがなり得る状態と clustat を実行している時に表示される状態を説明しています。例8.3「clustat の表示」 は、clustat 表示の例を示しています。clustat コマンドの実行に関する詳細情報は、clustat の man ページを参照してください。
| サービスのステータス | 説明 |
|---|---|
| サービスリソースは設定されており、サービスを所有するクラスターシステム上で利用可能です。 | |
| サービスは別のノード上で開始待ちです。 | |
| サービスは無効になっており、割り当てられている所有者はいません。クラスターにより無効なサービスが自動的に再起動されることはありません。 | |
| 停止した状態で、サービスは、次のサービス又はノードの遷移後に起動するかどうか評価されます。これは一時的な状態です。この状態からサービスを無効/有効にすることができます。 | |
サービスは dead と判定されます。リソースの 停止 動作が失敗するとサービスは常にこの状態になります。サービスがこの状態になった後は、disable 要求を発行する前に、割り振られたリソース (例えば、マウント済みのファイルシステム) が存在しないことを確認しなければなりません。サービスがこの状態になった時に実行できる唯一の操作は disable です。 | |
この状態はスタートアップと clustat -f の実行中に特定のケースで出現します。 |
例8.3 clustat の表示
8.3.2. clusvcadm を使用した HA サービスの管理 リンクのコピーリンクがクリップボードにコピーされました!
clusvcadm コマンドを使用して HA サービスを管理できます。これを使うと以下の操作を実行できます:
- サービスの有効と起動
- サービスの無効化
- サービスの停止
- サービスの凍結
- サービスの凍結解除
- サービスの移行(仮想マシンサービス用のみ)
- サービスの再配置
- サービスの再起動
clusvcadm ユーティリティの man ページを参照してください。
| サービスの操作 | 説明 | コマンドの構文 |
|---|---|---|
サービスを起動します。オプションとして優先ターゲット上、及びフェイルオーバードメインのルールに従って行うことができます。どちらのオプションもない場合は、clusvcadm が実行するローカルホストがサービスを起動します。元々の 起動 が失敗した場合、サービスは 再配置 操作が要求されたかのように動作します (この表の を参照)。動作が成功すると、サービスは起動した状態になります。 | clusvcadm -e <service_name> 又は clusvcadm -e <service_name> -m <member> ( -m オプションを使用すると、サービスを開始する優先ターゲットメンバーを指定します。 | |
| サービスを停止して無効の状態にします。これは、サービスが 停止 状態にある時に許可される唯一の操作です。 | clusvcadm -d <service_name> | |
サービスを別のノードに移動します。オプションとして、サービスを受信するための優先ノードを指定できます。しかし、サービスがホスト上で実行できないこと(例えば、サービスが起動に失敗、又はホストがオフライン)により再配置が起こらないわけではなく、別のノードが選択されます。rgmanager はクラスター内の全ての許可されたノード上でサービスの起動を試みます。クラスター内の許可されたターゲットノードがサービスを正しく起動できない場合は、再配置は失敗となりサービスはオリジナルの所有者で再起動を試行します。オリジナルの所有者がサービスを再起動できない場合は、サービスは 停止 状態になります。 | clusvcadm -r <service_name> 又は clusvcadm -r <service_name> -m <member> ( -m オプションを使用すると、サービスを起動する優先ターゲットメンバーを指定します。) | |
| サービスを停止して、停止 状態にします。 | clusvcadm -s <service_name> | |
| 現在稼働しているノード上のサービスを凍結します。これにより、ノードが失敗又は rgmanager が停止した場合に、サービスのステータスチェックとフェイルオーバーは阻止されます。この機能を使用することで、サービスをサスペンドして基となるリソースをメンテナンスできます。freeze と unfreeze の操作を使用する上での重要な情報は、「Freeze と Unfreeze の操作時の注意事項」 を参照してください。 | clusvcadm -Z <service_name> | |
| サービスを 凍結 状態から解除します。これによりステータスチェックを再度有効にします。freeze と unfreeze の操作を使用する上で重要な情報は、「Freeze と Unfreeze の操作時の注意事項」 を参照してください。 | clusvcadm -U <service_name> | |
| 仮想マシンを別のノードに移行します。ターゲットノードを指定してください。移行時の障害の内容によって、仮想マシンは 失敗 状態になるか、オリジナルの所有者上で起動した状態になる場合があります。 | clusvcadm -M <service_name> -m <member> 重要
移行 操作には、 -m <member> オプションを使用してターゲットノードを 指定しなければなりません。
| |
| 現在稼働しているノード上でサービスを再起動します。 | clusvcadm -R <service_name> |
Freeze と Unfreeze の操作時の注意事項 リンクのコピーリンクがクリップボードにコピーされました!
rgmanager サービスの一部をメンテナンスできます。例えば、1 つの rgmanager サービス内にデータベースとウェブサーバーがある場合、rgmanager サービスの凍結、データベースの停止、メンテナンス、データベースの再起動、サービスの凍結解除が可能になります。
- Status チェックは無効です。
- Start 操作は無効です。
- Stop 操作は無効です。
- (サービス所有者を電源オフにしても) フェイルオーバーは起こりません
重要
- rgmanager の再起動の前にホストをリブートする予定でない限りは、サービスの凍結時に rgmanager の全てのインスタンスを停止 しないでください。
- 報告を受けたサービス所有者がクラスターに再参加して rgmanager を再起動するまでは、サービスを凍結解除 しないでください。
8.4. 設定の更新 リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf) を編集して、それをクラスター内の各ノードへ伝播します。設定を更新するには、以下のいずれかの手順を使用します:
8.4.1. cman_tool version -r を使用した設定の更新 リンクのコピーリンクがクリップボードにコピーされました!
cman_tool version -r コマンドを使用して設定を更新するには、以下の手順を実行します:
- クラスター内のいずれかのノードで
/etc/cluster/cluster.confファイルを編集します。 - 値を増加することにより
config_version属性を更新します (例えば、config_version="2"からconfig_version="3"へ変更)。 /etc/cluster/cluster.confを保存します。cman_tool version -rコマンドを実行して、設定をクラスターノードの残り部分へ伝播します。更新したクラスター設定情報を伝播できるようにするには、 各クラスターノードでricciが稼働している必要があります。- 更新された
cluster.conf設定が伝達されていることを確認します。伝達されていない場合、scpコマンドを使用してそれを各クラスターノード内の/etc/cluster/に伝達します。 - 以下の設定のみを変更した場合は、このステップ (クラスターソフトウェアの再起動) を省略できます:
- クラスター設定からノードを削除 — 2 つを超えるノードから 2 つのノードに変更する場合 以外。クラスターからノードを削除する方法と 2 つを超えるノードから 2 つのノードに遷移する方法についての詳細は、「ノードの削除と追加」 を参照してください。
- クラスター設定にノードを追加 — 2 つのノードから 2 つを超えるノードに変更する場合 以外。クラスターにノードを追加する方法と 2 ノードから 2 つを超えるノードに遷移する方法についての詳細は、「クラスターへのノードの追加」 を参照してください。
- デーモンが情報をログする方法の変更
- HA サービス/VM メンテナンス (追加、編集、又は削除)
- リソースメンテナンス (追加、編集、又は削除)
- フェイルオーバードメインのメンテナンス (追加、編集、又は削除)
これら以外は、以下のようにしてクラスターソフトウェアを再起動する必要があります:- 各ノードで 「クラスターソフトウェアの停止」 にしたがってクラスターソフトウェアを停止します。
- 各ノードで 「クラスターソフトウェアの起動」 にしたがってクラスターソフトウェアを起動します。
クラスターソフトウェアを停止して起動することで、スタートアップ時にのみチェックされる設定の変更が確実に実行中の設定に含まれるようになります。 - いずれかのクラスターノードで
cman_tool nodesを実行して、ノード群がクラスター内のメンバーとして機能していることを確認します (ステータスカラム "Sts" 内で "M" として表示)。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのノードで
clustatユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustatはクラスターノード群のステータスを表示します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - クラスターが期待通りに動作している場合は、設定の更新は終了です。
8.4.2. scp を使用した設定の更新 リンクのコピーリンクがクリップボードにコピーされました!
scp コマンドを使用して設定を更新するには、以下の手順を実行します:
- クラスター内のいずれかのノードで
/etc/cluster/cluster.confファイルを編集します。 config_version属性を更新するには、値を増加します (例えば、config_version="2"からconfig_version="3">へ変更)。/etc/cluster/cluster.confを保存します。ccs_config_validateコマンドを実行することで、クラスタースキーマ (cluster.rng) に対して更新ファイルの妥当性検証をします。例えば:ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 更新したファイルが有効である場合、
scpコマンドを使用してそれを各クラスターノード内の/etc/cluster/に伝播します。 - 更新した設定ファイルが伝播されたことを確認します。
- 新しい設定をリロードするには、クラスターノードのいずれかで以下のコマンドを実行します。
cman_tool version -r
cman_tool version -rCopy to Clipboard Copied! Toggle word wrap Toggle overflow ricciがインストールされていない場合、以下のコマンドを使うことができます。cman_tool version -s
cman_tool version -sCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 以下の設定のみを変更した場合は、このステップ (クラスターソフトウェアの再起動) を省略できます:
- クラスター設定からノードを削除 — 2 つを超えるノードから 2 つのノードに変更する場合 以外。クラスターからノードを削除する方法と 2 つを超えるノードから 2 つのノードに遷移する方法についての詳細は、「ノードの削除と追加」 を参照してください。
- クラスター設定にノードを追加 — 2 つのノードから 2 つを超えるノードに変更する場合 以外。クラスターにノードを追加する方法と 2 ノードから 2 つを超えるノードに遷移する方法についての詳細は、「クラスターへのノードの追加」 を参照してください。
- デーモンが情報をログする方法の変更
- HA サービス/VM メンテナンス (追加、編集、又は削除)
- リソースメンテナンス (追加、編集、又は削除)
- フェイルオーバードメインのメンテナンス (追加、編集、又は削除)
これら以外は、以下のようにしてクラスターソフトウェアを再起動する必要があります:- 各ノードで 「クラスターソフトウェアの停止」 にしたがってクラスターソフトウェアを停止します。
- 各ノードで 「クラスターソフトウェアの起動」 にしたがってクラスターソフトウェアを起動します。
クラスターソフトウェアを停止して起動することで、スタートアップ時にのみチェックされる設定の変更が確実に実行中の設定に含まれるようになります。 - ノードがクラスター内でメンバーとして機能しており、HA サービスが期待どおりに稼働していることを確認します。
- いずれかのクラスターノードで
cman_tool nodesを実行して、ノード群がクラスター内のメンバーとして機能していることを確認します (ステータスカラム "Sts" 内で "M" として表示)。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - いずれかのノードで
clustatユーティリティを使用して、HA サービスが期待どおりに稼働していることを確認します。さらに、clustatはクラスターノード群のステータスを表示します。例えば:Copy to Clipboard Copied! Toggle word wrap Toggle overflow
クラスターが期待通りに動作している場合は、設定の更新は終了です。
第9章 クラスター内の問題の診断と修正 リンクのコピーリンクがクリップボードにコピーされました!
9.1. 設定の変更が反映されない リンクのコピーリンクがクリップボードにコピーされました!
- Conga を使用してクラスターを設定する場合、変更を適用すると自動的に Conga が変更を伝播します。
ccsコマンドを使用してクラスター設定に変更を伝播する詳細については、「クラスタノード群への設定ファイルの伝播」 を参照してください。- コマンドラインツールを使用してクラスター設定に変更を伝播する詳細については、「設定の更新」 を参照してください。
- クラスター設定からノードを削除 — 2 つを超えるノードから 2 つのノードに変更する場合 以外
- クラスター設定にノードを追加 — 2 つのノードから 2 つを超えるノードに変更する場合 以外
- ロギング設定を変更
- HA サービス又は VM コンポーネントを追加、編集、又は削除
- クラスターリソースを追加、編集、又は削除
- フェイルオーバードメインを追加、修正、及び削除
- クラスター設定ファイルから
two_nodeオプションを追加又は削除 - クラスター名を変更
corosync又はopenaisのタイマーを変更- quorum disk に対するヒューリスティックの追加/変更/削除、quorum disk タイマーの変更、quorum disk デバイスの変更。これらの変更を反映させるには、
qdiskdデーモンをグローバルで再起動する必要があります。 rgmanagerのcentral_processingモードを変更。この変更を反映させるには、rgmanagerをグローバルで再起動する必要があります。- マルチキャストアドレスを変更
- トランスポートモードを UDP マルチキャストから UDP ユニキャストへ切り替え、又は UDP ユニキャストから UDP マルチキャストへ切り替え
ccs コマンド、又はコマンドラインツールを使用してクラスターを再起動することができます。
- Conga を使用したクラスターの再起動については、「クラスターの起動、停止、再起動、削除」 を参照してください。
ccsコマンドを使用したクラスターの再起動については、「クラスターの起動と停止」 を参照してください。- コマンドラインツールを使用したクラスターの再起動については、「クラスターソフトウェアの起動と停止」 を参照してください。
9.2. クラスターを構成できない リンクのコピーリンクがクリップボードにコピーされました!
- 名前解決が正しく設定されていることを確認します。
cluster.confファイル内のクラスターノード名は、そのクラスターが通信に使用するネットワーク上でクラスターのアドレスを解決するために使用する名前と一致する必要があります。例えば、クラスターノード名がnodeaとnodebである場合、両方のノードが/etc/cluster/cluster.confファイルと/etc/hostsファイル内にそれらの名前にマッチするエントリを持っていることを確認してください。 - クラスターがノード間の通信にマルチキャストを使用する場合は、マルチキャストトラフィックがブロックされていないこと、遅延されていないこと、クラスターが通信に使用するネットワークで妨害されていないことを確認してください。一部の Cisco スイッチには、マルチキャストトラフィックで遅延の原因になる機能がある点に注意してください。
telnet又はSSHを使用して、リモートノードに到達するかどうか確認します。ethtool eth1 | grep linkコマンドを実行して、イーサネットリンクが有効であるかをチェックします。- 各ノードで
tcpdumpコマンドを使用して、ネットワークトラフィックをチェックします。 - ノード間でファイアウォールルールが通信をブロックしていないことを確認します。
- インターノード通信にクラスターが使用するインターフェースが 0、1、2 以外のボンディングモードを使用していないことを確認します (ボンディングモード 0 と 2 は Red Hat Enterprise Linux 6.4 よりサポートされています)。
9.3. フェンス後/再起動後にノードがクラスターに再参加できない リンクのコピーリンクがクリップボードにコピーされました!
- Cisco Catalyst スイッチを経由してトラフィックを送っているクラスターはこの問題に遭遇する可能性があります。
- 全てのクラスターノードに同じバージョンの
cluster.confファイルがあることを確認します。cluster.confファイルがいずれかのノードで異なる場合は、それらのノードはフェンス後にクラスターに参加できない可能性があります。Red Hat Enterprise Linux 6.1 以降、以下のコマンドを使用すると、ホストのクラスター設定ファイル内で指定された全てのノードに同一のクラスター設定ファイルがあることを確認できます:ccs -h host --checkconf
ccs -h host --checkconfCopy to Clipboard Copied! Toggle word wrap Toggle overflow ccsコマンドに関する詳細情報は、5章ccs コマンドを使用した Red Hat High Availability アドオンの設定 と 6章Red Hat High Availability アドオンを使用した ccs の管理 をご覧ください。 - クラスターへの参加を試行しているノード内のクラスターサービスに
chkconfig onを設定していることを確認してください。 - ファイアウォールルールによって、ノードとクラスター内の他のノードとの通信がブロックされていないことを確認します。
9.4. クラスターデーモンがクラッシュする リンクのコピーリンクがクリップボードにコピーされました!
rgmanager プロセスが予期せず失敗した場合にホストを再起動するウォッチドッグプロセスがあります。これにより、クラスターノードはフェンスされ、rgmanager は別のホスト上でサービスを回復します。ウォッチドッグデーモンがメインの rgmanager プロセスがクラッシュしたことを検出すると、クラスターノードを再起動します。そして、アクティブなクラスターノードはそのクラスターノードが離脱したことを検出して、それをクラスターから削除します。
gcore を使用して数値の高い PID 番号を持つプロセスのコアをキャプチャーして、クラッシュしたデーモンのトラブルシューティングのサポートをします。
rgmanager 及び rgmanager-debuginfo が同一バージョンであることを確認してください。これが実行されないと、キャプチャされたアプリケーションコアが使用できない場合があります。
yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo
$ yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo
9.4.1. ランタイムでの rgmanager コアのキャプチャ リンクのコピーリンクがクリップボードにコピーされました!
rgmanager プロセスが 2 つあります。番号が大きい PID を持つ rgmanager プロセスのコアをキャプチャする必要があります。
ps コマンドの出力の例です。rgmanager の 2 つのプロセスを示しています。
pidof プログラムは、コアを作成するために適切な PID である、番号が大きい PID を自動的に決定するために使用されます。このコマンドは、PID 番号が大きいプロセス 22483 のアプリケーションコアをキャプチャします。
gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
$ gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
9.4.2. デーモンクラッシュ時のコアのキャプチャ リンクのコピーリンクがクリップボードにコピーされました!
/etc/init.d/functions スクリプトは /etc/init.d/rgmanager により呼び出されたデーモンからのコアファイルをブロックします。デーモンがアプリケーションコアを作成する場合は、そのオプションを有効にする必要があります。この手順は、キャプチャされたアプリケーションコアを必要とする全クラスターノード上で行わなければなりません。
/etc/sysconfig/cluster ファイルを編集します。DAEMONCOREFILELIMIT パラメーターで、プロセスがクラッシュした場合にデーモンがコアファイルを作成できるようにします。-w オプションというものがあり、これは監視プロセスが実行されないようにします。監視デーモンは、rgmanager がクラッシュした場合、(場合によっては) 監視デーモンが実行されているのにコアファイルが作成されない場合にクラスターノードを再起動するため、コアファイルのキャプチャーは無効にする必要があります。
DAEMONCOREFILELIMIT="unlimited" RGMGR_OPTS="-w"
DAEMONCOREFILELIMIT="unlimited"
RGMGR_OPTS="-w"
service rgmanager restart
service rgmanager restart
注記
rgmanager プロセスのクラッシュにより生成された場合に書き込まれます。
ls /core*
ls /core*
/core.11926
/core.11926
rgmanager を再起動する前に、/ ディレクトリ下にある全ての古いファイルを移動もしくは削除してください。rgmanager クラッシュを経験したクラスターノードは、ウォッチドッグプロセスが実行していないことを確認するためにコアがキャプチャされた後、再起動又はフェンスされることになります。
9.4.3. gdb バックトレースセッションの記録 リンクのコピーリンクがクリップボードにコピーされました!
gdb を使用してその内容を閲覧できます。影響を受けたシステムからコアファイルの gdb のスクリプトセッションを記録するには、以下のコマンドを実行します。
script /tmp/gdb-rgmanager.txt gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
$ script /tmp/gdb-rgmanager.txt
$ gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
gdb セッションが開始され、script によりそれを適切なテキストファイルに記録します。gdb で、以下のコマンドを実行します。
(gdb) thread apply all bt full (gdb) quit
(gdb) thread apply all bt full
(gdb) quit
ctrl-D を押すと、スクリプトセッションを停止し、それをテキストファイルに保存します。
9.5. クラスターサービスがハングする リンクのコピーリンクがクリップボードにコピーされました!
- クラスターがノードのフェンスを試行して、フェンス動作が失敗した可能性があります。
- 全てのノード上で
/var/log/messagesファイルを検証して、フェンス障害のメッセージがあるかどうかチェックします。もしあれば、クラスター内のノード群を再起動して、フェンシングを正しく設定します。 - 「2 ノードクラスターの各ノードが片方のノードの停止を報告する」 の説明のように、ネットワークパーティションが発生しなかったことを確認します。また、ノード間の通信が引き続き可能であり、ネットワークが有効であることを確認します。
- 一部のノードがクラスターから離脱すると、残りのノード群は定足数に足りなくなる場合があります。クラスターは機能するために定足数が必要です。ノードが削除されてクラスターが定足数を満たさなくなると、サービスとストレージはハングします。期待投票数を調節するか、必要な数のノードをクラスターに戻します。
注記
fence_node コマンド又は Conga を使用して手動でノードをフェンスすることができます。詳細は fence_node の man ページ及び 「ノードのクラスターに対する離脱/参加」 を参照してください。
9.6. クラスターサービスが起動しない リンクのコピーリンクがクリップボードにコピーされました!
cluster.confファイル内のサービス設定に構文エラーがある可能性があります。rg_testコマンドを使用すると、設定の構文を検証できます。設定や構文に間違いがある場合は、rg_testが問題を知らせてくれます。rg_test test /etc/cluster/cluster.conf start service servicename
$ rg_test test /etc/cluster/cluster.conf start service servicenameCopy to Clipboard Copied! Toggle word wrap Toggle overflow rg_testコマンドに関する詳細情報は、「サービスとリソース順序へのデバッグとテスト」 をご覧ください。設定が有効ならば、リソースグループマネージャーのロギングを増加してメッセージログを読むことにより、サービスの失敗となる原因を判定します。ログレベルを増加するには、loglevel="7"パラメーターをcluster.confファイル内のrmタグに追加します。そうすると、クラスター化サービスの起動、停止、移行に関するメッセージログをより詳細に表示することができます。
9.7. クラスターが制御するサービスが移行に失敗する リンクのコピーリンクがクリップボードにコピーされました!
- サービス実行に必要なクラスター内の全ノード上に、そのサービスの実行に必要なリソースが存在することを確認します。例えば、クラスター化したサービスが、スクリプトファイルが特定の場所にある、あるいはファイルシステムが特定のマウントポイントでマウントされていると仮定する場合、これらのリソースがクラスター内の全ノード上の予期される位置で利用可能であることを確認しなければなりません。
- フェイルオーバードメイン、サービスの依存関係、サービスの独占性が、期待通りにサービスをノードに移行できない方法で設定されていないことを確認します。
- 問題となるサービスが仮想マシンのリソースである場合、ドキュメントをチェックして、正しい設定作業がすべて完了していることを確認します。
- 「クラスターサービスが起動しない」 で説明してあるように、リソースグループマネージャーのログを増やします。その後、メッセージログを読み取り、移行する際にサービス起動が失敗する原因を割り出します。
9.8. 2 ノードクラスターの各ノードが片方のノードの停止を報告する リンクのコピーリンクがクリップボードにコピーされました!
9.9. LUN パス障害でノードがフェンスされる リンクのコピーリンクがクリップボードにコピーされました!
9.10. Quorum disk がクラスターメンバーとして表示されない リンクのコピーリンクがクリップボードにコピーされました!
qdiskサービスにchkconfig onがセットされていることを確認します。qdiskサービスを開始したことを確認します。- なお、quorum disk がクラスターに登録されるには数分かかります。これは通常の起こりうる動作です。
9.11. 異常なフェイルオーバーの動作 リンクのコピーリンクがクリップボードにコピーされました!
9.12. フェンシングがランダムに発生する リンクのコピーリンクがクリップボードにコピーされました!
- フェンスの根本的な原因は 常に トークンを紛失するノードです。これは、ノードがクラスターの残りと通信ができなくなり、ハートビートの送信を停止するという意味です。
- 指定されたトークンの間隔内にシステムがハートビートを返さない状況は、いずれもフェンスにつながります。デフォルトではトークンの間隔は 10 秒です。これを指定するには、任意の値 (ミリ秒単位) を
cluster.confファイル内の totem タグのトークンパラメーターに追加します (例えば 30 秒の場合はtotem token="30000"とセット)。 - ネットワークが健全で期待通りに機能していることを確認します。
- インターノード通信にクラスターが使用するインターフェースが 0、1、2 以外のボンディングモードを使用していないことを確認します (ボンディングモード 0 と 2 は Red Hat Enterprise Linux 6.4 よりサポートされています)。
- システムが「凍結」又はカーネルパニックを起こしていないかどうか判定する手段を取ります。
kdumpユーティリティをセットアップして、フェンスの発生時にコアを取得するかどうか確認します。 - 誤ってフェンスに原因があるというような状況を作り出さないようにしてください。例えば、ストレージ障害が原因で quorum disk がノードを取り出す場合や、何らかの外部条件が理由で Oracle RAC のようなサードパーティ製品がノードを再起動するような場合です。多くの場合、そのような問題の特定にはメッセージログが非常に役立ちます。フェンス又はノードの再起動が発生すると常に、発生した時点からクラスター内の全ノードのメッセージログを検査することを標準的な作業として行ってください。
- 予定している時にシステムのハートビートの応答がない原因となるハードウェア欠陥がないか、システムを徹底的に検査します。
9.13. DLM (分散ロックマネージャー) のデバッグログは有効にする リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf ファイルを編集して、設定オプションを dlm タグに追加します。log_debug オプションは DLM カーネルデバッグメッセージを有効にし、plock_debug オプションは POSIX ロックデバッグメッセージを有効にします。
/etc/cluster/cluster.conf ファイル内のセクションは、両方の DLM デバッグオプションを有効にする dlm タグを示しています。
/etc/cluster/cluster.conf ファイルの編集後、cman_tool version -r コマンドを実行して残りのクラスターノードに設定を伝播します。
第10章 Red Hat High Availability アドオンを使用した SNMP の設定 リンクのコピーリンクがクリップボードにコピーされました!
10.1. SNMP と Red Hat High Availability アドオン リンクのコピーリンクがクリップボードにコピーされました!
foghorn で、SNMP トラップを送信します。foghorn サブエージェントは、AgentX プロトコルを介して snmpd デーモンと通信します。 foghorn サブエージェントは SNMP トラップを作成するだけで、get や set など他の SNMP 動作はサポートしません。
foghorn サブエージェントに config オプションはなく、ある特定のソケットを使用するための設定を行うことができません。デフォルトの AgentX ソケットのみが現在サポートされています。
10.2. Red Hat High Availability アドオンを使用した SNMP の設定 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat High Availability アドオンで SNMP トラップを使用するには、
snmpdサービスが必要となり、これはマスターエージェントの役割をします。foghornサービスはサブエージェントであり、AgentX プロトコルを使用するため、以下の行を/etc/snmp/snmpd.confファイルに追加して、AgentX サポートを有効にする必要があります。master agentx
master agentxCopy to Clipboard Copied! Toggle word wrap Toggle overflow - SNMP トラップ通知の送信先となるホストを指定するには、以下の行を
/etc/snmp/snmpd.confファイルに追加します:trap2sink host
trap2sink hostCopy to Clipboard Copied! Toggle word wrap Toggle overflow 通知の処理方法に関する詳細はsnmpd.confの man ページをご覧ください。 - 以下のコマンド群を実行して
snmpdデーモンが有効かつ稼働していることを確認します:chkconfig snmpd on service snmpd start
# chkconfig snmpd on # service snmpd startCopy to Clipboard Copied! Toggle word wrap Toggle overflow messagebusデーモンがまだ有効でなく稼働していない場合は、以下のコマンド群を実行します:chkconfig messagebus on service messagebus start
# chkconfig messagebus on # service messagebus startCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 以下のコマンド群を実行して
foghornデーモンが有効で稼働していることを確認します:chkconfig foghorn on service foghorn start
# chkconfig foghorn on # service foghorn startCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 以下のコマンドを実行して、
COROSYNC-MIBが SNMP トラップを生成するようにシステムを設定し、corosync-notifydデーモンが有効かつ実行しているようにします。echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd chkconfig corosync-notifyd on service corosync-notifyd start
# echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd # chkconfig corosync-notifyd on # service corosync-notifyd startCopy to Clipboard Copied! Toggle word wrap Toggle overflow
foghorn サービスから D-bus 信号を受信し、SNMPv2 トラップに解釈されます。その後、これらのトラップは、trapsink エントリで定義しているホストに渡されて SNMPv2 トラップを受信します。
10.3. SNMP トラップの転送 リンクのコピーリンクがクリップボードにコピーされました!
snmptrapd デーモンを使用して、通知に対する応答方法をカスタマイズできます。
- クラスター内の各ノードに対して、「Red Hat High Availability アドオンを使用した SNMP の設定」 で説明してある手順を実行します。
/etc/snmp/snmpd.confファイル内のtrap2sink hostエントリをセットして、snmptrapdデーモンを実行することになる外部ホストを指定します。 - トラップを受信する外部ホスト上で、
/etc/snmp/snmptrapd.conf設定ファイルを編集して使用しているコミュニティ文字列を指定します。例えば、以下のエントリを使用して、snmptrapdデーモンがpublicコミュニティ文字列を使用して通知を処理できるようにします。authCommunity log,execute,net public
authCommunity log,execute,net publicCopy to Clipboard Copied! Toggle word wrap Toggle overflow - トラップを受信する外部ホスト上で以下のコマンド群を実行して、
snmptrapdデーモンが有効で稼働中であることを確認します:chkconfig snmptrapd on service snmptrapd start
# chkconfig snmptrapd on # service snmptrapd startCopy to Clipboard Copied! Toggle word wrap Toggle overflow
snmptrapd.conf の man ページをご覧ください。
10.4. Red Hat High Availability アドオンにより生成される SNMP トラップ リンクのコピーリンクがクリップボードにコピーされました!
foghorn デーモンは以下のトラップを生成します:
fenceNotifyFenceNodeこのトラップは、フェンス済みのノードが別のノードへのフェンスを試行する度に発生します。このトラップは 1 つのノード上(フェンス操作を試みたノード)でのみ生成される点に注意してください。この通知には以下のフィールドが含まれます:fenceNodeName- フェンス済みノードの名前fenceNodeID- フェンス済みノードのノード idfenceResult- フェンス操作の結果(0 は成功、-1 は問題あり、-2 はフェンシングメソッド定義なし)
rgmanagerServiceStateChangeこのトラップは、クラスターサービスの状態が変化した時に発生します。この通知には以下のフィールドが含まれます:rgmanagerServiceName- サービスの名前、これにはサービスタイプ(例えばservice:fooやvm:foo)が含まれます。rgmanagerServiceState- サービスの状態。トラップが複雑にならないように、startingやstoppingなどの遷移状態は除きます。rgmanagerServiceFlags- サービスのフラグ。現在、サポートされているフラグは 2 つです。frozenはclusvcadm -Zを使用して凍結されているサービスを意味します。partialは、失敗したリソースにnon-criticalのフラグが付けられ、リソースが失敗してもそのコンポーネントはサービス全体に影響を与えずに手動で再開始できることを示しています。rgmanagerServiceCurrentOwner- サービスのオーナー。サービスが稼働していない場合は、これは(none)になります。rgmanagerServicePreviousOwner- 既知の場合、前回のサービスオーナー。前回のオーナーが不明である場合は、これは(none)を示します。
corosync-nodifyd デーモンは以下のトラップを生成します:
corosyncNoticesNodeStatusこのトラップはノードがクラスターに参加/離脱する時に発生します。通知には以下のフィールドが含まれます:corosyncObjectsNodeName- ノード名corosyncObjectsNodeID- ノード idcorosyncObjectsNodeAddress- ノード IP アドレスcorosyncObjectsNodeStatus- ノードのステータス (joined又はleft)
corosyncNoticesQuorumStatusこのトラップは quorum の状態が変化した時に発生します。この通知には以下のフィールドが含まれます:corosyncObjectsNodeName- ノード名corosyncObjectsNodeID- ノード idcorosyncObjectsQuorumStatus- quorum の新しい状態 (quorate又はNOT quorate)
corosyncNoticesAppStatusこのトラップはクライアントアプリケーションが Corosync に対して接続/切断した時に発生します。corosyncObjectsNodeName- ノード名corosyncObjectsNodeID- ノード idcorosyncObjectsAppName- アプリケーション名corosyncObjectsAppStatus- アプリケーションの新しい状態 (connected又はdisconnected)
第11章 Clustered Samba の設定 リンクのコピーリンクがクリップボードにコピーされました!
注記
注記
11.1. CTDB の概要 リンクのコピーリンクがクリップボードにコピーされました!
11.2. 必要なパッケージ リンクのコピーリンクがクリップボードにコピーされました!
ctdbsambasamba-commonsamba-winbind-clients
11.3. GFS2 の設定 リンクのコピーリンクがクリップボードにコピーされました!
- Samba 共有でエクスポートされるユーザーデータを保持し、そのデータに合うサイズにする
/dev/csmb_vg/csmb_lv。この例では、100GB サイズの論理ボリュームを作成します。 - 共有の CTDB 状態の情報を格納し、1GB サイズが必要な
/dev/csmb_vg/ctdb_lv。
mkfs.gfs2 コマンドを実行します。このコマンドは 1 クラスターノードのみで実行します。
/dev/csmb_vg/csmb_lv の論理ボリュームで Samba 共有をホストするファイルシステムを作成するには、次のコマンドを実行します。
mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
-j- ファイルシステムで作成するジャーナルの数を指定します。この例では、3 つのノードから成るクラスターを作成します。つまり、ノードごとに 1 つのジャーナルを作成します。
-p- ロッキングプロトコルを指定します。
lock_dlmは GFS2 がノード間通信に使用するロッキングプロトコルです。 -t- ロックテーブル名を cluster_name:fs_name の形式で指定します。この例では、
cluster.confファイルで指定されたクラスター名はcsmbです。ファイルシステム名にはgfs2を使用します。
/dev/csmb_vg/csmb_lv ファイルシステムは全ノードの /mnt/gfs2 にマウントされます。このマウントポイントは、/etc/samba/smb.conf ファイル内で path = オプションを使って share ディレクトリの場所として指定する値と一致する必要があります。詳細は 「Samba の設定」 に記載されています。
/dev/csmb_vg/ctdb_lv 論理ボリュームの CTDB 状態の情報をホストするためにファイルシステムを作成するには、次のコマンドを実行します。
mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state /dev/csmb_vg/ctdb_lv
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state /dev/csmb_vg/ctdb_lv
/dev/csmb_vg/csmb_lv 上にファイルシステムを作成した例のロックテーブル名とは異なります。これで、ファイルシステムに使用される様々なデバイス用のロックテーブル名と区別します。
mkfs.gfs2 の出力は以下のように表示されます。
/dev/csmb_vg/ctdb_lv ファイルシステムは全ノードの /mnt/ctdb にマウントされます。このマウントポイントは、/etc/sysconfig/ctdb ファイル内で CTDB_RECOVERY_LOCK オプションを使って .ctdb.lock ファイルの場所として指定する値と一致する必要があります。詳細は 「CTDB の設定」 に記載されています。
11.4. CTDB の設定 リンクのコピーリンクがクリップボードにコピーされました!
/etc/sysconfig/ctdb にあります。CTDB が動作するよう設定する必要がある必須フィールドは、以下のとおりです。
CTDB_NODESCTDB_PUBLIC_ADDRESSESCTDB_RECOVERY_LOCKCTDB_MANAGES_SAMBA(有効にする必要あり)CTDB_MANAGES_WINBIND(メンバーサーバーで実行する場合は有効にする必要あり)
CTDB_NODES- クラスターノードの一覧を含むファイルの場所を指定します。
CTDB_NODESが参照する/etc/ctdb/nodesファイルには、次の例のようにクラスターノードの IP アドレスが一覧表示されているだけです。192.168.1.151 192.168.1.152 192.168.1.153
192.168.1.151 192.168.1.152 192.168.1.153Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、クラスター/CTDB 通信とクライアントサービスの両方に使用されるインターフェース/IP は各ノードに 1 つだけあります。しかし、各クラスターノードは 2 つのネットワークインターフェースを持つことが強く推奨されます。これにより、インターフェースの 1 セットはクラスター/CTDB 通信専用に、別のインターフェースのセットはパブリッククライアントアクセス専用にできます。クラスターネットワークの適切な IP アドレスを使用し、cluster.confファイル内で使用されているホスト名/IP アドレスが同じであることを確かめてください。同様に、public_addressesファイル内のクライアントアクセスに対してもパブリックネットワークの適切なインターフェースを使用するようにしてください。ここで、極めて重要なことは、/etc/ctdb/nodesファイルが全ノードで全く同一である点です。順番が重要であり、別々のノードで違う情報が見つかると CTDB は失敗します。 CTDB_PUBLIC_ADDRESSES- このクラスターによってエクスポートされる Samba 共有にアクセスするために使用可能な IP アドレスを一覧表示するファイルの場所を指定します。これらは、Clustered Samba サーバー名用に DNS で設定すべき IP アドレスで、CIFS クライアントが接続するアドレスです。Clustered Samba サーバー名を複数の IP アドレスを持つ 1 つの DNS の A レコードタイプとして設定し、ラウンドロビン DNS がクラスターノード全体にクライアントを分散するようにします。この例では、ラウンドロビン DNS エントリ
csmb-serverを/etc/ctdb/public_addressesファイルに一覧表示されている全アドレスで設定しました。DNS はこのエントリを使用するクライアントをクラスター全体にラウンドロビン式で分散します。各ノードの/etc/ctdb/public_addressesファイルの内容は次のとおりです。192.168.1.201/0 eth0 192.168.1.202/0 eth0 192.168.1.203/0 eth0
192.168.1.201/0 eth0 192.168.1.202/0 eth0 192.168.1.203/0 eth0Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、現在ネットワークで使用されていない 3 つのアドレスを使用します。実際に使用する設定では、対象となるクライアントがアクセスできるアドレスを選択してください。もう一つの方法として、この例では、合計 4 つのパブリックアドレスを除いた 3 つのノードがあるクラスター内の/etc/ctdb/public_addressesファイルのコンテンツを表示しています。 以下の例では、IP アドレス 198.162.2.1 は、ノード 0 又はノード 1 のいずれかによってホストでき、これらのノードのうち少なくとも 1 つが利用可能な限りクライアントは使用することができます。ノード 0 とノード 1 の両方に障害があった場合に限り、クライアントはこのパブリックアドレスを使用できなくなります。他のすべてのパブリックアドレスは、それぞれ単一のノードによって機能するため、それぞれ対応するノードも利用可能な場合にのみ使用できます。ノード 0 の/etc/ctdb/public_addressesファイルには次のコンテンツが含まれます。198.162.1.1/24 eth0 198.162.2.1/24 eth1
198.162.1.1/24 eth0 198.162.2.1/24 eth1Copy to Clipboard Copied! Toggle word wrap Toggle overflow ノード 1 の/etc/ctdb/public_addressesファイルには次のコンテンツが含まれます。198.162.2.1/24 eth1 198.162.3.1/24 eth2
198.162.2.1/24 eth1 198.162.3.1/24 eth2Copy to Clipboard Copied! Toggle word wrap Toggle overflow ノード 2 の/etc/ctdb/public_addressesファイルには次のコンテンツが含まれます。198.162.3.2/24 eth2
198.162.3.2/24 eth2Copy to Clipboard Copied! Toggle word wrap Toggle overflow CTDB_RECOVERY_LOCK- CTDB がリカバリ用に内部で使用するロックファイルを指定します。このファイルは、すべてのクラスターノードがアクセスできるように共有ストレージに存在する必要があります。このセクションの例は、全ノードで
/mnt/ctdbにマウントされる GFS2 ファイルシステムを使用します。これは、エクスポートされる Samba 共有をホストする GFS2 ファイルシステムとは異なります。このリカバリロックファイルは、スプリットブレインシナリオを防ぐために使用されます。CTDB (1.0.112 以降) の新しいバージョンでは、このファイルがスプリットブレインを防ぐ別の仕組みで置換されていれば、このファイルの指定はオプションとなります。 CTDB_MANAGES_SAMBA- このフィールドを
yesに設定して有効にする場合、CTDB が Samba サービスの起動/停止を行うことができると指定します。これは、CTDB がサービスの移行/フェイルオーバーを提供するために必要だと考えられているためです。CTDB_MANAGES_SAMBAを有効にしたら、以下のコマンドを実行して、smb及びnmbデーモンのinitの自動スタートアップを無効にしてください。chkconfig snb off chkconfig nmb off
[root@clusmb-01 ~]# chkconfig snb off [root@clusmb-01 ~]# chkconfig nmb offCopy to Clipboard Copied! Toggle word wrap Toggle overflow CTDB_MANAGES_WINBIND- このフィールドを
yesに設定して有効にする場合、必要に応じて CTDB がwinbindデーモンの起動/停止を行うことができると指定します。Windows ドメイン又は Active Directory セキュリティモードで CTDB を使用している場合には、これを有効にすることをお勧めします。CTDB_MANAGES_WINBINDを有効にしたら、次のコマンドを実行して、winbindデーモンのinitの自動スタートアップを無効にしてください。chkconfig windinbd off
[root@clusmb-01 ~]# chkconfig windinbd offCopy to Clipboard Copied! Toggle word wrap Toggle overflow
11.5. Samba の設定 リンクのコピーリンクがクリップボードにコピーされました!
smb.conf は /etc/samba/smb.conf にあります。このファイルには、以下のパラメーターが含まれています。
/mnt/gfs2/share にある csmb と呼ばれる共有をエクスポートします。これは、/etc/sysconfig/ctdb の CTDB 設定ファイル内で CTDB_RECOVERY_LOCK パラメーターとして指定した /mnt/ctdb/.ctdb.lock の GFS2 共有ファイルシステムとは異なります。
/mnt/gfs2 内に share ディレクトリを作成します。clustering = yes エントリは、Samba に CTDB を使用するよう指示します。netbios name = csmb-server エントリは、すべてのノードが NetBIOS の共通名を持つように明示的に設定します。ea support パラメーターは、拡張属性の使用を計画している場合に必要です。
smb.conf 設定ファイルは、全クラスターノードで全く同一でなければなりません。
net conf コマンドを使用したレジストリベースの設定も提供します。これにより、クラスターノード間で設定ファイルを手動でコピーしなくてもクラスターメンバー間で設定が自動的に一致するようにします。 net conf コマンドの詳細については、net(8) の man ページを参照してください。
11.6. CTDB と Samba サービスの起動 リンクのコピーリンクがクリップボードにコピーされました!
share ディレクトリのパーミッション及びクラスターノードのユーザーアカウントを、クライアントアクセス用に設定することをお勧めします。
ctdbd デーモンを起動します。この例では CTDB で CTDB_MANAGES_SAMBA=yes と設定したため、CTDB は全ノードで Samba サービスを起動して、設定済みのすべての Samba 共有をエクスポートします。
service ctdb start
[root@clusmb-01 ~]# service ctdb start
ctdb status を実行すると、以下のように CTDB のステータスが表示されます。
11.7. Clustered Samba サーバーの使用 リンクのコピーリンクがクリップボードにコピーされました!
/etc/ctdb/public_addresses ファイルで指定した IP アドレスの 1 つに接続するか、以前設定した csmb-server DNS エントリを使用することにより、以下のようにクライアントはエクスポートされた Samba 共有に接続できます。
mount -t cifs //csmb-server/csmb /mnt/sambashare -o user=testmonkey
[root@clusmb-01 ~]# mount -t cifs //csmb-server/csmb /mnt/sambashare -o user=testmonkey
smbclient //csmb-server/csmb
[user@clusmb-01 ~]$ smbclient //csmb-server/csmb
付録A フェンスデバイスパラメーター リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドの使用、又は etc/cluster/cluster.conf ファイルの編集により行うことができます。各フェンスエージェントのフェンスデバイスパラメーターの完全な一覧と詳細については、各エージェントの man ページを参照してください。
注記
注記
/etc/cluster/cluster.conf) 内のパスワードが可視化しないようにします。
| フェンスデバイス | フェンスエージェント | パラメーターの詳細についての参照 |
|---|---|---|
| APC Power Switch (telnet/SSH) | fence_apc | 表A.2「APC Power Switch (telnet/SSH)」 |
| APC Power Switch over SNMP | fence_apc_snmp | 表A.3「APC Power Switch over SNMP」 |
| Brocade Fabrid Switch | fence_brocade | 表A.4「Brocade Fabric Switch」 |
| Cisco MDS | fence_cisco_mds | 表A.5「Cisco MDS」 |
| Cisco UCS | fence_cisco_ucs | 表A.6「Cisco UCS」 |
| Dell DRAC 5 | fence_drac5 | 表A.7「Dell DRAC 5」 |
| Eaton Network Power Switch (SNMP Interface) | fence_eaton_snmp | 表A.8「Eaton Network Power Controller (SNMP Interface) (Red Hat Enterprise Linux 6.4 以降)」 |
| Egenera SAN Controller | fence_egenera | 表A.9「Egenera SAN Controller」 |
| ePowerSwitch | fence_eps | 表A.10「ePowerSwitch」 |
| Fence virt | fence_virt | 表A.11「Fence virt」 |
| Fujitsu Siemens Remoteview Service Board (RSB) | fence_rsb | 表A.12「Fujitsu Siemens Remoteview Service Board (RSB)」 |
| HP BladeSystem | fence_hpblade | 表A.13「HP BladeSystem (Red Hat Enterprise Linux 6.4 以降)」 |
| HP iLO (Integrated Lights Out)、HP iLO2 | fence_ilo、fence_ilo2 | 表A.14「HP iLO (Integrated Lights Out) および HP iLO2」 |
| HP iLO (Integrated Lights Out) MP | fence_ilo_mp | 表A.15「HP iLO (Integrated Lights Out) MP」 |
| IBM BladeCenter | fence_bladecenter | 表A.16「IBM BladeCenter」 |
| IBM BladeCenter SNMP | fence_ibmblade | 表A.17「IBM BladeCenter SNMP」 |
| IBM iPDU | fence_ipdu | 表A.18「IBM iPDU (Red Hat Enterprise Linux 6.4 以降)」 |
| IF MIB | fence_ifmib | 表A.19「IF MIB」 |
| Intel Modular | fence_intelmodular | 表A.20「Intel Modular」 |
| IPMI (Intelligent Platform Management Interface) LAN、IBM Integrated Management Module、Dell iDRAC、HPiLO3、HPiLO4. | fence_ipmilan、fence_imm、fence_idrac、fence_ilo3、fence_ilo4 | 表A.21「IPMI (Intelligent Platform Management Interface) LAN、Dell iDrac、IBM Integrated Management Module、HPiLO3、HPiLO4」 |
| RHEV-M REST API | fence_rhevm | 表A.22「RHEV-M REST API (RHEL 6.2 以降及び RHEV 3.0 以降)」 |
| SCSI Fencing | fence_scsi | 表A.23「SCSI 保存フェンシング」 |
| VMware Fencing (SOAP Interface) | fence_vmware_soap | 表A.24「VMware フェンシング (SOAP インターフェース) (Red Hat Enterprise Linux 6.2 以降)」 |
| WTI Power Switch | fence_wti | 表A.25「WTI Power Switch」 |
fence_apc により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | フェンスデーモンが telnet/ssh 経由でログインするクラスターに接続されている APC デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port | port | TCP ポート |
| Switch (optional) | switch | 複数のデイジーチェーンで接続されたスイッチを使用する時に、ノードに接続する APC スイッチのスイッチ番号 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
| Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
| Path to SSH Identity File | identity_file | SSH の識別ファイル |
fence_apc_snmp により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | フェンスデーモンが SNMP プロトコルを介してログインするクラスターに接続されている APC デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| UDP/TCP port | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
| SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
| SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
| SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
| SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
| SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 のパラメーターを上書きします。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | TCP ポート |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_brocade により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続された Brocade デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Port | port | スイッチアウトレット番号 |
| Unfencing | unfence section of the cluster configuration file | これを有効にすると、フェンス済みのノードは再起動されるまでは再度有効になりません。これは、パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) に必要となります。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node(8) の man ページを参照してください。クラスター設定ファイルでのアンフェンシング設定に関する詳細情報は、「フェンシングの設定」 を参照してください。ccs コマンドによるアンフェンシング設定についての情報は、「単一のストレージベースのフェンスデバイスによるノードの設定」 を参照してください。 |
fence_cisco_mds により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | SNMP が有効になっている Cisco MDS 9000 シリーズデバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| UDP/TCP port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3) |
| SNMP Community | community | SNMP コミュニティストリング |
| SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
| SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
| SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
| SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 のパラメーターを上書きします。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | TCP ポート |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_cisco_ucs により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | Cisco UCS デバイス用の名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| IP port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Use SSL | ssl | デバイスとの通信に SSL 接続を使用する |
| Sub-Organization | suborg | サブ組織へのアクセスに必要な追加のパス |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_drac5 により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | DRAC に割り当てられた名前 |
| IP Address or Hostname | ipaddr | DRAC に割り当てられた IP アドレス、又はホスト名 |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | DRAC へのアクセスに使用するログイン名 |
| Password | passwd | DRAC への接続を認証するために使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
| Path to SSH Identity File | identity_file | SSH の識別ファイル |
| Module Name | module_name | 複数の DRAC モジュールを使用する時の DRAC のモジュール名 (オプション) |
| Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’\$’ です。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_eaton_snmp が使用するフェンスデバイスパラメーターを記載しています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続された Eaton ネットワークパワースイッチの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
| SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
| SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
| SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
| SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
| SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 のパラメーターを上書きします。 |
| Power wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号または名前。このパラメーターは常に必須となっています。 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_egenera により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続されている Egenera BladeFrame デバイスの名前 |
| CServer | cserver | デバイスに割り当てられているホスト名 (及び、オプションとして username@hostname 形式のユーザー名)。 詳細情報は、fence_egenera(8) の man ページを参照してください。 |
| ESH Path (optional) | esh | cserver 上の esh コマンドへのパス (デフォルトは /opt/panmgr/bin/esh です)。 |
| Username | user | ログイン名。デフォルト値は root です。 |
| lpan | lpan | デバイスの論理プロセスエリアネットワーク (LPAN) |
| pserver | pserver | デバイスのプロセッシングブレード (pserver) の名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
| Unfencing | unfence section of the cluster configuration file | これを有効にすると、フェンス済みのノードは再起動されるまでは再度有効になりません。これは、パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) に必要となります。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node(8) の man ページを参照してください。クラスター設定ファイルでのアンフェンシング設定に関する詳細情報は、「フェンシングの設定」 を参照してください。ccs コマンドによるアンフェンシング設定についての情報は、「単一のストレージベースのフェンスデバイスによるノードの設定」 を参照してください。 |
fence_eps により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続されている ePowerSwitch デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Name of Hidden Page | hidden_page | デバイス用の非表示ページの名前 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_virt により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | Fence virt フェンスデバイスの名前 |
| Serial Device | serial_device | ホスト上では、シリアルデバイスは各ドメインの設定ファイル内にマップされる必要があります。詳細情報は、fence_virt.conf の man ページをご覧ください。このフィールドを指定した場合は、fence_virt フェンシングエージェントがシリアルモードで実行するようになります。値を指定しないと、fence_virt フェンシングエージェントが VM チャンネルモードで実行するようになります。 |
| Serial Parameters | serial_params | シリアルパラメーター。デフォルトは 115200, 8N1 です。 |
| VM Channel IP Address | channel_address | チャンネル IP。デフォルト値は 10.0.2.179 です。 |
| Port or Domain (deprecated) | port | フェンスする仮想マシン (ドメイン UUID 又は名前) |
ipport | チャンネルポート。デフォルト値は 1229 で、luci でこのフェンスデバイスを設定する時に使用される値です。 |
fence_rsb により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | フェンスデバイスとして使用する RSB の名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられたホスト名 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| TCP Port | ipport | telnet サービスがリッスンするポート番号。デフォルト値は 3172 です。 |
| Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’\$’ です。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_hpblade により使用されるフェンスデバイスパラメーターが記載されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続された HP Bladesystem デバイスに割り当てられた名前 |
| IP Address or Hostname | ipaddr | HP BladeSystem デバイスに割り当てられた IP アドレスまたはホスト名 |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | HP BladeSystem デバイスにアクセスする際に使用するログイン名。このパラメーターは必須です。 |
| Password | passwd | フェンスデバイスへの接続認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’\$’ です。 |
| Missing port returns OFF instead of failure | missing_as_off | ポートがない場合に、問題が発生する代わりに OFF を返します。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
| Path to SSH Identity File | identity_file | SSH の識別ファイル |
fence_ilo および HP iLO2 デバイス fence_ilo2 のフェンスエージェントは、同一実装を共有します。表A.14「HP iLO (Integrated Lights Out) および HP iLO2」 は、これらのエージェントが使用するフェンスデバイスパラメーターを一覧表示しています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | HP iLO サポートがあるサーバーの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_ilo_mp により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | HP iLO サポートがあるサーバーの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
| Path to SSH Identity File | identity_file | SSH の識別ファイル |
| Force Command Prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は ’MP>’, ’hpiLO->’ です。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Delay (seconds) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
fence_bladecenter により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続された IBM BladeCenter デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| IP port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
| Path to SSH Identity File | identity_file | SSH の識別ファイル |
fence_ibmblade により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続された IBM BladeCenter SNMP デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
| SNMP Community | community | SNMP コミュニティストリング |
| SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
| SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
| SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
| SNMP privacy protocol password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 のパラメーターを上書きします。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_ipdu で使用されるフェンスデバイスパラメーターを記載しています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | フェンスデーモンが SNMP プロトコルを介してログインするクラスターに接続されている IBM iPDU デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| UDP/TCP Port | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
| SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
| SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
| SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
| SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
| SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 のパラメーターを上書きします。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_ifmib により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続された IF MIB デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
| SNMP Community | community | SNMP コミュニティストリング |
| SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
| SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
| SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
| SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 のパラメーターを上書きします。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_intelmodular により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続された Intel Modular デバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| UDP/TCP Port (optional) | udpport | デバイスへの接続に使用する UDP/TCP ポート。デフォルト値は 161 です。 |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| SNMP Version | snmp_version | 使用する SNMP バージョン (1、2c、3)。デフォルト値は 1 です。 |
| SNMP Community | community | SNMP コミュニティストリング。デフォルト値は private です。 |
| SNMP Security Level | snmp_sec_level | SNMP セキュリティレベル (noAuthNoPriv、authNoPriv、authPriv) |
| SNMP Authentication Protocol | snmp_auth_prot | SNMP 認証プロトコル (MD5、SHA) |
| SNMP Privacy Protocol | snmp_priv_prot | SNMP プライバシープロトコル (DES、AES) |
| SNMP Privacy Protocol Password | snmp_priv_passwd | SNMP プライバシープロトコルパスワード |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | SNMP プライバシープロトコル用のパスワードを提供するスクリプト。これを使用すると、 のパラメーターを上書きします。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_ipmilan)、Dell iDRAC (fence_idrac)、IBM Integrated Management Module (fence_imm)、HP iLO3 デバイス fence_ilo3、および HP iLO4 デバイス fence_ilo4 のフェンスエージェントは、同一実装を共有します。表A.21「IPMI (Intelligent Platform Management Interface) LAN、Dell iDrac、IBM Integrated Management Module、HPiLO3、HPiLO4」 は、これらのエージェントが使用するフェンスデバイスパラメーターを一覧表示しています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続されるフェンスデバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| Login | login | 所定のポートに対し power on/off コマンドを発行できるユーザーのログイン名 |
| Password | passwd | ポートへの接続の認証に使用されるパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Authentication Type | auth | 認証タイプ: none、password または MD5 |
| Use Lanplus | lanplus | True または 1。空白の場合、値は False になります。ハードウェアが対応している場合、Lanplus を有効にして接続のセキュリティを高めることが推奨されます。 |
| Ciphersuite to use | cipher | IPMIv2 lanplus 接続用に使用するリモートサーバー認証、整合性、及び暗号化アルゴリズム |
| Privilege level | privlvl | デバイスの権限レベル |
| IPMI Operation Timeout | timeout | IPMI オペレーションのタイムアウト (秒単位) |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_rhevm により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | RHEV-M REST API フェンシングデバイス用の名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Use SSL | ssl | デバイスとの通信に SSL 接続を使用する |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Port (Outlet) Number | port | 仮想マシンの物理的なプラグ番号又は名前 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_scsi により使用されるフェンスデバイスパラメーターが一覧表示されています。
注記
- SCSI フェンシングの使用時は、クラスター内の全てのノードは同じデバイスに登録する必要があります。それにより、各ノードが登録されているすべてのデバイスから他のノードの登録キーを削除できます。
- クラスターボリュームに使用されるデバイスは、パーティションではなく、完全な LUN でなければなりません。SCSI 永続予約は LUN 全体で機能するため、アクセスは個別のパーティションではなく各 LUN に対し制御されることになります。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | SCSI フェンスデバイスの名前 |
| Unfencing | unfence section of the cluster configuration file | これを有効にすると、フェンス済みのノードは再起動されるまでは再度有効になりません。これは、パワーフェンス以外のメソッド (つまり、SAN/ストレージフェンシング) に必要となります。アンフェンシングを必要とするデバイスを設定する際には、最初にクラスターを停止し、デバイスおよびアンフェンシングを含むすべての設定をクラスターが開始される前に追加する必要があります。ノードのアンフェンシングに関する詳細は、fence_node(8) の man ページを参照してください。クラスター設定ファイルでのアンフェンシング設定に関する詳細情報は、「フェンシングの設定」 を参照してください。ccs コマンドによるアンフェンシング設定についての情報は、「単一のストレージベースのフェンスデバイスによるノードの設定」 を参照してください。 |
| Node name | nodename | このノード名を使って、現行オペレーションに使用するキー値を生成します。 |
| Key for current action | key | (ノード名に優先) 現行オペレーションに使用するキー。このキーはノードに対して一意であること。"on" アクションに対しては、キーはローカルノードを登録するキー使用を指定します。"off" アクションに対しては、デバイスから削除されるキーを指定します。 |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
fence_vmware_soap により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | 仮想マシンフェンシングデバイスの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP アドレス、又はホスト名 |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| VM name | port | インベントリパス形式での仮想マシンの名前 (例えば /datacenter/vm/Discovered_virtual_machine/myMachine) |
| VM UUID | uuid | フェンスする仮想マシンの UUID |
| Delay (optional) | delay | フェンシング開始まで待機する秒数。デフォルト値は 0 です。 |
| Use SSL | ssl | デバイスとの通信に SSL 接続を使用する |
fence_wti により使用されるフェンスデバイスパラメーターが一覧表示されています。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | クラスターに接続されている WTI パワースイッチの名前 |
| IP Address or Hostname | ipaddr | デバイスに割り当てられた IP 又はホスト名のアドレス |
| IP Port (optional) | ipport | デバイスへの接続に使用する TCP ポート |
| Login | login | デバイスのアクセスに使用するログイン名 |
| Password | passwd | デバイスへの接続の認証に使用するパスワード |
| Password Script (optional) | passwd_script | フェンスデバイスへのアクセス用パスワードを提供するスクリプト。これを使用すると パラメーターが上書きされます。 |
| Force command prompt | cmd_prompt | 使用するコマンドプロンプト。デフォルト値は、 [’RSM>’, ’>MPC’, ’IPS>’, ’TPS>’, ’NBB>’, ’NPS>’, ’VMR>’] |
| Power Wait (seconds) | power_wait | power off 又は power on コマンドを発行後に待機する秒数 |
| Power Timeout (seconds) | power_timeout | power off または power on コマンドを発行後にステータス変更をテストするまで待機する秒数。デフォルト値は 20 です。 |
| Shell Timeout (seconds) | shell_timeout | コマンド発行後にコマンドプロンプトを待機する秒数。デフォルト値は 3 です。 |
| Login Timeout (seconds) | login_timeout | ログイン後にコマンドプロンプトを待機する秒数。デフォルト値は 5 です。 |
| Times to Retry Power On Operation | retry_on | power on 動作を再試行する回数。デフォルト値は 1 です。 |
| Use SSH | secure | システムが SSH を使用してデバイスにアクセスすることを示します。SSH の使用時には、パスワード、パスワードスクリプト、ID ファイルのいずれかを指定する必要があります。 |
| Path to SSH Identity File | identity_file | SSH の識別ファイル |
| Port | port | 仮想マシンの物理的なプラグ番号又は名前 |
付録B HA リソースパラメーター リンクのコピーリンクがクリップボードにコピーされました!
ccs コマンドの使用、etc/cluster/cluster.conf ファイルの編集により行うことができます。表B.1「HA リソースの要約」 には、リソース、その該当するリソースエージェント、パラメーターの説明を含む他の表への参照が一覧表示されています。リソースエージェントについて理解を深めるには、いずれかのクラスターノードの /usr/share/cluster 内にあるリソースエージェントを参照してください。
/usr/share/cluster ディレクトリにはリソースグループ service.sh 用のダミーの OCF スクリプトが含まれています。このスクリプトに含まれているパラメーターの詳細については、service.sh スクリプトを参照してください。
cluster.conf の要素と属性についての総括的な一覧と説明は、/usr/share/cluster/cluster.rng にあるクラスタースキーマ、及び /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html) にある注釈付きスキーマを参照してください。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | Apache サービスの名前です。 |
| Server Root | server_root | デフォルト値は /etc/httpd です。 |
| Config File | config_file | Apache 設定ファイルを指定します。デフォルト値は /etc/httpd/conf です。 |
| httpd Options | httpd_options | httpd 用の他のコマンドラインオプションです。 |
| Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
| フィールド | luci フィールド | cluster.conf 属性 |
|---|---|---|
| Instance Name | name | Condor インスタンスに一意の名前を指定します。 |
| Condor Subsystem Type | type | このインスタンスの Condor サブシステムのタイプである、schedd、job_server、又は query_server を指定します。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | ファイルシステムリソース用の名前を指定します。 |
| Filesystem Type | fstype | 指定がないと、mount がファイルシステムタイプを決定する試みをします。 |
| Mount Point | mountpoint | このファイルシステムをマウントするためのファイルシステム階層内のパス |
| Device, FS Label, or UUID | device | ファイルシステムリソースと関連のあるデバイスを指定します。これは、ブロックデバイス、ファイルシステムラベル、又はファイルシステムの UUID のいずれかです。 |
| Mount Options | options | マウントオプション。これはファイルシステムがマウントされる時に使用するオプションであり、ファイルシステム特有である場合があります。サポートされているマウントオプションについては、『mount(8)』 の man ページを参照してください。 |
| File System ID (optional) | fsid | 注記 File System ID は NFS サービスでのみ使用されます。
新規のファイルシステムリソースを作成する時、このフィールドは空白のままにできます。フィールドを空白にすると、パラメーターをコミットした後、設定中にファイルシステム ID は自動的に割り当てられます。ファイルシステム ID を明示的に割り当てる必要がある場合は、このフィールド内で指定してください。
|
| Force Unmount | force_unmount | 有効になっていると、ファイルシステムのアンマウントを強制します。デフォルトのセッティングは disabled(無効) です。Force Unmount はアンマウント時にマウントポイントの全てのプロセスをキルしてマウントを開放します。 |
| Force fsck | force_fsck | 有効になっていると、ファイルシステムをマウントする前に fsck を実行することになります。デフォルトセッティングは disabled です。 |
| Enable NFS and lockd workaround (Red Hat Enterprise Linux 6.4 以降) | nfsrestart | ファイルシステムが NFS 経由でエクスポートされ、アンマウントの際に問題が発生することがある場合 (シャットダウン時やサービスのリロケーション時)、このオプションを設定するとアンマウントの操作の前にファイルシステムの参照をすべてドロップします。このオプションを設定するには、 オプションを有効にする必要があります。ただし、NFS Server リソースとあわせて使用することはできません。ファイルシステムのアンマウントが大変になるため、最終手段としてこのオプションを設定するようにしてください。 |
| Use Quick Status Checks | quick_status | 有効の場合は、クイックステータスチェックを実行します。 |
| Reboot Host Node if Unmount Fails | self_fence | 有効にすると、このファイルシステムのアンマウントに問題が発生した場合にノードを再起動します。filesystem リソースエージェントは、1、yes、on または true を認識してこのパラメーターを有効にします。また、0、no、off または false で無効にします。デフォルト設定は disabled です。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | ファイルシステムリソースの名前 |
| Mount Point | mountpoint | ファイルシステムリソースがマウントされるパスです。 |
| Device, FS Label, or UUID | device | ファイルシステムリソースに関連しているデバイスのファイルです。 |
| Filesystem Type | fstype | luci で GFS2 に設定します。 |
| Mount Options | options | マウントオプションです。 |
| File System ID (optional) | fsid | 注記 File System ID は NFS サービスでのみ使用されます。
新規の GFS2 リソースを作成する時、このフィールドは空白のままにできます。フィールドを空白にすると、パラメーターをコミットした後、設定中にファイルシステム ID は自動的に割り当てられます。ファイルシステム ID を明示的に割り当てる必要がある場合は、このフィールド内で指定してください。
|
| Force Unmount | force_unmount | 有効になっていると、ファイルシステムのアンマウントを強制します。デフォルトのセッティングは disabled(無効) です。Force Unmount はアンマウント時にマウントポイントの全てのプロセスをキルしてマウントを開放します。GFS2 リソースでは、Force Unmount が 有効になっていないと、サービスの停止でマウントポイントはアンマウントされません。 |
| Enable NFS and lockd workaround (Red Hat Enterprise Linux 6.4 以降) | nfsrestart | ファイルシステムが NFS 経由でエクスポートされ、アンマウントの際に問題が発生することがある場合 (シャットダウン時やサービスのリロケーション時)、このオプションを設定するとアンマウントの操作の前にファイルシステムの参照をすべてドロップします。このオプションを設定するには、 オプションを有効にする必要があります。ただし、NFS Server リソースとあわせて使用することはできません。ファイルシステムのアンマウントが大変になるため、最終手段としてこのオプションを設定するようにしてください。 |
| Reboot Host Node if Unmount Fails | self_fence | これを有効にしていてファイルシステムのアンマウントに失敗すると、ノードはすぐに再起動します。通常、force-unmount サポートとあわせて使用しますが、必須ではありません。GFS2 リソースエージェントは、1、yes、on または true を認識してこのパラメーターを有効にします。また、0、no、off または false で無効にします。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| IP Address, Netmask Bits | address | リソースの IP アドレス (オプションでネットマスクビット)。ネットマスクビット (またはネットワークプレフィックスの長さ) は、アドレスと区切り文字であるスラッシュの後ろに来ます。これは、CIDR 表記に準拠しています (例:10.1.1.1/8)。この IP アドレスは仮想アドレスです。IPv4、IPv6 アドレス、そして各 IP アドレスの NIC リンクモニタリングに対応しています。 |
| Monitor Link | monitor_link | これを有効にすると、この IP アドレスがバインドされている NIC のリンクが存在しない場合にはステータスチェックが失敗します。 |
| Disable Updates to Static Routes | disable_rdisc | RDISC プロトコルを使用したルーティングの更新を無効にします。 |
| Number of Seconds to Sleep After Removing an IP Address | sleeptime | スリープする時間 (秒単位) を指定します。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | この LVM リソースの一意の名前です。 |
| Volume Group Name | vg_name | 管理されているボリュームグループの説明的な名前です。 |
| Logical Volume Name | lv_name | 管理されている論理ボリュームの名前です。このパラメーターは、管理されているボリュームグループ内に複数の論理ボリュームが存在する場合はオプションとなります。 |
| Fence the Node if It is Unable to Clean UP LVM Tags | self_fence | LVM タグを削除できない場合にノードをフェンシングします。LVM リソースエージェントは、yes か 1 の値でこのパラメーターを有効にするか、no か 0 の値でこのパラメーターを無効にします。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | MySQL サーバーリソースの名前を指定します。 |
| Config File | config_file | 設定ファイルを指定します。デフォルト値は /etc/my.cnf です。 |
| Listen Address | listen_address | MySQL サーバーの IP アドレスを指定します。IP アドレスが指定されていない場合は、サービスからの最初の IP アドレスが採用されます。 |
| mysqld Options | mysqld_options | mysqld 用の他のコマンドラインオプションです。 |
| Startup Wait (seconds) | startup_wait | サービス起動の正確な終了までの待機秒数を指定します。 |
| Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name |
sNFS 又は CIFS のマウント用シンボリック名です。
注記
このリソースは、クラスターサービスが NFS クライアントになるように設定する時に必要です。
|
| Mount Point | mountpoint | ファイルシステムリソースのマウント先へのパスです。 |
| Host | host | NFS/CIFS サーバーの IP アドレス、又はホスト名です。 |
| NFS Export Directory Name or CIFS share | export | NFS エクスポートディレクトリ名、又は CIFS 共有名です。 |
| Filesystem Type | fstype |
ファイルシステムタイプ:
|
| Do Not Unmount the Filesystem During a Stop of Relocation Operation. | no_unmount | 有効の場合は、ファイルシステムが停止/再配置の動作中にアンマウントされないように指定します。 |
| Force Unmount | force_unmount | Force Unmount が有効の場合、サービスの停止時にクラスターはこのファイルシステムを使用している全てのプロセスを kill します。ファイルシステムを使用している全てのプロセスを kill するとファイルシステムの領域が使えるようになります。そうでない場合は、アンマウントは失敗してサービスが再起動します。 |
| Options | options | マウントオプションです。マウントオプションの一覧を指定します。指定されていないと、ファイルシステムは -o sync としてマウントされます。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | リソースツリー内でクライアントを参照するために使用されるそのシンボリック名です。これは、Target オプションと同じ ではありません。 |
| Target Hostname, Wildcard, or Netgroup | target | マウント元のサーバーです。ホスト名、ワイルドカード (IP アドレスか、ホスト名ベース)、又はエクスポート先のホストを定義する netgroup を使用して指定できます。 |
| Allow Recovery of This NFS Client | allow_recover | 回復を行います。 |
| Options | options | このクライアント用のオプション一覧 — 例えば、追加のクライアントアクセス権を定義します。詳細情報は、『exports (5)』 の man ページの 『General Options』 を参照してください。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name |
リソースの説明的な名前です。NFS エクスポートリソースは確実に NFS デーモンが稼働するようにします。完全に再利用可能で、通常は 1 つの NFS エクスポートのみが必要です。
nfsexport リソース設定の詳細情報は、「nfsexport および nfsserver リソースの設定」 を参照してください。
注記
NFS エクスポートリソースは、他の NFS リソースと区別できるような明確な名前にしてください。
|
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name |
NFS サーバーリソースの説明的な名前です。NFS サーバーリソースは、NFSv4 ファイルシステムをクライアントにエクスポートする際に便利です。NFSv4 の機能的な理由により、サーバー上に一度に存在することが可能なのは、1 つの NFSv4 リソースのみです。また、各クラスターノード上で NFS のローカルインスタンスを使用する際は、NFS サーバーリソースを使用することはできません。
nfsserver リソース設定の詳細は、「nfsexport および nfsserver リソースの設定」 を参照してください。
|
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | ログ記録と他の目的用のサービス名を指定します。 |
| Config File | config_file | 設定ファイルへの絶対パスを指定します。デフォルト値は /etc/openldap/slapd.conf です。 |
| URL List | url_list | デフォルト値は ldap:/// です。 |
slapd Options | slapd_options | slapd 用の他のコマンドラインオプションです。 |
| Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Instance Name (SID) of Oracle Instance | name | インスタンスの名前です。 |
| Oracle Listener Instance Name | listener_name | Oracle リスナーのインスタンス名です。複数の Oracle インスタンスを稼働している場合は、同一マシン上で異なる名前の複数のリスナーが必要になる可能性があります。 |
| Oracle User Name | user | これは、Oracle AS インスタンスが Oracle ユーザーとして実行するユーザー名です。 |
| Oracle Application Home Directory | home | これは Oracle (ユーザーではなく、アプリケーション) のホームディレクトリです。Oracle のインストール時に設定します。 |
| Oracle Installation Type | type |
Oracle インストールタイプです。
|
| Virtual Hostname (optional) | vhost | Oracle 10g のインストールホスト名にマッチする仮想ホスト名です。oracledb リソースの開始/停止の間に、使用ホスト名は一時的にこのホスト名へ変更されることに注意して下さい。そのため、oracledb リソースを専用サービスの一部としてのみ設定する必要があります。 |
| TNS_ADMIN (optional) | tns_admin | 特定のリスナー設定ファイルへのパス。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Instance name (SID) of Oracle instance | name | インスタンスの名前です。 |
| Oracle User Name | user | これは、Oracle インスタンスが Oracle ユーザーとして実行するユーザー名です。 |
| Oracle Application Home Directory | home | これは Oracle (ユーザーではなく、アプリケーション) のホームディレクトリです。Oracle のインストール時に設定します。 |
| List of Oracle Listeners (オプションです。空白で区切ります) | listeners | データベースインスタンスで開始する Oracle リスナーの一覧です。リスナー名は空白で区切ります。デフォルトは空白で、リスナーを無効にします。 |
| Path to Lock File (optional) | lockfile | Oracle が実行しているかどうかを確認するために使用される lockfile の場所です。デフォルトの場所は /tmp 下です。 |
| TNS_ADMIN (optional) | tns_admin | 特定のリスナー設定ファイルへのパス。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Listener Name | name | リスナーの名前です。 |
| Oracle User Name | user | これは、Oracle インスタンスが Oracle ユーザーとして実行するユーザー名です。 |
| Oracle Application Home Directory | home | これは Oracle (ユーザーではなく、アプリケーション) のホームディレクトリです。Oracle のインストール時に設定します。 |
| TNS_ADMIN (optional) | tns_admin | 特定のリスナー設定ファイルへのパス。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | ログ記録と他の目的用のサービス名を指定します。 |
| Config File | config_file | 設定ファイルまでの絶対パスを定義します。デフォルト値は /var/lib/pgsql/data/postgresql.conf です。 |
| Postmaster User | postmaster_user | root ではデータベースサーバーを実行できないため、それを実行するユーザーです。デフォルト値は postgres です。 |
| Postmaster Options | postmaster_options | postmaster の他のコマンドラインオプションです。 |
| Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| SAP Database Name | SID | 一意の SAP システム識別子を指定します。例えば、P01 です。 |
| SAP Executable Directory | DIR_EXECUTABLE | sapstartsrv と sapcontrol への完全修飾パスを指定します。 |
| Database Type | DBTYPE | Oracle、DB6、又は ADA のデータベースタイプのうち 1 つを指定します。 |
| Oracle Listener Name | NETSERVICENAME | Oracle TNS リスナー名を指定します。 |
| ABAP Stack is Not Installed, Only Java Stack is Installed | DBJ2EE_ONLY | ABAP スタックが SAP データベース内にインストールされていない場合は、このパラメーターを有効にしてください。 |
| Application Level Monitoring | STRICT_MONITORING | アプリケーションレベルモニタリングをアクティベートします。 |
| Automatic Startup Recovery | AUTOMATIC_RECOVER | スタートアップの自動修復を有効/無効にします。 |
| Path to Java SDK | JAVE_HOME | Java SDK へのパスです。 |
| File Name of the JDBC Driver | DB_JARS | JDBC ドライバーのファイル名です。 |
| Path to a Pre-Start Script | PRE_START_USEREXIT | pre-start スクリプトへのパスです。 |
| Path to a Post-Start Script | POST_START_USEREXIT | post-start スクリプトへのパスです。 |
| Path to a Pre-Stop Script | PRE_STOP_USEREXIT | pre-stop スクリプトへのパスです。 |
| Path to a Post-Stop Script | POST_STOP_USEREXIT | post-stop スクリプトへのパスです。 |
| J2EE Instance Bootstrap Directory | DIR_BOOTSTRAP | J2EE インスタンスブートストラップディレクトリへの完全修飾パスです。例えば、/usr/sap/P01/J00/j2ee/cluster/bootstrap です。 |
| J2EE Security Store Path | DIR_SECSTORE | J2EE セキュリティストアディレクトリへの完全修飾パスです。例えば、/usr/sap/P01/SYS/global/security/lib/tools です。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| SAP Instance Name | InstanceName | 完全修飾 SAP インスタンス名です。例えば、P01_DVEBMGS00_sapp01ci です。 |
| SAP Executable Directory | DIR_EXECUTABLE | sapstartsrv と sapcontrol への完全修飾パスです。 |
| Directory Containing the SAP START Profile | DIR_PROFILE | SAP START プロフファイルへの完全修飾パスです。 |
| Name of the SAP START Profile | START_PROFILE | SAP START プロファイルの名前を指定します。 |
| Number of Seconds to Wait Before Checking Startup Status | START_WAITTIME | スタートアップステータスを確認するまでの待機秒数を指定します (J2EE-Addin を待機しません)。 |
| Enable Automatic Startup Recovery | AUTOMATIC_RECOVER | スタートアップの自動修復を有効/無効にします。 |
| Path to a Pre-Start Script | PRE_START_USEREXIT | pre-start スクリプトへのパスです。 |
| Path to a Post-Start Script | POST_START_USEREXIT | post-start スクリプトへのパスです。 |
| Path to a Pre-Stop Script | PRE_STOP_USEREXIT | pre-stop スクリプトへのパスです。 |
| Path to a Post-Stop Script | POST_STOP_USEREXIT | post-stop スクリプトへのパスです。 |
注記
samba リソース)」 に関して、クラスターサービスの作成/編集時には、Samba-service リソースをサービス内のリソース ではなく、直接サービスに接続してください。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | Samba サーバーの名前を指定します。 |
| Config File | config_file | Samba の設定ファイルです。 |
| Other Command-Line Options for smbd | smbd_options | smbd 用の他のコマンドラインオプションです。 |
| Other Command-Line Options for nmbd | nmbd_options | nmbd 用の他のコマンドラインオプションです。 |
| Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正確な終了までの待機秒数を指定します。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | カスタムユーザースクリプトの名前を指定します。スクリプトリソースにより、標準の LSB 準拠の init スクリプトはクラスター化サービスを起動するのに使用できます。 |
| Full Path to Script File | file | このカスタムスクリプトが配置してある場所へのパスを入力します (例えば、 /etc/init.d/userscript)。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Instance Name | name | Sybase ASE リソースのインスタンス名を指定します。 |
| ASE Server Name | server_name | HA サービス用に設定してある ASE サーバーの名前です。 |
| SYBASE Home directory | sybase_home | Sybase 製品のホームディレクトリです。 |
| Login File | login_file | ログイン/パスワードペアを含むログインファイルのフルパスです。 |
| Interfaces File | interfaces_file | ASE サーバーの開始/アクセスに使用されるインターフェースファイルのフルパスです。 |
| SYBASE_ASE Directory Name | sybase_ase | ASE 製品がインストールされている sybase_home 下のディレクトリ名です。 |
| SYBASE_OCS Directory Name | sybase_ocs | OCS 製品がインストールされている sybase_home 下のディレクトリ名です。例えば、ASE-15_0 です。 |
| Sybase User | sybase_user | ASE サーバーを実行するユーザーです。 |
| Start Timeout (seconds) | start_timeout | 起動のタイムアウト値です。 |
| Shutdown Timeout (seconds) | shutdown_timeout | シャットダウンのタイムアウト値です。 |
| Deep Probe Timeout | deep_probe_timeout | 詳細検出(deep probe)を実行している間にサーバーが反応しないことを判定するまで ASE サーバーの対応を待つ期間の最大秒数です。 |
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Name | name | ログ記録と他の目的用のサービス名を指定します。 |
| Config File | config_file | 設定ファイルへの絶対パスを指定します。デフォルト値は /etc/tomcat6/tomcat6.conf です。 |
| Shutdown Wait (seconds) | shutdown_wait | サービスシャットダウンの正しい終了までの待機期間の秒数を指定します。デフォルトは 30 です。 |
重要
vm リソースResource)」 に関して、仮想マシンリソースを使用してご使用のクラスターを設定する場合、rgmanager ツールを使用して、仮想マシンの起動/停止を行うことをお勧めします。virsh を使用してマシンを起動すると、仮想マシンが複数の場所で実行することにつながり、仮想マシン内のデータが破損する恐れがあります。クラスター及び非クラスターツールの両方を使用して管理者が仮想マシンを誤って「ダブル起動」するリスクを減らすためのシステム設定については、「クラスター化環境での仮想マシンの設定」 を参照してください。
注記
Virtual Machine をリソースタイプとして選択し、仮想マシンリソースパラメーターを入力します。ccs を使用した仮想マシンの設定については、「仮想マシンのリソース」 を参照してください。
| luci フィールド | cluster.conf 属性 | 説明 |
|---|---|---|
| Service Name | name | 仮想マシンの名前を指定します。luci インターフェースを使用している時には、これをサービス名として指定します。 |
| Automatically Start This Service | autostart | 有効になっている場合、仮想マシンはクラスターが定員を構成した後に自動的に開始されます。このパラメーターが 無効 の場合は、クラスターが定員を構成した後、自動的に開始 されません。 仮想マシンは disabled(無効)状態になります。 |
| Run Exclusive | exclusive | 有効の場合、この仮想マシンは別のノードのみで実行する、すなわち他の仮想マシンが稼働していないノード上で実行するように再配置されるだけです。仮想マシンが単独で実行できるノードがない場合は、仮想マシンは障害が発生すると再起動しません。さらに、他の仮想マシンは Run exclusive としてこの仮想マシンを実行しているノードに自動的に再配置されることはありません。このオプションを上書きするには、手動で起動/再配置の操作を行います。 |
| Failover Domain | domain | 仮想マシンが失敗した場合に試行するクラスターメンバーの一覧を定義します。 |
| Recovery Policy | recovery | Recovery policy は以下のオプションを提供します:
|
| Restart Options | max_restarts, restart_expire_time | サービスの復元ポリシーとして 又は を選択すると、サービスの移動/無効化までに再開始が失敗する最大回数と、再開始を破棄するまでの時間を秒単位で指定することができます。 |
| Migration Type | migrate | 移行タイプである live 又は pause を指定します。デフォルトセッティングは live です。 |
| Migration Mapping | migration_mapping |
移行用に代替のインターフェースを指定します。これを指定するのは、ノード上で仮想マシンの移行用に使用されるネットワークアドレスが、クラスター通信に使用されるノードのアドレスと異なる場合などです。
以下を指定すると、仮想マシンを
member から member2 に 移行する時、実際には target2 に移行することを示します。同様にして member2 から member に移行する時は target を使用して移行することになります。
member:target,member2:target2
|
| Status Program | status_program |
仮想マシンの存在を知るための標準チェックに加えて実行するステータスプログラムです。 指定されていると、ステータスプログラムは1分毎に1度実行されます。これにより、仮想マシン 内の重要なサービスのステータスを確認できるようになります。例えば、仮想マシンがウェブサーバーを実行すると ステータスプログラムはウェブサーバーが立ち上がって稼働しているかを見るためにチェックできます。 このステータスチェックが失敗すると(ゼロ以外の値が戻って来る)仮想マシンは復元されます。
仮想マシンの開始後、仮想マシンのリソースエージェントは定期的にステータスプログラムを呼び出して、成功の戻りコード(ゼロ)を待ちます。これは 5 分後にタイムアウトとなります。
|
| Path to xmlfile Used to Create the VM | xmlfile | libvirt ドメイン定義を含む libvirt XML ファイルへのフルパス |
| VM Configuration File Path | path |
仮想マシンリソースエージェント (
vm.sh) が仮想マシン設定ファイルを検出するためのコロンで区切ったパス指定です。例えば、/mnt/guests/config:/etc/libvirt/qemu です。
重要
パスは決して仮想マシンの設定ファイルへ直接的にポイントすべきではありません。
|
| Path to the VM Snapshot Directory | snapshot | 仮想マシンイメージが保存されるスナップショットディレクトリへのパスです。 |
| Hypervisor URI | hypervisor_uri | ハイパバイサーの URI (通常自動) です。 |
| Migration URI | migration_uri | 移行の URI (通常自動) です。 |
| Tunnel data over ssh during migration | tunnelled | 移行中の ssh によるトンネルデータです。 |
付録C HA リソースの動作 リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf を編集します。HA リソースパラメーターの詳細については、付録B HA リソースパラメーター を参照してください。リソースエージェントをさらに詳しく理解するには、任意のクラスターノードの /usr/share/cluster にあるリソースエージェントを参照してください。
注記
/etc/cluster/cluster.conf を詳しく理解していただく必要が場合があります。
/etc/cluster/cluster.conf クラスター設定ファイルでリソースツリーとして表示されます。クラスター設定ファイルでは、各リソースツリーは各リソース、その属性、及びリソースツリー内の他のリソースとの関係 (親、子、兄弟の関係) を指定する XML 表現です。
注記
注記
/etc/cluster/cluster.conf の例の後に表示されているセクションは解説のみを目的として使用されています。
C.1. リソース間の親、子、兄弟の関係 リンクのコピーリンクがクリップボードにコピーされました!
rgmanager の制御下で実行する統合されたエンティティです。サービス内の全てのリソースは同じノード上で稼働します。rgmanager の視点からは、クラスターサービスは開始、停止、又は再配置できるエンティティです。ただし、クラスターサービス内では、リソースの階層により各リソースが開始、停止する順番が決定されます。この階層レベルは親、子、兄弟で構成されています。
fs:myfs(<fs name="myfs" ...>) とip:10.1.1.2(<ip address="10.1.1.2 .../>) は兄弟です。fs:myfs(<fs name="myfs" ...>) はscript:script_child(<script name="script_child"/>) の親です。script:script_child(<script name="script_child"/>) はfs:myfs(<fs name="myfs" ...>) の子です。
例C.1 foo サービスのリソース階層
- 親は子の前に開始される。
- 親が停止する前に、全ての子がクリーンに停止しなければならない。
- リソースが健全な状態にあると見なされるには、全ての子が健全である必要がある。
注記
C.2. 兄弟開始の順序とリソースの子の順序 リンクのコピーリンクがクリップボードにコピーされました!
- 子のタイプ属性を指定する (型指定された子リソース) — サービスリソースが子リソースに対して子のタイプ属性を指定すると、子リソースは 型指定 します。子のタイプ属性は明示的に子リソースの開始順と停止順を決定します。
- 子のタイプ属性を 指定しない (型指定されていない 子リソース) — サービスリソースが子リソースに対して子のタイプ属性を 指定しない と、子リソースは 型指定されません。サービスリソースは型指定されていない子リソースの開始順と停止順を明示的に制御しません。しかし、型指定されていない子リソースは
/etc/cluster/cluster.conf内の順番に従って開始、停止します。また、型指定されていない子リソースは、全ての型指定された子リソースが開始した後に開始し、いずれかの型指定された子リソースが停止する前に停止します。
注記
C.2.1. 型指定された子リソースの開始と停止の順序 リンクのコピーリンクがクリップボードにコピーされました!
service.sh からの抜粋」 は、開始値と停止値がサービスリソースエージェントである service.sh に表示されるとおり示しています。サービスリソースについては、全ての LVM 子群が最初に開始します。次に、全てのファイルシステム子群、その後に全てのスクリプト子群と、開始していきます。
| リソース | 子タイプ | 開始順の値 | 停止順の値 |
|---|---|---|---|
| LVM | lvm | 1 | 9 |
| ファイルシステム | fs | 2 | 8 |
| GFS2 ファイルシステム | clusterfs | 3 | 7 |
| NFS マウント | netfs | 4 | 6 |
| NFS エクスポート | nfsexport | 5 | 5 |
| NFS クライアント | nfsclient | 6 | 4 |
| IP Address | ip | 7 | 2 |
| Samba | smb | 8 | 3 |
| スクリプト | script | 9 | 1 |
例C.2 リソースの開始と停止の値: サービスリソースエージェント service.sh からの抜粋
/etc/cluster/cluster.conf に存在する通りに保存されてます。 例えば、例C.3「リソースタイプ内の順序」 内の型指定された子リソースの開始順と停止順を考えてみましょう。
例C.3 リソースタイプ内の順序
型指定された子リソースの開始順 リンクのコピーリンクがクリップボードにコピーされました!
lvm:1— これは LVM のリソースです。全ての LVM リソースが最初に開始します。lvm:1(<lvm name="1" .../>) は、/etc/cluster/cluster.confの foo サービス部分でリストされている最初の LVM リソースであるため、LVM リソースの中では最初に開始します。lvm:2— これは LVM リソースです。全ての LVM リソースが最初に開始します。lvm:2(<lvm name="2" .../>) は、/etc/cluster/cluster.confの foo サービス部分の中でlvm:1の後にリストされているため、lvm:1の次に開始します。fs:1— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている順序で開始します。ip:10.1.1.1— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている順序で開始します。script:1— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている順序で開始します。
型指定された子リソースの停止順 リンクのコピーリンクがクリップボードにコピーされました!
script:1— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。ip:10.1.1.1— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。fs:1— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。lvm:2— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:2(<lvm name="2" .../>) はlvm:1より先に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。lvm:1— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:1(<lvm name="1" .../>) はlvm:2の後に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。
C.2.2. 型指定されていない子リソースの開始と停止の順序 リンクのコピーリンクがクリップボードにコピーされました!
/etc/cluster/cluster.conf の子リソースの順番に従い、開始、停止の順番が決定されます。また、型指定されていない子リソースは、型指定されたすべての子リソースの後に開始され、型指定された子リソースより先に停止されます。
例C.4 サービス内にある型指定されていないリソースと型指定されたリソース
型指定されていない子リソースの開始順 リンクのコピーリンクがクリップボードにコピーされました!
lvm:1— これは LVM のリソースです。全ての LVM リソースが最初に開始します。lvm:1(<lvm name="1" .../>) は、/etc/cluster/cluster.confの foo サービス部分でリストされている最初の LVM リソースであるため、LVM リソースの中では最初に開始します。lvm:2— これは LVM リソースです。全ての LVM リソースが最初に開始します。lvm:2(<lvm name="2" .../>) は、/etc/cluster/cluster.confの foo サービス部分の中でlvm:1の後にリストされているため、lvm:1の次に開始します。fs:1— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている順序で開始します。ip:10.1.1.1— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている順序で開始します。script:1— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている順序で開始します。nontypedresource:foo— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが開始した後に開始します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresourcetwo:barより前であるため、nontypedresourcetwo:barの前に開始します (型指定されていないリソースはサービスリソース内に表れる順序で開始します)。nontypedresourcetwo:bar— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが開始した後に開始します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresource:fooの後であるため、nontypedresource:fooの後に開始します (型指定されていないリソースはサービスリソース内に表れる順序で開始します)。
型指定されていない子リソースの停止順 リンクのコピーリンクがクリップボードにコピーされました!
nontypedresourcetwo:bar— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが停止する前に停止します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresource:fooの後であるため、nontypedresource:fooの前に停止します (型指定されていないリソースはサービスリソース内に表れる逆の順序で停止します)。nontypedresource:foo— これは型指定されていないリソースです。型指定されていないリソースであるため、型指定されたリソースが停止する前に停止します。また、サービスリソース内での順序は、他の型指定されていないリソースnontypedresourcetwo:barより前であるため、nontypedresourcetwo:barの後に停止します (型指定されていないリソースはサービスリソース内に表れる逆の順序で停止します)。script:1— これはスクリプトリソースです。foo サービス内に他のスクリプトリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。ip:10.1.1.1— これは IP アドレスリソースです。foo サービス内に他の IP アドレスのリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。fs:1— これはファイルシステムリソースです。foo サービス内に他のファイルシステムリソースがある場合は、/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。lvm:2— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:2(<lvm name="2" .../>) はlvm:1より先に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。lvm:1— これは LVM リソースです。全ての LVM リソースは最後に停止します。lvm:1(<lvm name="1" .../>) はlvm:2の後に停止します。リソースタイプのグループ内のリソース群は/etc/cluster/cluster.confの foo サービス部分にリストされている逆の順番で停止します。
C.3. 継承、ブロック、リソースの再利用 リンクのコピーリンクがクリップボードにコピーされました!
例C.5 リソース再利用と継承の為の NFS サービスセットアップ
- サービスは 4つの nfsclient リソースを必要とします — ファイルシステム毎に1つ (ファイルシステム群で計2つ)、そしてターゲットマシン毎に1つ (ターゲットマシン群で計2つ)
- サービスは各 nfsclient にエクスポートパスとファイルシステム ID を指定する必要があります。これにより、設定にエラーが生じる可能性があります。
C.4. 障害からの回復と独立したサブツリー リンクのコピーリンクがクリップボードにコピーされました!
__independent_subtree 属性を使用します。例えば、例C.7「__independent_subtree 属性を使用した foo サービス障害からの回復」 では、 __independent_subtree 属性を使用して以下の動作を実行します:
- script:script_one が失敗すると、script:script_one、script:script_two、及び script:script_three を再起動します。
- script:script_two が失敗すると、script:script_two のみを再起動します。
- script:script_three が失敗すると、restart script:script_one、script:script_two、及び script:script_three を再起動します。
- script:script_four が失敗すると、全サービスを再起動します。
例C.6 サービス foo 障害からの通常の回復
例C.7 __independent_subtree 属性を使用した foo サービス障害からの回復
__independent_subtree="2" 属性を使用します。
注記
__max_restartsは、中断するまでに許容される再起動の最大回数を設定します。__restart_expire_timeで設定する秒数が経過すると、再起動は試行されなくなります。
C.5. サービスとリソース順序へのデバッグとテスト リンクのコピーリンクがクリップボードにコピーされました!
rg_test ユーティリティを使用できます。rg_test はコマンドラインユーティリティであり、シェル又はターミナルから実行する rgmanager パッケージにより提供されます(Conga にはありません)。表C.2「rg_test ユーティリティの要約」 は rg_test ユーティリティの動作と構文をまとめています。
| アクション | 構文 |
|---|---|
rg_test が理解するリソースルールを表示する | rg_test rules |
| エラー、又は余剰リソースエージェントの為に設定 (及び /usr/share/cluster) をテストする | rg_test test /etc/cluster/cluster.conf |
| サービスの開始/停止の順序を表示する |
開始順を表示する:
rg_test noop /etc/cluster/cluster.conf start service
停止順を表示する:
rg_test noop /etc/cluster/cluster.conf stop service
|
| サービスを明示的に開始/停止する | 重要
これを実行する場合は、1 つのノード上でのみ行ってください。また、常に rgmanager 内のサービスを最初に無効にしてください。
サービスを開始する:
rg_test test /etc/cluster/cluster.conf start service
サービスを停止する:
rg_test test /etc/cluster/cluster.conf stop service
|
| 2つの cluster.conf ファイル間でリソースのツリーデルタを計算して表示します。 | rg_test delta
例えば:
rg_test delta /etc/cluster/cluster.conf.bak /etc/cluster/cluster.conf
|
付録D クラスターサービスリソースチェックとフェイルオーバーのタイムアウト リンクのコピーリンクがクリップボードにコピーされました!
rgmanager がクラスターリソースのステータスをモニターする方法、ステータスチェック間隔を修正する方法について説明しています。また、動作がタイムアウトすることでサービスが失敗することを示す __enforce_timeouts サービスパラメーターについても説明しています。
注記
/etc/cluster/cluster.conf を詳しく理解していただく必要があります。cluster.conf の要素と属性の総括的な一覧と説明は、/usr/share/cluster/cluster.rng にあるクラスタースキーマと /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (例えば、/usr/share/doc/cman-3.0.12/cluster_conf.html) にある注釈付きスキーマを参照してください。
D.1. リソースステータスチェック間隔の修正 リンクのコピーリンクがクリップボードにコピーされました!
rgmanager は、全サービスではなく、個別のリソースのステータスを確認します。10 秒ごとに、rgmanager はリソースツリーをスキャンし、「ステータスチェック」間隔が経過したリソースを探します。
<action> タグを使用して cluster.conf ファイルで明示的に上書きされていない限りは、これらのタイムアウト値を利用します。
<action name="status" depth="*" interval="10" />
cluster.conf ファイル内のリソースの特別な子です。例えば、ステータスチェックの間隔を上書きしたいファイルシステムリソースがある場合、cluster.conf ファイルのファイルシステムリソースを以下のように指定できます。
depth は * に設定されています。これは、これらの値がすべての深さに使用されることを示しています。結果として、10 秒ごとにリソースエージェントにより最高に定義された深さ (この場合は 20) で test ファイルシステムを確認します。
D.2. リソースタイムアウトの強制 リンクのコピーリンクがクリップボードにコピーされました!
__enforce_timeouts="1" を cluster.conf ファイルの参照に追加します。
__enforce_timeouts 属性を netfs リソースに設定したクラスターサービスを示しています。この属性が設定された状態で、回復プロセス時に NFS ファイルシステムをアンマウントするのに 30 秒超かかる場合は、動作はタイムアウトになり、サービスは失敗します。
付録E コマンドラインツールの要約 リンクのコピーリンクがクリップボードにコピーされました!
| コマンドラインツール | 使用対象 | 目的 |
|---|---|---|
ccs_config_dump — クラスター設定のダンプツール | クラスターインフラストラクチャー | ccs_config_dump は、実行している設定の XML 出力を生成します。一部のサブシステムはデフォルトの情報を設定に格納/セットすることがあるため、実行している設定がファイル上に保存されている設定と異なることがあります。これらの値は、通常設定のディスク上バージョンには存在しませんが、クラスターがランタイム時に正常に機能するために必要です。このツールに関する詳細は ccs_config_dump(8) の man ページを参照してください。 |
ccs_config_validate — クラスター設定の妥当性検証ツール | クラスターインフラストラクチャー | ccs_config_validate は、各ノード上の /usr/share/cluster/cluster.rng にあるスキーマ cluster.rng に対して cluster.conf の妥当性を検証します。このツールに関する詳細は ccs_config_validate(8) の man ページを参照してください。 |
clustat — クラスターステータスのユーティリティ | 高可用性サービス管理のコンポーネント | clustat コマンドはクラスターのステータスを表示します。メンバーシップの情報、定足数表示、設定済みの全ユーザーサービスの状態を示します。このツールの詳細については clustat(8) の man ページを参照してください。 |
clusvcadm — クラスターユーザーサービス管理のユーティリティ | 高可用性サービス管理のコンポーネント | clusvcadm コマンドを使用すると、クラスター内の高可用性サービスの有効、無効、再配置、再起動を行うことができます。このツールの詳細については clusvcadm(8) の man ページを参照してください。 |
cman_tool — クラスター管理ツール | クラスターインフラストラクチャー | cman_tool は CMAN クラスターマネージャーを管理するプログラムです。これにより、クラスターへの参加と離脱、ノードの kill、クラスター内でノードの定足数投票の期待値の変更が可能になります。このツールの詳細については cman_tool(8) の man ページを参照してください。 |
fence_tool — フェンスツール | クラスターインフラストラクチャー | fence_tool はフェンスドメインに対する参加と離脱に使用するプログラムです。このツールの詳細については、ence_tool(8) の man ページを参照してください。 |
付録F High Availability LVM (HA-LVM) リンクのコピーリンクがクリップボードにコピーされました!
- アプリケーションがクラスター対応で、かつ一度に複数のマシンで同時に実行するようチューニングされている場合は、CLVM の使用をお勧めします。具体的には、使用しているクラスターの複数のノードにストレージへのアクセスが必要で、そのストレージがアクティブなノード間で共有される場合は、CLVM を使用する必要があります。論理ボリュームが設定されている間に物理ストレージへのアクセスをロックすることにより、ユーザーは CLVM を使用して共有ストレージ上で論理ボリュームを設定できます。また、CLVM はクラスター化されたロッキングサービスを使用して共有ストレージを管理します。CLVM 及び LVM 設定の全般情報は、『論理ボリュームマネージャ管理』 を参照してください。
- ストレージにアクセスする単一ノードのみがいつでもアクティブなアクティブ/パッシブ (フェイルオーバー) 構成でアプリケーションが最適に実行する場合は、High Availability Logical Volume Management (HA-LVM) エージェントの使用をお勧めします。
- 推奨されるメソッドは CLVM の使用ですが、これは論理ボリュームを単独でアクティブ化するだけです。これによるメリットは、簡単に設定できること、管理上のミス (使用中の論理ボリュームの削除など) の回避が向上することです。CLVM を使用するには、
clvmdデーモンを含む High Availability アドオン及び Resilient Storage アドオンソフトウェアが実行されている必要があります。このメソッドを使用して HA-LVM を設定する手順は、「CLVM を使用した HA-LVM フェイルオーバーの設定 (推奨)」 に記載されています。 - 2 番目のメソッドは、ローカルマシンのロックと LVM 「タグ」の使用です。このメソッドのメリットは、LVM クラスターパッケージが必要でない点です。一方で、設定する際に必要な手順は他にもあり、管理者がアクティブでないクラスター内のノードから論理ボリュームを誤って削除することを防ぐことはできません。このメソッドを使用して HA-LVM を設定する手順は、「タグ付けによる HA-LVM フェイルオーバーの設定」 に記載されています。
F.1. CLVM を使用した HA-LVM フェイルオーバーの設定 (推奨) リンクのコピーリンクがクリップボードにコピーされました!
- ご使用のシステムが CLVM に対応するよう設定されていることを確認してください。以下が要件です。
- CLVM 論理ボリュームがミラーされる場合は
cmirrorパッケージも含め、High Availability アドオン及び Resilient Storage アドオンがインストールされている。 /etc/lvm/lvm.confファイル内のグローバルセクションのlocking_typeパラメーターが「3」の値に設定されている。clvmdデーモンを含め、High Availability アドオン及び Resilient Storage アドオンソフトウェアが実行している必要がある。CLVM ミラーリングの場合は、cmirrordサービスも起動している必要があります。
- 以下の例のとおり、標準 LVM 及びファイルシステムのコマンドを使用して論理ボリュームとファイルシステムを作成します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow LVM 論理ボリュームの作成についての詳細は、『論理ボリュームマネージャの管理』 を参照してください。 /etc/cluster/cluster.confファイルを編集して、新規作成された論理ボリュームを使用しているサービスの 1 つにリソースとして含めます。別の方法として、Conga 又はccsコマンドを使用して、LVM 及びファイルシステムリソースをクラスター用に設定することも可能です。以下の例は、クラスターリソースとして CLVM 論理ボリュームを設定する/etc/cluster/cluster.confファイルのリソースマネージャーのセクションです。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
F.2. タグ付けによる HA-LVM フェイルオーバーの設定 リンクのコピーリンクがクリップボードにコピーされました!
/etc/lvm/lvm.conf ファイルのタグを使用して HA-LVM フェイルオーバーを設定するには、以下の手順を実行します。
/etc/lvm/lvm.confファイル内のグローバルセクションのlocking_typeパラメーターが「1」の値に設定されているようにしてください。- 以下の例のとおり、標準 LVM 及びファイルシステムのコマンドを使用して論理ボリュームとファイルシステムを作成します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow LVM 論理ボリュームの作成についての詳細は、『論理ボリュームマネージャの管理』 を参照してください。 /etc/cluster/cluster.confファイルを編集して、新規作成された論理ボリュームを使用しているサービスの 1 つにリソースとして含めます。別の方法として、Conga 又はccsコマンドを使用して、LVM 及びファイルシステムリソースをクラスター用に設定することも可能です。以下の例は、クラスターリソースとして CLVM 論理ボリュームを設定する/etc/cluster/cluster.confファイルのリソースマネージャーのセクションです。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記
ボリュームグループに論理ボリュームが複数ある場合は、lvmリソースの論理ボリューム名 (lv_name) は、空欄か指定しないようにしてください。また、HA-LVM 設定では、ボリュームグループは単一のサービスによってのみ使用されることがある点に注意してください。/etc/lvm/lvm.confファイルのvolume_listフィールドを編集します。/etc/cluster/cluster.confファイルに一覧表示されているとおり、ご使用の root ボリュームグループ名とホスト名は @ を先頭に付けて入力してください。ここに含めるホスト名は、編集しているlvm.confファイルがあるマシンであり、リモートのホスト名ではありません。なお、この文字列は、cluster.confファイル内のノード名とマッチ しなければなりません。以下は、/etc/lvm/lvm.confファイルのサンプルエントリです。volume_list = [ "VolGroup00", "@neo-01" ]
volume_list = [ "VolGroup00", "@neo-01" ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow このタグは、共有 VG 又は LV をアクティブ化するために使用します。HA-LVM を使用して共有されるボリュームグループ名は 含めないようにしてください。- 使用しているクラスターノード上の
initrdデバイスを更新します。dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
# dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 全ノードを再起動して、正しい
initrdデバイスが使用中であることを確認してください。
付録G 改訂履歴 リンクのコピーリンクがクリップボードにコピーされました!
| 改訂履歴 | |||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 改訂 6.0-21.3 | Mon Jul 21 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-21.2 | Mon Apr 7 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-21.1 | Mon Apr 7 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-21 | Wed Nov 13 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-20 | Wed Nov 6 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-16 | Tue Oct 29 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-15 | Fri Sep 27 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-12 | Thu Sep 26 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-3 | Thu Sep 05 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-2 | Fri Jun 14 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 6.0-1 | Thu Jun 13 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-25 | Mon Feb 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-23 | Wed Jan 30 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-22 | Tue Jan 29 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-20 | Fri Jan 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-19 | Thu Jan 17 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-16 | Mon Nov 26 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-15 | Wed Nov 20 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-12 | Thu Nov 1 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-7 | Thu Oct 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-6 | Tue Oct 23 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-4 | Tue Oct 16 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-2 | Thu Oct 11 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 5.0-1 | Mon Oct 8 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 4.0-5 | Fri Jun 15 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 4.0-4 | Tue Jun 12 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 4.0-3 | Tue May 21 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 4.0-2 | Wed Apr 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 4.0-1 | Fri Mar 30 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 3.0-5 | Thu Dec 1 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 3.0-4 | Mon Nov 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 3.0-3 | Fri Oct 21 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 3.0-2 | Fri Oct 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 3.0-1 | Wed Sep 28 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 2.0-1 | Thu May 19 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| 改訂 1.0-1 | Wed Nov 10 2010 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
索引
シンボル
- はじめに, はじめに
- その他の Red Hat Enterprise Linux ドキュメント, はじめに
- クラスター
- クラスターの管理, Red Hat High Availability アドオンを設定する前の作業, Conga を使用した Red Hat High Availability アドオンの管理, Red Hat High Availability アドオンを使用した ccs の管理, コマンドラインツールを使用した Red Hat High Availability アドオンの管理
- ACPI の設定, 統合されたフェンスデバイスと使用するための ACPI 設定
- clustat で HA サービスを表示, clustat を使用した HA サービスステータスの表示
- cman_tool version -r を使用したクラスター設定の更新, cman_tool version -r を使用した設定の更新
- IP ポートの有効化, IP ポートの有効化
- scp を使用したクラスター設定の更新, scp を使用した設定の更新
- クラスタを再起動, クラスターの起動、停止、再起動、削除
- クラスターから離脱, ノードのクラスターに対する離脱/参加, ノードのクラスターに対する離脱/参加
- クラスターの起動、停止、再起動, クラスターソフトウェアの起動と停止
- クラスターへ参加, ノードのクラスターに対する離脱/参加, ノードのクラスターに対する離脱/参加
- クラスターを停止, クラスターの起動、停止、再起動、削除, クラスターの起動と停止
- クラスターを削除, クラスターの起動、停止、再起動、削除
- クラスターを開始, クラスターの起動、停止、再起動、削除, クラスターの起動と停止
- クラスターノードの再起動, クラスターノードの再起動
- クラスターノードの削除, クラスターからのメンバーの削除
- クラスターノードの管理, クラスターノードの管理, クラスターノードの管理
- クラスターノードの追加, 稼働しているクラスターへのメンバーの追加, 稼働しているクラスターへのメンバーの追加
- クラスター内の問題の診断と修正, クラスター内の問題の診断と修正
- クラスター内の問題の診断と是正, クラスター内の問題の診断と是正
- 互換性のあるハードウェア, 互換性のあるハードウェア
- 設定iptables, IP ポートの有効化
- 設定からノードを削除。設定にノードを追加, ノードの削除と追加
- 設定の妥当性検証, 設定の妥当性検証
- 設定の更新, 設定の更新
- 高可用性サービスの管理, 高可用性サービスの管理, 高可用性 (HA) サービスの管理
- 高可用性サービスの管理、凍結とその解除, clusvcadm を使用した HA サービスの管理, Freeze と Unfreeze の操作時の注意事項
- クラスターの設定, Conga を使用した Red Hat High Availability アドオンの設定, ccs コマンドを使用した Red Hat High Availability アドオンの設定, Red Hat High Availability の手動での設定
- クラスターサービス, クラスターへのクラスターサービスの追加, クラスターへのクラスターサービスの追加, クラスターへのクラスターサービスの追加
- (参照 クラスター設定へ追加)
- クラスターサービスマネージャ
- クラスターサービスマネージャー
- クラスターソフトウェア
- クラスターリソースのステータスチェック, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- クラスターリソースのタイプ, HA サービス設定の注意事項
- クラスターリソース間の関係, リソース間の親、子、兄弟の関係
- クラスター管理
- NetworkManager, NetworkManager の注意事項
- quorum disk 使用に関する注意事項, Quorum Disk 使用に関する注意事項
- ricci の注意事項, ricci の注意事項
- SELinux, Red Hat High Availability アドオンと SELinux
- ネットワークスイッチとマルチキャストアドレス, マルチキャストアドレス
- 仮想マシン, クラスター化環境での仮想マシンの設定
- 使用に関する注意事項 qdisk, Quorum Disk 使用に関する注意事項
- 設定時の一般的な注意事項, 設定時の一般的な注意事項
- ステータスチェック、クラスターリソース, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- タイプ
- クラスターリソース, HA サービス設定の注意事項
- タイムアウトフェイルオーバー, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- ツール、コマンドライン, コマンドラインツールの要約
- トラブルシューティング
- クラスター内の問題の診断と修正, クラスター内の問題の診断と修正
- クラスター内の問題の診断と是正, クラスター内の問題の診断と是正
- ハードウェア
- 互換性, 互換性のあるハードウェア
- パラメーター、HA リソース, HA リソースパラメーター
- パラメーター、フェンスデバイス, フェンスデバイスパラメーター
- フィードバック, フィードバック
- フェイルオーバーのタイムアウト, クラスターサービスリソースチェックとフェイルオーバーのタイムアウト
- フェンスエージェント
- fence_apc, フェンスデバイスパラメーター
- fence_apc_snmp, フェンスデバイスパラメーター
- fence_bladecenter, フェンスデバイスパラメーター
- fence_brocade, フェンスデバイスパラメーター
- fence_cisco_mds, フェンスデバイスパラメーター
- fence_cisco_ucs, フェンスデバイスパラメーター
- fence_drac5, フェンスデバイスパラメーター
- fence_eaton_snmp, フェンスデバイスパラメーター
- fence_egenera, フェンスデバイスパラメーター
- fence_eps, フェンスデバイスパラメーター
- fence_hpblade, フェンスデバイスパラメーター
- fence_ibmblade, フェンスデバイスパラメーター
- fence_idrac, フェンスデバイスパラメーター
- fence_ifmib, フェンスデバイスパラメーター
- fence_ilo, フェンスデバイスパラメーター
- fence_ilo2, フェンスデバイスパラメーター
- fence_ilo3, フェンスデバイスパラメーター
- fence_ilo_mp, フェンスデバイスパラメーター
- fence_imm, フェンスデバイスパラメーター
- fence_intelmodular, フェンスデバイスパラメーター
- fence_ipdu, フェンスデバイスパラメーター
- fence_ipmilan, フェンスデバイスパラメーター
- fence_rhevm, フェンスデバイスパラメーター
- fence_rsb, フェンスデバイスパラメーター
- fence_scsi, フェンスデバイスパラメーター
- fence_virt, フェンスデバイスパラメーター
- fence_vmware_soap, フェンスデバイスパラメーター
- fence_wti, フェンスデバイスパラメーター
- telnet/SSH による APC パワースイッチ, フェンスデバイスパラメーター
- フェンスデバイス
- Brocade ファブリックスイッチ, フェンスデバイスパラメーター
- Cisco MDS, フェンスデバイスパラメーター
- Cisco UCS, フェンスデバイスパラメーター
- Dell DRAC 5, フェンスデバイスパラメーター
- Dell iDRAC, フェンスデバイスパラメーター
- Eaton ネットワークパワースイッチ, フェンスデバイスパラメーター
- Egenera SAN コントローラー, フェンスデバイスパラメーター
- ePowerSwitch, フェンスデバイスパラメーター
- Fence virt, フェンスデバイスパラメーター
- Fujitsu Siemens Remoteview Service Board (RSB), フェンスデバイスパラメーター
- HP BladeSystem, フェンスデバイスパラメーター
- HP iLO, フェンスデバイスパラメーター
- HP iLO MP, フェンスデバイスパラメーター
- HP iLO2, フェンスデバイスパラメーター
- HP iLO3, フェンスデバイスパラメーター
- HP iLO4, フェンスデバイスパラメーター
- IBM BladeCenter, フェンスデバイスパラメーター
- IBM BladeCenter SNMP, フェンスデバイスパラメーター
- IBM Integrated Management Module, フェンスデバイスパラメーター
- IBM iPDU, フェンスデバイスパラメーター
- IF MIB, フェンスデバイスパラメーター
- Intel Modular, フェンスデバイスパラメーター
- IPMI LAN, フェンスデバイスパラメーター
- RHEV-M REST API, フェンスデバイスパラメーター
- SCSI fencing, フェンスデバイスパラメーター
- SNMP による APC パワースイッチ, フェンスデバイスパラメーター
- VMware (SOAP インターフェース), フェンスデバイスパラメーター
- WTI パワースイッチ, フェンスデバイスパラメーター
- マルチキャストアドレス
- ネットワークスイッチとマルチキャストアドレスの使用に関する注意事項, マルチキャストアドレス
- マルチキャストトラフィック、有効, クラスターコンポーネントに対する iptables ファイアウォールの設定
- 一般的
- クラスター管理の注意事項, 設定時の一般的な注意事項
- 仮想マシン、クラスター内, クラスター化環境での仮想マシンの設定
- 動作、HA リソース, HA リソースの動作
- 妥当性検証
- クラスターの設定, 設定の妥当性検証
- 概要
- 新機能と変更された機能, 新機能と変更された機能
- 機能、新機能と変更された機能, 新機能と変更された機能
- 統合されたフェンスデバイス
- ACPI の設定, 統合されたフェンスデバイスと使用するための ACPI 設定
- 表
- HA リソース、パラメーター, HA リソースパラメーター
- フェンスデバイス、パラメーター, フェンスデバイスパラメーター
- 設定
- HA サービス, HA サービス設定の注意事項
- 関係
- クラスターリソース, リソース間の親、子、兄弟の関係
A
- ACPI
B
- Brocade ファブリックスイッチフェンスデバイス , フェンスデバイスパラメーター
C
- CISCO MDS フェンスデバイス, フェンスデバイスパラメーター
- Cisco UCS フェンスデバイス, フェンスデバイスパラメーター
- Conga
- consensus 値, 2 ノードクラスター内の totem の consensus 値
D
- Dell DRAC 5 フェンスデバイス, フェンスデバイスパラメーター
- Dell iDRAC フェンスデバイス , フェンスデバイスパラメーター
E
- Eaton ネットワークパワースイッチ, フェンスデバイスパラメーター
- Egenera SAN コントローラーフェンスデバイス, フェンスデバイスパラメーター
- ePowerSwitch フェンスデバイス, フェンスデバイスパラメーター
F
- fence agent
- fence_ilo4, フェンスデバイスパラメーター
- Fence virt フェンスデバイス, フェンスデバイスパラメーター
- fence_apc fence エージェント, フェンスデバイスパラメーター
- fence_apc_snmp フェンスエージェント, フェンスデバイスパラメーター
- fence_bladecenter フェンスエージェント, フェンスデバイスパラメーター
- fence_brocade フェンスエージェント, フェンスデバイスパラメーター
- fence_cisco_mds フェンスエージェント, フェンスデバイスパラメーター
- fence_cisco_ucs フェンスエージェント, フェンスデバイスパラメーター
- fence_drac5 フェンスエージェント, フェンスデバイスパラメーター
- fence_eaton_snmp フェンスエージェント, フェンスデバイスパラメーター
- fence_egenera フェンスエージェント, フェンスデバイスパラメーター
- fence_eps フェンスエージェント, フェンスデバイスパラメーター
- fence_hpblade フェンスエージェント, フェンスデバイスパラメーター
- fence_ibmblade フェンスエージェント, フェンスデバイスパラメーター
- fence_idrac フェンスエージェント, フェンスデバイスパラメーター
- fence_ifmib フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo2 フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo3 フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo4 フェンスエージェント, フェンスデバイスパラメーター
- fence_ilo_mp フェンスエージェント, フェンスデバイスパラメーター
- fence_imm フェンスエージェント, フェンスデバイスパラメーター
- fence_intelmodular フェンスエージェント, フェンスデバイスパラメーター
- fence_ipdu フェンスエージェント, フェンスデバイスパラメーター
- fence_ipmilan フェンスエージェント, フェンスデバイスパラメーター
- fence_rhevm フェンスエージェント, フェンスデバイスパラメーター
- fence_rsb フェンスエージェント, フェンスデバイスパラメーター
- fence_scsi フェンスエージェント, フェンスデバイスパラメーター
- fence_virt フェンスエージェント, フェンスデバイスパラメーター
- fence_vmware_soap フェンスエージェント, フェンスデバイスパラメーター
- fence_wti フェンスエージェント, フェンスデバイスパラメーター
- Fujitsu Siemens Remoteview Service Board (RSB) フェンスデバイス, フェンスデバイスパラメーター
H
- HA サービスの設定
- 概要, HA サービス設定の注意事項
- High Availability LVM の設定, High Availability LVM (HA-LVM)
- HP Bladesystem フェンスデバイス, フェンスデバイスパラメーター
- HP iLO MP フェンスデバイス, フェンスデバイスパラメーター
- HP iLO フェンスデバイス, フェンスデバイスパラメーター
- HP iLO2 フェンスデバイス, フェンスデバイスパラメーター
- HP iLO3 フェンスデバイス, フェンスデバイスパラメーター
- HP iLO4 フェンスデバイス, フェンスデバイスパラメーター
I
- IBM BladeCenter SNMP フェンスデバイス, フェンスデバイスパラメーター
- IBM BladeCenter フェンスデバイス, フェンスデバイスパラメーター
- IBM Integrated Management Module フェンスデバイス, フェンスデバイスパラメーター
- IBM iPDU フェンスデバイス, フェンスデバイスパラメーター
- IF MIB フェンスデバイス, フェンスデバイスパラメーター
- Intel Modular フェンスデバイス, フェンスデバイスパラメーター
- IP ポート
- 有効化, IP ポートの有効化
- IPMI LAN フェンスデバイス, フェンスデバイスパラメーター
- iptables
- 設定, IP ポートの有効化
- iptables ファイアウォール, クラスターコンポーネントに対する iptables ファイアウォールの設定
L
- LVM、High Availability, High Availability LVM (HA-LVM)
N
- NetworkManager
- クラスター使用のために無効化, NetworkManager の注意事項
- nfsexport リソース、設定, nfsexport および nfsserver リソースの設定
- nfsserver リソース、設定, nfsexport および nfsserver リソースの設定
Q
- qdisk
- 使用に関する注意事項, Quorum Disk 使用に関する注意事項
- quorum disk
- 使用に関する注意事項, Quorum Disk 使用に関する注意事項
R
- RHEV-M REST API フェンスデバイス, フェンスデバイスパラメーター
- ricci
- クラスター管理の注意事項, ricci の注意事項
S
- SCSI フェンシング, フェンスデバイスパラメーター
- SELinux
- SNMP フェンスデバイスによる APC パワースイッチ , フェンスデバイスパラメーター
T
- telnet/SSH フェンスデバイスによる APC パワースイッチ, フェンスデバイスパラメーター
- totem タグ
- consensus 値, 2 ノードクラスター内の totem の consensus 値
V
- VMware (SOAP インターフェース) フェンスデバイス, フェンスデバイスパラメーター
W
- WTI パワースイッチフェンスデバイス, フェンスデバイスパラメーター