1.2. Ceph Monitor
Ceph Monitor は、ストレージクラスターマップのマスターコピーを維持する軽量プロセスです。すべての Ceph クライアントは Ceph モニターに問い合わせ、ストレージクラスターマップの現在のコピーを取得し、クライアントがプールにバインドし、読み取りと書き込みを可能にします。
Ceph Monitor は Paxos プロトコルのバリエーションを使用して、ストレージクラスター全体でマップやその他の重要な情報について合意を確立します。Paxos の性質上、Ceph は、クォーラムを確立するためにモニターの大部分を実行する必要があり、合意を確立します。
Red Hat では、実稼働クラスターのサポートを受け取るために、別のホストで少なくとも 3 つのモニターが必要になります。
Red Hat は、奇数のモニターをデプロイすることを推奨します。奇数の Ceph モニターは、偶数のモニターよりも障害に対する回復性が高くなっています。たとえば、2 つのモニターデプロイメントでクォーラムを維持するには、Ceph は障害を許容できません。3 つのモニターでは障害を 1 つ、4 つのモニターでは障害を 1 つ、5 つのモニターでは障害を 2 つ許容します。このため、奇数も推奨されています。要約すると、Ceph は、モニターの大部分 (3 つのうち 2 つ、 4 つのうち 3 つなど) が実行され、相互に通信できるようにする必要があります。
マルチノードの Ceph ストレージクラスターの初回のデプロイには、Red Hat では 3 つのモニターが必要です。3 つ以上のモニターが有効な場合には、一度に数を 2 つ増やします。
Ceph Monitor は軽量であるため、OpenStack ノードと同じホストで実行できます。ただし、Red Hat は、別のホストでモニターを実行することを推奨します。
Red Hat では、同じノードで Ceph Monitor と OSD を共存させるサポートはありません。これを行うと、ストレージクラスターのパフォーマンスに悪影響を与える可能性があります。
Red Hat は、コンテナー化された環境における Ceph サービスを共存させることのみをサポートしています。
ストレージクラスターからモニターを削除する場合、Ceph Monitor は Paxos プロトコルを使用して、マスターストレージクラスターマップに関する合意を確立することを検討してください。クォーラムを確立するには、十分な数の Ceph モニターが必要です。
関連情報
- サポートされているすべての Ceph 設定については、ナレッジベースアーティクル Red Hat Ceph Storage でサポートされる設定 を参照してください。
1.2.1. 新規 Ceph Monitor ノードの準備 リンクのコピーリンクがクリップボードにコピーされました!
デプロイメント用の新たな Ceph Monitor ノードを準備する前に、Red Hat Ceph Storage インストールガイド のRed Hat Ceph Storage のインストール要件 の章を確認してください。
新規 Ceph Monitor を別のノードにデプロイして、ストレージクラスター内のすべての Ceph Monitor ノードが同じハードウェアで実行される必要があります。
前提条件
- ネットワーク接続
- 新しいノードへのルートレベルのアクセス。
手順
- 新規ノードをサーバーラックに追加します。
- 新しいノードをネットワークに接続します。
Red Hat Enterprise Linux 7 または Red Hat Enterprise Linux 8 の最新バージョンをインストールします。
Red Hat Enterprise Linux 7 の場合は、
ntpをインストールし、信頼できるタイムソースを設定します。yum install ntp
[root@mon ~]# yum install ntpCopy to Clipboard Copied! Toggle word wrap Toggle overflow Red Hat Enterprise Linux 8 の場合は、
chronyをインストールし、信頼できるタイムソースを設定します。dnf install chrony
[root@mon ~]# dnf install chronyCopy to Clipboard Copied! Toggle word wrap Toggle overflow
ファイアウォールを使用している場合は、TCP ポート 6789 を開きます。
firewall-cmd --zone=public --add-port=6789/tcp firewall-cmd --zone=public --add-port=6789/tcp --permanent
[root@mon ~]# firewall-cmd --zone=public --add-port=6789/tcp [root@mon ~]# firewall-cmd --zone=public --add-port=6789/tcp --permanentCopy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
-
chronyの詳細は、Red Hat Enterprise Linux 8 の基本システム設定の設定 を参照してください。
1.2.2. Ansible を使用した Ceph Monitor の追加 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat は、奇数のモニターを維持するために、一度に 2 つの Ceph Monitor を追加することを推奨します。たとえば、ストレージクラスターに Ceph Monitor が 3 つある場合に、Red Hat はモニター数を 5 に増やすことを推奨します。
前提条件
- 新しいノードへのルートレベルのアクセス。
- Ansible 管理ノード。
- Ansible によりデプロイされた実行中の Red Hat Ceph Storage クラスター
手順
[mons]セクションの下に、新しい Ceph Monitor ノードを/etc/ansible/hostsAnsible インベントリーファイルに追加します。例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ansible が Ceph ノードと通信できることを確認します。
ansible all -m ping
[root@admin ~]# ansible all -m pingCopy to Clipboard Copied! Toggle word wrap Toggle overflow ディレクトリーを Ansible 設定ディレクトリーに移動します。
cd /usr/share/ceph-ansible
[root@admin ~]# cd /usr/share/ceph-ansibleCopy to Clipboard Copied! Toggle word wrap Toggle overflow 次のいずれかの手順を使用して Ceph Monitor を追加できます。
ベアメタル と コンテナーの 両方のデプロイメントの場合は、
インフラストラクチャー Playbookを実行します。ansible-playbook -vvvv -i hosts infrastructure-playbooks/add-mon.yml
[root@admin ceph-ansible]# ansible-playbook -vvvv -i hosts infrastructure-playbooks/add-mon.ymlCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ansible ユーザーとして、
サイトPlaybook またはサイトコンテナーPlaybook のいずれかを実行します。ベアメタル デプロイメント:
例
ansible-playbook -vvvv -i hosts site.yml --limit mons
[ansible@admin ceph-ansible]$ ansible-playbook -vvvv -i hosts site.yml --limit monsCopy to Clipboard Copied! Toggle word wrap Toggle overflow コンテナー デプロイメント:
例
ansible-playbook -vvvv -i hosts site-container.yml --limit mons
[ansible@admin ceph-ansible]$ ansible-playbook -vvvv -i hosts site-container.yml --limit monsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ansible Playbook の実行が終了すると、新しい Ceph Monitor ノードがストレージクラスターに表示されます。
設定ファイルを更新します。
ベアメタル デプロイメント:
例
ansible-playbook -vvvv -i hosts site.yml --tags ceph_update_config
[user@admin ceph-ansible]$ ansible-playbook -vvvv -i hosts site.yml --tags ceph_update_configCopy to Clipboard Copied! Toggle word wrap Toggle overflow コンテナー デプロイメント:
例
ansible-playbook -vvvv -i hosts site-container.yml --tags ceph_update_config
[user@admin ceph-ansible]$ ansible-playbook -vvvv -i hosts site-container.yml --tags ceph_update_configCopy to Clipboard Copied! Toggle word wrap Toggle overflow
1.2.3. コマンドラインインターフェイスを使用した Ceph Monitor の追加 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat は、奇数のモニターを維持するために、一度に 2 つの Ceph Monitor を追加することを推奨します。たとえば、ストレージクラスターに Ceph Monitor が 3 つある場合に、Red Hat はモニター数を 5 に増やすことを推奨します。
Red Hat は、ノードごとに Ceph Monitor デーモンを 1 つだけ実行することを推奨します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- 実行中の Ceph Monitor ノードへのルートレベルのアクセスと、新しいモニターノードへのアクセス。
手順
Red Hat Ceph Storage 4 Monitor リポジトリーを追加にします。
Red Hat Enterprise Linux 7
subscription-manager repos --enable=rhel-7-server-rhceph-4-mon-rpms
[root@mon ~]# subscription-manager repos --enable=rhel-7-server-rhceph-4-mon-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Red Hat Enterprise Linux 8
subscription-manager repos --enable=rhceph-4-mon-for-rhel-8-x86_64-rpms
[root@mon ~]# subscription-manager repos --enable=rhceph-4-mon-for-rhel-8-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow ceph-monパッケージを新しい Ceph Monitor ノードにインストールします。Red Hat Enterprise Linux 7
yum install ceph-mon
[root@mon ~]# yum install ceph-monCopy to Clipboard Copied! Toggle word wrap Toggle overflow Red Hat Enterprise Linux 8
dnf install ceph-mon
[root@mon ~]# dnf install ceph-monCopy to Clipboard Copied! Toggle word wrap Toggle overflow ストレージクラスター内の実行中のノードの Ceph 設定ファイルの
[mon]セクションでmon_host設定のリストを編集します。新規 Ceph Monitor ノードの IP アドレスを
mon_host設定リストに追加します。構文
[mon] mon_host = MONITOR_IP : PORT MONITOR_IP : PORT ... NEW_MONITOR_IP : PORT
[mon] mon_host = MONITOR_IP : PORT MONITOR_IP : PORT ... NEW_MONITOR_IP : PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph 設定ファイルの [mon] セクションに新しい Ceph Monitor の IP アドレスを追加する代わりに、新規モニターノード用にファイルに特定のセクションを作成することができます。
構文
[mon.MONITOR_ID] host = MONITOR_ID mon_addr = MONITOR_IP
[mon.MONITOR_ID] host = MONITOR_ID mon_addr = MONITOR_IPCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記mon_host設定のリストは、DNS で解決できるホスト名または IP アドレスのリストで、,、;、または で区切ります。このリストは、ストレージクラスターが起動または再起動時に新規の Monitor ノードを識別できるようにします。重要mon_initial_members設定は、Ceph Monitor ノードの初期クォーラムグループをリスト表示します。そのグループの 1 つのメンバーが失敗すると、そのグループの別のノードが初期モニターノードになります。実稼働ストレージクラスターの高可用性を確保するには、Ceph 設定ファイルのmon_initial_membersセクションおよびmon_hostセクションに、少なくとも 3 つの監視ノードをリスト表示します。これにより、最初のモニターノードに障害が発生した場合にストレージクラスターをロックできなくなります。追加するモニターノードがmon_initial_membersおよびmon_hostの一部であるモニターを置き換える場合は、新しいモニターを両方のセクションに追加します。
最初のクォーラムグループのモニター部分を作成するには、Ceph 設定ファイルの
[global]セクションのmon_initial_membersパラメーターにホスト名を追加します。例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 更新された Ceph 設定ファイルをすべての Ceph ノードおよび Ceph クライアントにコピーします。
構文
scp /etc/ceph/CLUSTER_NAME.conf TARGET_NODE_NAME:/etc/ceph
scp /etc/ceph/CLUSTER_NAME.conf TARGET_NODE_NAME:/etc/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
scp /etc/ceph/ceph.conf node4:/etc/ceph
[root@mon ~]# scp /etc/ceph/ceph.conf node4:/etc/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow モニターのデータのディレクトリーを新規モニターノードに作成します。
構文
mkdir /var/lib/ceph/mon/CLUSTER_NAME - MONITOR_ID
mkdir /var/lib/ceph/mon/CLUSTER_NAME - MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir /var/lib/ceph/mon/ceph-node4
[root@mon ~]# mkdir /var/lib/ceph/mon/ceph-node4Copy to Clipboard Copied! Toggle word wrap Toggle overflow 実行中の Ceph Monitor ノードおよび新しいモニターノードに一時ディレクトリーを作成し、この手順に必要なファイルをこれらのディレクトリーで保持します。各ノードの一時ディレクトリーは、ノードのデフォルトディレクトリーとは異なる必要があります。これは、すべての手順の完了後に削除できます。
構文
mkdir TEMP_DIRECTORY_PATH_NAME
mkdir TEMP_DIRECTORY_PATH_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir /tmp/ceph
[root@mon ~]# mkdir /tmp/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 実行中の Ceph Monitor ノードから新しい Ceph Monitor ノードに admin キーをコピーし、
cephコマンドを実行できるようにします。構文
scp /etc/ceph/CLUSTER_NAME.client.admin.keyring TARGET_NODE_NAME:/etc/ceph
scp /etc/ceph/CLUSTER_NAME.client.admin.keyring TARGET_NODE_NAME:/etc/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
scp /etc/ceph/ceph.client.admin.keyring node4:/etc/ceph
[root@mon ~]# scp /etc/ceph/ceph.client.admin.keyring node4:/etc/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 実行中の Ceph Monitor ノードから、モニターキーリングを取得します。
構文
ceph auth get mon. -o TEMP_DIRECTORY_PATH_NAME/KEY_FILE_NAME
ceph auth get mon. -o TEMP_DIRECTORY_PATH_NAME/KEY_FILE_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph auth get mon. -o /tmp/ceph/ceph_keyring.out
[root@mon ~]# ceph auth get mon. -o /tmp/ceph/ceph_keyring.outCopy to Clipboard Copied! Toggle word wrap Toggle overflow 実行中の Ceph Monitor ノードから、モニターマップを取得します。
構文
ceph mon getmap -o TEMP_DIRECTORY_PATH_NAME/MONITOR_MAP_FILE
ceph mon getmap -o TEMP_DIRECTORY_PATH_NAME/MONITOR_MAP_FILECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph mon getmap -o /tmp/ceph/ceph_mon_map.out
[root@mon ~]# ceph mon getmap -o /tmp/ceph/ceph_mon_map.outCopy to Clipboard Copied! Toggle word wrap Toggle overflow 収集した Ceph Monitor データを新しい Ceph Monitor ノードにコピーします。
構文
scp /tmp/ceph TARGET_NODE_NAME:/tmp/ceph
scp /tmp/ceph TARGET_NODE_NAME:/tmp/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
scp /tmp/ceph node4:/tmp/ceph
[root@mon ~]# scp /tmp/ceph node4:/tmp/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 先に収集したデータから、新しいモニター用にデータディレクトリーを準備します。モニターからクォーラム情報を取得するため、モニターマップへのパスを fsid と共に指定します。モニターキーリングへのパスを指定します。
構文
ceph-mon -i MONITOR_ID --mkfs --monmap TEMP_DIRECTORY_PATH_NAME/MONITOR_MAP_FILE --keyring TEMP_DIRECTORY_PATH_NAME/KEY_FILE_NAME
ceph-mon -i MONITOR_ID --mkfs --monmap TEMP_DIRECTORY_PATH_NAME/MONITOR_MAP_FILE --keyring TEMP_DIRECTORY_PATH_NAME/KEY_FILE_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph-mon -i node4 --mkfs --monmap /tmp/ceph/ceph_mon_map.out --keyring /tmp/ceph/ceph_keyring.out
[root@mon ~]# ceph-mon -i node4 --mkfs --monmap /tmp/ceph/ceph_mon_map.out --keyring /tmp/ceph/ceph_keyring.outCopy to Clipboard Copied! Toggle word wrap Toggle overflow カスタム名を持つストレージクラスターの場合は、以下の行を
/etc/sysconfig/cephファイルに追加します。構文
echo "CLUSTER=CUSTOM_CLUSTER_NAME" >> /etc/sysconfig/ceph
echo "CLUSTER=CUSTOM_CLUSTER_NAME" >> /etc/sysconfig/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
echo "CLUSTER=example" >> /etc/sysconfig/ceph
[root@mon ~]# echo "CLUSTER=example" >> /etc/sysconfig/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 新規モニターノードで所有者およびグループのパーミッションを更新します。
構文
chown -R OWNER : GROUP DIRECTORY_PATH
chown -R OWNER : GROUP DIRECTORY_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
chown -R ceph:ceph /var/lib/ceph/mon chown -R ceph:ceph /var/log/ceph chown -R ceph:ceph /var/run/ceph chown -R ceph:ceph /etc/ceph
[root@mon ~]# chown -R ceph:ceph /var/lib/ceph/mon [root@mon ~]# chown -R ceph:ceph /var/log/ceph [root@mon ~]# chown -R ceph:ceph /var/run/ceph [root@mon ~]# chown -R ceph:ceph /etc/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 新しい monitor ノードで
ceph-monプロセスを有効にして起動します。構文
systemctl enable ceph-mon.target systemctl enable ceph-mon@MONITOR_ID systemctl start ceph-mon@MONITOR_ID
systemctl enable ceph-mon.target systemctl enable ceph-mon@MONITOR_ID systemctl start ceph-mon@MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
systemctl enable ceph-mon.target systemctl enable ceph-mon@node4 systemctl start ceph-mon@node4
[root@mon ~]# systemctl enable ceph-mon.target [root@mon ~]# systemctl enable ceph-mon@node4 [root@mon ~]# systemctl start ceph-mon@node4Copy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- Red Hat Ceph Storage インストールガイド のRed Hat Ceph Storage リポジトリーの有効化セクションを参照してください。
1.2.4. モニタリング選択ストラテジーの設定 リンクのコピーリンクがクリップボードにコピーされました!
モニター選択ストラテジーは、ネット分割を識別し、障害を処理します。選択モニターストラテジーは、3 つの異なるモードで設定できます。
-
classic- これは、2 つのサイト間のエレクターモジュールに基づいて、最も低いランクのモニターが投票されるデフォルトのモードです。 -
disallow- このモードでは、モニターを不許可とマークできます。この場合、モニターはクォーラムに参加してクライアントにサービスを提供しますが、選出されたリーダーになることはできません。これにより、許可されていないリーダーのリストにモニターを追加できます。モニターが許可されていないリストにある場合、そのモニターは常に別のモニターに先送りされます。 -
connectivity- このモードは、主にネットワークの不一致を解決するために使用されます。ピアに対して各モニターによって提供される接続スコアを評価し、最も接続されたモニターと信頼できるモニターをリーダーに選択します。このモードは、クラスターが複数のデータセンターにまたがっている場合や影響を受けやすい場合に発生する可能性のあるネット分割を処理するように設計されています。このモードでは接続スコア評価が組み込まれ、最良スコアのモニターが選択されます。
他のモードで機能が必要でない限り、Red Hat は、classic モードに留まります。
クラスターを構築する前に、以下のコマンドで election_strategy を classic、disallow、または connectivity に変更します。
構文
ceph mon set election_strategy {classic|disallow|connectivity}
ceph mon set election_strategy {classic|disallow|connectivity}
1.2.5. Ansible を使用した Ceph Monitor の削除 リンクのコピーリンクがクリップボードにコピーされました!
Ansible で Ceph Monitor を削除するには、Playbook の shrink-mon.yml を使用します。
前提条件
- Ansible 管理ノード。
- Ansible によりデプロイされた実行中の Red Hat Ceph Storage クラスター
手順
モニターが
ok-to-stopかどうかを確認します。構文
ceph mon ok-to-stop MONITOR_ID
ceph mon ok-to-stop MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph mon ok-to-stop node03
[root@mon ~]# ceph mon ok-to-stop node03Copy to Clipboard Copied! Toggle word wrap Toggle overflow /usr/share/ceph-ansible/ディレクトリーに移動します。cd /usr/share/ceph-ansible
[user@admin ~]$ cd /usr/share/ceph-ansibleCopy to Clipboard Copied! Toggle word wrap Toggle overflow ベアメタル および コンテナー のデプロイメントに、Ansible Playbook の
shrink-mon.ymlを実行します。構文
ansible-playbook infrastructure-playbooks/shrink-mon.yml -e mon_to_kill=NODE_NAME -u ANSIBLE_USER_NAME -i hosts
ansible-playbook infrastructure-playbooks/shrink-mon.yml -e mon_to_kill=NODE_NAME -u ANSIBLE_USER_NAME -i hostsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下を置き換えます。
-
NODE_NAMEは、Ceph Monitor ノードの短いホスト名に置き換えます。Playbook の実行時に 1 つの Ceph Monitor は 1 つだけ削除できます。 -
ANSIBLE_USER_NAMEは、Ansible ユーザーの名前に置き換えてください。
例
ansible-playbook infrastructure-playbooks/shrink-mon.yml -e mon_to_kill=node03 -u user -i hosts
[user@admin ceph-ansible]$ ansible-playbook infrastructure-playbooks/shrink-mon.yml -e mon_to_kill=node03 -u user -i hostsCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
-
ansible インベントリーホスト
/etc/ansible/hostsから対応するエントリーを手動で削除します。 ceph-ansiblePlaybook を実行します。ベアメタルデプロイメント:
例
ansible-playbook site.yml --tags ceph_update_config -i hosts
[user@admin ceph-ansible]$ ansible-playbook site.yml --tags ceph_update_config -i hostsCopy to Clipboard Copied! Toggle word wrap Toggle overflow コンテナーデプロイメント:
例
ansible-playbook site-container.yml --tags ceph_update_config -i hosts
[user@admin ceph-ansible]$ ansible-playbook site-container.yml --tags ceph_update_config -i hostsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
Ceph Monitor が正常に削除されていることを確認します。
ceph -s
[root@mon ~]# ceph -sCopy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- Red Hat Ceph Storage のインストールに関する詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
- Ansible インベントリー設定の詳細は、{storage_product} インストールガイド の Ansible のインベントリーの場所の設定 セクションを参照してください。
1.2.6. コマンドラインインターフェイスを使用した Ceph Monitor の削除 リンクのコピーリンクがクリップボードにコピーされました!
Ceph Monitor を削除するには、ストレージクラスターから ceph-mon デーモンを削除し、ストレージクラスターマップを更新します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- monitor ノードへのルートレベルのアクセス。
手順
モニターが
ok-to-stopかどうかを確認します。構文
ceph mon ok-to-stop HOSTNAME
ceph mon ok-to-stop HOSTNAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph mon ok-to-stop node03
[root@mon ~]# ceph mon ok-to-stop node03Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph Monitor サービスを停止します。
構文
systemctl stop ceph-mon@MONITOR_ID
systemctl stop ceph-mon@MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
systemctl stop ceph-mon@node3
[root@mon ~]# systemctl stop ceph-mon@node3Copy to Clipboard Copied! Toggle word wrap Toggle overflow ストレージクラスターから Ceph Monitor を削除します。
構文
ceph mon remove MONITOR_ID
ceph mon remove MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph mon remove node3
[root@mon ~]# ceph mon remove node3Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
Ceph 設定ファイルから Ceph Monitor エントリーを削除します。設定ファイルのデフォルトの場所は
/etc/ceph/ceph.confです。 Ceph 設定ファイルを、ストレージクラスターの残りの全 Ceph ノードに再配布します。
構文
scp /etc/ceph/CLUSTER_NAME.conf USER_NAME @ TARGET_NODE_NAME :/etc/ceph/
scp /etc/ceph/CLUSTER_NAME.conf USER_NAME @ TARGET_NODE_NAME :/etc/ceph/Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
scp /etc/ceph/ceph.conf root@node3:/etc/ceph/
[root@mon ~]# scp /etc/ceph/ceph.conf root@node3:/etc/ceph/Copy to Clipboard Copied! Toggle word wrap Toggle overflow コンテナー のデプロイメントの場合は、Ceph Monitor サービスを無効にし、削除します。
Ceph Monitor サービスを無効にします。
構文
systemctl disable ceph-mon@MONITOR_ID
systemctl disable ceph-mon@MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
systemctl disable ceph-mon@node3
[root@mon ~]# systemctl disable ceph-mon@node3Copy to Clipboard Copied! Toggle word wrap Toggle overflow systemdからサービスを削除します。rm /etc/systemd/system/ceph-mon@.service
[root@mon ~]# rm /etc/systemd/system/ceph-mon@.serviceCopy to Clipboard Copied! Toggle word wrap Toggle overflow systemdマネージャー設定を再読み込みします。systemctl daemon-reload
[root@mon ~]# systemctl daemon-reloadCopy to Clipboard Copied! Toggle word wrap Toggle overflow 障害が発生した Ceph Monitor ノードの状態をリセットします。
systemctl reset-failed
[root@mon ~]# systemctl reset-failedCopy to Clipboard Copied! Toggle word wrap Toggle overflow
オプション: Ceph Monitor データをアーカイブします。
構文
mv /var/lib/ceph/mon/CLUSTER_NAME - MONITOR_ID /var/lib/ceph/mon/removed- CLUSTER_NAME - MONITOR_ID
mv /var/lib/ceph/mon/CLUSTER_NAME - MONITOR_ID /var/lib/ceph/mon/removed- CLUSTER_NAME - MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mv /var/lib/ceph/mon/ceph-node3 /var/lib/ceph/mon/removed-ceph-node3
[root@mon ~]# mv /var/lib/ceph/mon/ceph-node3 /var/lib/ceph/mon/removed-ceph-node3Copy to Clipboard Copied! Toggle word wrap Toggle overflow 必要に応じて、Ceph Monitor データを削除します。
構文
rm -r /var/lib/ceph/mon/CLUSTER_NAME - MONITOR_ID
rm -r /var/lib/ceph/mon/CLUSTER_NAME - MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
rm -r /var/lib/ceph/mon/ceph-node3
[root@mon ~]# rm -r /var/lib/ceph/mon/ceph-node3Copy to Clipboard Copied! Toggle word wrap Toggle overflow
1.2.7. 異常なストレージクラスターからの Ceph Monitor の削除 リンクのコピーリンクがクリップボードにコピーされました!
配置グループが永続的に active + clean 状態にない正常でないストレージクラスターから ceph-mon デーモンを削除できます。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- Ceph Monitor ノードへの root レベルのアクセス。
- Ceph Monitor ノードが少なくとも 1 台実行している。
手順
存続する Ceph Monitor ノードにログインします。
構文
ssh root@MONITOR_NODE_NAME
ssh root@MONITOR_NODE_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ssh root@mon2
[root@admin ~]# ssh root@mon2Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph-monデーモンを停止し、monmapファイルのコピーを抽出します。構文
systemctl stop ceph-mon@MONITOR_ID ceph-mon -i SHORT_HOSTNAME --extract-monmap TEMP_PATH
systemctl stop ceph-mon@MONITOR_ID ceph-mon -i SHORT_HOSTNAME --extract-monmap TEMP_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
systemctl stop ceph-mon@mon1 ceph-mon -i mon1 --extract-monmap /tmp/monmap
[root@mon2 ~]# systemctl stop ceph-mon@mon1 [root@mon2 ~]# ceph-mon -i mon1 --extract-monmap /tmp/monmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph Monitor 以外を削除します。
構文
monmaptool TEMPORARY_PATH --rm _MONITOR_ID
monmaptool TEMPORARY_PATH --rm _MONITOR_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
monmaptool /tmp/monmap --rm mon1
[root@mon2 ~]# monmaptool /tmp/monmap --rm mon1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 削除されたモニターを含む存続しているモニターマップを、存続している Ceph モニターに挿入します。
構文
ceph-mon -i SHORT_HOSTNAME --inject-monmap TEMP_PATH
ceph-mon -i SHORT_HOSTNAME --inject-monmap TEMP_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph-mon -i mon2 --inject-monmap /tmp/monmap
[root@mon2 ~]# ceph-mon -i mon2 --inject-monmap /tmp/monmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow 存続するモニターのみを起動し、モニターがクォーラムを形成することを確認します。
例
ceph -s
[root@mon2 ~]# ceph -sCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
オプション: 削除された Ceph Monitor のデータディレクトリーを
/var/lib/ceph/monディレクトリーにアーカイブします。