第3章 新機能
このセクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
3.1. Cephadm ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
Ceph Object Gateway マルチサイトセットアップの自動化を追加した
この機能強化により、Ceph Object Gateway のレルム bootstrap コマンドを使用してゾーングループのホスト名を設定できるようになりました。ceph rgw realm bootstrap
コマンドに提供される仕様ファイルを使用して、zonegroups_hostnames
を設定します。
この機能は、追加の手順を必要とせずに、bootstrap コマンドに渡される初期仕様ファイルを使用して別のセットアップオプションをそのまま追加します。
realm bootstrap コマンドに渡される Ceph Object Gateway 仕様の spec
セクションに zonegroup_hostnames
セクションを追加します。このセクションを追加すると、Ceph Object Gateway モジュールがレルム、ゾーングループ、またはゾーンの作成を完了します。その後に Cephadm はこれらの指定されたホスト名を仕様で定義されているゾーングループに自動的に追加します。
以下に、仕様ファイルに追加する zonegroup_hostnames
セクションの例を示します。
zonegroup_hostnames: - host1 - host2
zonegroup_hostnames:
- host1
- host2
ゾーングループのホスト名の追加には、完了時の他の Cephadm モジュールのワークロードアクティビティーに応じて数分かかる場合があります。
Ceph rgw
サービスのアップデート中に更新された SSL 証明書を自動的に適用する新しい機能
以前は、サービス仕様で Ceph Object Gateway の SSL 証明書を更新しても、デーモンを手動で再起動するまで変更は有効になりませんでした。この手動の手順により自動化が妨げられ、サービスが一時的に古い証明書で実行されたままになる可能性があります。
この機能拡張により、Ceph Object Gateway 仕様の SSL 証明書の更新により、サービス更新プロセスの一環として必要なデーモンの再起動が自動的にトリガーされるようになります。その結果、この機能により、新しい証明書がすぐに適用され、自動化と運用の信頼性が向上します。
OSD デバイスの置き換えを簡素化する新しい ceph orch device replace HOST DEVICE_PATH
コマンド
以前は、共有 DB デバイスの交換は煩雑で、エラーが発生しやすい状況でした。また、Cephadm は、破壊してからすぐ、物理デバイスが交換される前に、OSD を再デプロイすることが頻繁にありました。
この機能強化により、ユーザーは競合状態や手動のクリーンアップ手順なしでデバイスを安全に交換できるようになりました。
cephadm systemd ユニットのコアダンプ処理の改善
以前は、特に再現が難しいケースでは、サービスがクラッシュしたときにコアダンプが生成されなかったり、切り捨てられたりしていたため、貴重なデバッグ情報が失われていました。
この機能拡張により、mgr/cephadm/set_coredump_overrides
設定が有効になっている場合、cephadm は systemd ユニットファイルテンプレートで LimitCORE=infinity
を設定し、coredumpctl
の ProcessSizeMax
および ExternalSizeMax
設定を指定するようになりました。コアダンプの最大サイズは mgr/cephadm/coredump_max_size
設定によって制御されます。その結果、サービスによって完全なコアダンプが生成され、クラッシュの問題をデバッグする機能が向上しました。
Cephadm が各ホストにデプロイできる新しいカスタムログローテーション設定が利用可能になりました
この機能拡張により、cephadm.log のローテーションと、cephadm が各ホストにデプロイするデーモンログの両方に対してカスタム logrotate 設定を指定できるようになりました。
ceph orch write-custom-logrotate TYPE -i LOGROTATE_FILE
ceph orch write-custom-logrotate TYPE -i LOGROTATE_FILE
クラスターログの logrotate ファイルまたは cephadm.log のどちらを上書きするかに応じて、TYPE を cephadm
または cluster
に置き換えます。LOGROTATE_FILE は、書き出す logrotate ファイルの内容に置き換えます。
cephadm によってデプロイされた既存の logrotate 設定から開始して、そこから編集します。
以下は、デフォルトの cephadm.log logrotate 設定ファイルです。
以下は、クラスターの logrotate 設定ファイルの例です。
cephadm
ファイルと cluster
ファイルは両方とも、クラスター内のホストの /etc/logrotate.d/cephadm
と /etc/logrotate.d/ceph-FSID
にあります。
これらのファイルのいずれかが以前に編集されている場合、編集されたバージョンがまだ存在する可能性があり、cephadm はこれらの設定ファイルを自動的に上書きしません。これらのファイルを上書きするには、ceph orch write-custom-logrotate
コマンドを使用します。
Cephadm は、デフォルト設定を削除し、そのホスト上でデーモンの再デプロイを実行してトリガーすることで、デフォルト設定を再生成できます。たとえば、crash.host1
デーモンがデプロイされている host1
の場合、次のコマンドを実行できます。
ceph orch daemon redeploy crash.host1
ceph orch daemon redeploy crash.host1
この例では、2 つの logrotate 設定が存在しない場合、cephadm は現在の Ceph バージョンのデフォルトでそれらを書き出します。
ホスト上の topographical ラベルの新規サポート
この機能拡張により、ホストの topological キー/値のプロパティーが導入され、cephadm の機能が拡張されます。管理者は、目的別に設定できる、分かりやすいラベルを使ってホストをグループ化できるようになり、より効率的なローリングアップグレードが可能になります。各サービスグループ (ラックごとに異なる RGW サービスなど) に対して複数のコマンドを発行する代わりに、アップグレードでは topographical ラベルのリストを反復処理できるため、マルチラック操作が効率化されます。さらに、これらのプロパティーが新たに追加され、改善された CRUSH ロケーション設定を活用して、RADOS 読み取りアフィニティーを強化できるようになります。