6.4. Red Hat Ceph Storage 7.1z4
Red Hat Ceph Storage リリース 7.1z4 が利用可能になりました。この更新に含まれるセキュリティーおよびバグ修正は、RHSA-2025:4664 および RHSA-2025:46 67 アドバイザリーに記載され ています。
6.4.1. 機能拡張 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat Ceph Storage のこのリリースで導入された機能拡張を説明します。
6.4.1.1. Cephadm ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
cephadm systemd ユニットでのコアダンプ処理の改善
以前は、サービスのクラッシュが困難な場合にコアダンプが生成されたり、切り捨てられたりせず、貴重なデバッグ情報が失われたりしたりしていました。
今回の機能強化により、cephadm は systemd ユニットファイルテンプレートに LimitCORE=infinity
を設定し、mgr/cephadm/set_coredump_overrides
設定が有効になっている場合に、coredumpctl
の ProcessSizeMax
および ExternalSizeMax
設定を設定するようになりました。コアダンプの最大サイズは、mgr/cephadm/coredump_max_size
設定によって制御されます。その結果、サービスは完全なコアダンプを生成するようになり、クラッシュの問題のデバッグ機能が向上しました。
6.4.1.2. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
バケット通知をマルチノードの Kafka クラスターに送信できるようになりました
以前は、Ceph Object Gateway はシングルノードの Kafka クラスターにのみメッセージを送信できました。
今回の機能拡張により、バケット通知をマルチノードの Kafka クラスターに送信できるようになりました。マルチノード Kafka クラスターをサポートすると、クラスターの高可用性(HA)が適切に使用されています。ノードが、他の Kafka ノードが稼働している状態で down 状態にあると、メッセージを送信できるようになりました。さらに、Ceph Object Gateway は各ノードに接続されているようになったため、トピックパーティションがすべてのノードに複製されないためにバケット通知の失敗が発生しなくなりました。
サイトは既存のバケット作成の RGW エラー処理を設定できるようになりました。
以前のバージョンでは、新しいバケットが作成されていなくても、同じゾーンにすでに存在するバケットを作成するときに、RGW は正常な応答を返していました。これにより、自動ワークフローで混乱が生じていました。
この機能強化により、サイトは、ゾーンにすでに存在するバケットを作成しようとするときに、成功ではなくエラーを返すように RGW を設定できるようになりました。設定オプション rgw_bucket_exist_override
が true に設定されている場合、RGW は重複するバケット作成要求に対して 409 BucketAlreadyExists
エラーを返します。デフォルトでは、このオプションは false
に設定されます。
6.4.1.3. RADOS リンクのコピーリンクがクリップボードにコピーされました!
不要なオブジェクト ID 修復チェックを削除することによる PG スクラブパフォーマンスの向上
以前は、すべての PG スクラブが repair_oinfo_oid ()
と呼ばれていました。関数は、過去のファイルシステムのバグにリンクされているまれに、一致しないオブジェクト ID を修正するための関数です。チェックは非常に特定の条件下でのみ適用されるため、これにより不要なオーバーヘッドが追加されます。
今回の機能拡張により、チェックが削除され、10% を超えるディープスクラブパフォーマンスが向上しました。シャロースクラブはさらにメリットが得られることが予想されます。
OSDMap クリーンアップ用の新しい ceph osd rm-pg-up map-primary-all
コマンド
以前は、ceph osd rm-pg-upmap-primary PGID
を使用して pg_upmap_primary
マッピングを個別に削除する必要がありました。これは時間がかかり、エラーが発生しやすく、特にプールの削除後に無効なマッピングをクリーンアップする場合に時間がかかりました。
今回の機能強化により、ユーザーは新しい ceph osd rm-pg-upmap-primary-all
コマンドを実行して、OSDMap からすべての pg_upmap_primary
マッピングを一度にクリアし、管理とクリーンアップを簡素化できます。
6.4.2. 既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat Ceph Storage のこのリリースで見つかった既知の問題について説明します。
6.4.2.1. Cephadm ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
exporter デーモンは、SIGTERM を受信した後にエラー状態を報告する
現在、ceph-exporter
および node-exporter
デーモンは、SIGTERM シグナルを受け取るとゼロ以外のリターンコードを返します。その結果、システムはこれらのデーモンを予想される停止状態ではなく、エラー状態としてマークします。
現時点では、利用可能な回避策はありません。
メンテナンスモードの終了後にデーモンが停止と誤ってマークされる
ノードがメンテナンスモードから抜けた場合、cephadm は、すでに起動している場合でも、そのノードのデーモンを一時的に停止状態にある可能性があります。これは、cephadm がまだホスト上のデーモンステータスを更新していないために発生します。その結果、ユーザーがメンテナンスモードの終了直後にデーモンが停止していると誤って表示される可能性があります。
現時点では回避策はありません。