リリースノート


Red Hat Ceph Storage 5.3

Red Hat Ceph Storage 5.3 のリリースノート

Red Hat Ceph Storage Documentation Team

概要

本リリースノートでは、Red Hat Ceph Storage 5 製品リリースに実装された主な機能、拡張機能、既知の問題、バ修正について説明します。これは、以前のリリースノートから今回のリリースノートまでの最新の更新をカバーしています。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、用語の置き換えは、今後の複数のリリースにわたって段階的に実施されます。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。

Red Hat Ceph Storage ドキュメントへのフィードバック (英語のみ)

Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。これを行うには、Bugzilla のチケットを作成します。

  1. Bugzilla の Web サイトに移動します。
  2. Component ドロップダウンメニューで、Documentation を選択します。
  3. Sub-Component ドロップダウンで、適切なサブコンポーネントを選択します。
  4. ドキュメントの適切なバージョンを選択します。
  5. Summary および Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも記載してください。
  6. オプション: 添付ファイルを追加します (ある場合)。
  7. Submit Bug をクリックします。

第1章 概要

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。

Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/ja-jp/red_hat_ceph_storage/5 から入手できます。

第2章 謝辞

Ceph Storage プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

第3章 新機能

本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。

3.1. Cephadm ユーティリティー

Grafana サービス仕様で設定されている場合、cephadm はダッシュボードの Grafana パスワードを自動的に更新します。

以前は、ユーザーは仕様を適用した後に Grafana パスワードを手動で設定する必要がありました。

この機能拡張により、適用された Grafana 仕様で initial_admin_password が設定されている場合、cephadm はダッシュボード Grafana パスワードを自動的に更新します。これは、ceph dashboard set-grafana-api-password コマンドを実行することと同等であり、Grafana を完全にセットアップするプロセスを合理化します。ユーザーは、パスワードを含む仕様を適用した後に、ダッシュボード Grafana パスワードを手動で設定する必要がなくなりました。

OSD は、Ceph 設定ファイルを新しい mon ロケーションで自動的に更新します。

この機能拡張により、monmap の変更が検出されるたびに、cephadm は新しい mon ロケーションで各 OSD の Ceph 設定ファイルを自動的に更新します。

注記

多数の OSD がある場合、この機能拡張がすべての OSD で更新されるまでに時間がかかる場合があります。

3.2. Ceph Dashboard

Block Device イメージのテーブルがページ付けされます

今回の機能拡張では、ブロックデバイスイメージの情報を取得するとコストがかかるため、ブロックデバイスイメージテーブルは 10000 以上のイメージストレージクラスターで使用できるようにページ分割されています。

新しく追加された cross_origin_url オプションによりクロスオリジンのリソース共有が可能になります

以前、IBM の開発者は、Red Hat の REST API に設定された厳密な Cross Origin Resource Sharing (CORS) ポリシーが原因で、フロントエンドを使用して REST API を固定しようとしたときに Storage Insights 製品で問題に直面していました。

今回の機能拡張により、特定の URL (ceph config set mgr mgr/dashboard/cross_origin_url localhost) に設定できる cross_origin_url オプションを追加することで CORS が許可され、REST API はその URL のみとの通信を許可します。

3.3. Ceph ファイルシステム

ユーザーは、CephFS サブボリュームスナップショットの任意のメタデータを保存できます。

今回の機能拡張では、Ceph ファイルシステム (CephFS) ボリュームのユーザーは、一連のコマンドラインインターフェイス (CLI) コマンドを使用して、CephFS サブボリュームスナップショットのキーと値のペアの形式で任意のメタデータを保存できます。

3.4. Ceph Object Gateway

ロールの STS max_session_duration を更新できるように。

今回の機能拡張では、radosgw-admin コマンドラインインターフェイスを使用してロールの STS max_session_duration を更新できます。

ListBucket S3 操作で JSON 出力が生成されるようになりました

インテグレーションの容易化というお客様のリクエストに応じたこの機能拡張により、要求に Accept: application/json ヘッダーが含まれている場合、ListBucket S3 操作では、デフォルトの XML ではなく JSON 形式の出力を生成されます。

libcurl が管理する TCP キープアライブを有効にするオプションが追加された。

今回の機能拡張では、libcurl によって管理される HTTP クライアントソケットで TCP キープアライブを有効にするオプションが追加され、ネットワークが不安性な場合に、Ceph Object Gateway によって開始された同期やその他の操作の回復機能が向上されました。これは、HTTP フロントエンドによって受信された接続には適用されず、Ceph Object Gateway によって送信された HTTP リクエスト (認証用の Keystone、マルチサイトからの同期リクエスト、SSE 用のキー管理サーバーへのリクエストなど) にのみ適用されます。

radosgw-admin コマンドの結果コード 2002 が明示的に 2 に変換される

以前は、内部 NoSuchBucket 結果の S3 エラー変換の変更により、radosgw-admin bucket stats コマンドからのエラーコードが誤って変更され、これらの radosgw-admin コマンドのシェル結果コードをチェックするプログラムが、別の結果コードを表示していました。

この機能拡張により、結果コード 2002 が明示的に 2 に変換され、ユーザーは元の動作を確認できるようになります。

役に立つエラーを使用してバケットポリシーを使用できるようになりました。

エラー表示が間違っていたため、バケットポリシーの使用が困難でした。さらに、通知なしでプリンシパルを削除すると、アップグレード中に問題が発生する可能性があります。今回の更新で、ポリシーパーサーからの有用なエラーと、rgw policy reject invalid principals=true パラメーターを使用して無効なプリンシパルを拒否するフラグが導入されました。

3.5. マルチサイトの Ceph Object Gateway

bucket sync run コマンドで詳細な情報が提示されるように

この機能拡張では、bucket sync run コマンドに関してユーザーフレンドリーな進行状況レポートが追加され、操作の進行状況をユーザーが簡単に確認できるようになりました。ユーザーが --extra-info フラグを指定して radosgw-admin bucket sync run コマンドを実行すると、ユーザーは生成同期の開始に関するメッセージと、同期される各オブジェクトに関するメッセージを受け取ります。

警告

Red Hat サポートに連絡せずに bucket sync run コマンドを使用することは推奨しません。

マルチサイト設定で動的なバケットインデックスのリシャーディングに対応

以前のバージョンでは、マルチサイト設定のバケットの手動によるリシャーディングのみがサポートされるようになりました。

この機能拡張により、マルチサイト設定で動的バケットのリシャーディングがサポートされます。ストレージクラスターがアップグレードされると、resharding 機能、ゾーンレベル、およびゾーングループが有効になります。radogw-admin bucket reshard command を使用してバケットを手動でリシャーディングするか、ストレージクラスター内の他のゾーンとは関係なく、動的リシャーディングでバケットを自動的にリシャーディングできます。

ユーザーは、マルチサイトアーカイブゾーンを使用してバケットインデックスを動的に再シャーディングできるように。

今回の機能拡張では、そのゾーンで動的リシャーディングが有効になっている場合に、マルチサイトアーカイブゾーンバケットインデックスを動的にリシャーディングできます。

3.6. RADOS

スロットル制限に達したことをユーザーに警告する低レベルのログメッセージが導入される

以前は、スロットル制限に達したことを示す低レベルのログ記録が不足していたため、これらの発生がネットワークの問題のように誤って表示されていました。

この機能拡張では、低レベルのログメッセージの導入により、スロットル制限に達したことがより明確になります。

3.7. RADOS ブロックデバイス (RBD)

複製されたイメージは、独自の暗号化形式とパスフレーズで暗号化できるようになりました

この機能強化により、階層化されたクライアント側の暗号化がサポートされるようになり、複製された各イメージを独自の暗号化形式とパスフレーズ (親イメージとは異なる場合もあり) で暗号化できるようになりました。フォーマットされていない通常のクローンイメージに固有の効率的なコピーオンライトセマンティクスは保持されます。

第4章 非推奨になった機能

本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。

重要

非推奨の機能は、Red Hat Ceph Storage 5 のサポートが終了するまで引き続きサポートされます。非推奨の機能は、本製品の今後のメジャーリリースではサポートされない可能性が高く、新たに実装することは推奨されません。特定のメジャーリリースにおける非推奨機能の最新情報は、そのメジャーリリースの最新版のリリースノートを参照してください。

CephFS の NFS サポートが非推奨に

CephFS に対する NFS サポートは非推奨となり、OpenShift Data Foundation で NFS の可用性がなくなりました。OpenStack Manila での NFS の Red Hat Ceph Storage サポートには影響はありません。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。

iSCSI サポートが非推奨に

iSCSI のサポートは非推奨となり、NVMEoF のサポートが追加されました。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。

Ceph 設定ファイルが非推奨に

Ceph 設定ファイル (ceph.conf) が非推奨になり、Ceph Monitor に保管された新たな集中設定が提供されるようになりました。詳細は、Red Hat Ceph Storage Configuration GuideThe Ceph configuration database セクションを参照してください。

Ceph File System (CephFS) の min_compat_client パラメーターが非推奨に

Red Hat Ceph Storage 5.0 では min_compat_client パラメーターは非推奨となり、Ceph File Systems (CephFS) の設定用に新規クライアント機能が追加されます。詳細は、Red Hat Ceph Storage ファイルシステムガイドクライアント機能 セクションを参照してください。

Ceph File System サブボリュームグループのスナップショットが非推奨に

Ceph File System (CephFS) サブボリュームグループのスナップショット機能は、Red Hat Ceph Storage 5.0 では非推奨になりました。既存のスナップショットは、必要に応じてリスト表示および削除できます。詳細は、Red Hat Ceph Storage Ceph ファイルシステムガイドファイルシステムサブボリュームグループのスナップショットのリスト表示 セクションおよび ファイルシステムサブボリュームグループのスナップショットの削除 セクションを参照してください。

Cockpit Ceph インストーラーが非推奨に

Cockpit Ceph Installer を使用した Red Hat Ceph Storage クラスター 5 のインストールはサポートされていません。Cephadm を使用して Red Hat Ceph Storage クラスターをインストールします。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。

第5章 削除された機能

このセクションでは、Red Hat Ceph Storage の本リリース以前の全マイナーリリースで廃止された機能の概要を説明します。

s3cmd RPM は、Ceph の Tools リポジトリーで使用できません

s3cmd RPM は、Ceph の Tools リポジトリーで使用できなくなりました。ユーザーは、サポート対象外のコミュニティーパッケージを PyPI または EPEL からダウンロードできます。

第6章 バグ修正

本セクションでは、Red Hat Ceph Storage の本リリースで修正された、ユーザーに影響するバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。

6.1. Cephadm ユーティリティー

ユーザーは問題なくローカルリポジトリーイメージにアップグレードできる

以前の cephadm では、イメージ名が修飾ドメイン名でない場合に、デフォルトでイメージ名の先頭に docker.io が追加されていました。このため、ユーザーはローカルリポジトリーのイメージにアップグレードできませんでした。

今回の修正により、docker.io がデフォルトで追加されるイメージを特定するように注意が払われました。ローカルリポジトリーイメージを使用しているユーザーは、問題が発生することなくそのイメージにアップグレードできます。

(BZ#2100553)

6.2. Ceph ファイルシステム

Ceph Manager サービスの再起動時に snap-schedules が失われることがなくなりました

以前は、スケジュールが変更されるたびにインメモリーデータベースが永続ストレージに書き込まれることはありませんでした。そのため、Ceph Manager サービスの再起動時に snap-schedules が失われていました。

今回の修正により、snap-schedules が変更または追加されるたびにインメモリーデータベースが永続ストレージにダンプされます。Ceph Manager サービスの再起動後も引き続き保持されるようになりました。

(BZ#2102934)

standby-replay メタデータサーバーデーモンが予期せず削除されることがなくなりました

これまで Ceph Monitor は、特定の条件下で MDS マップから standby-replay メタデータサーバー (MDS) デーモンを削除していました。これにより、standby-replay MDS デーモンが Metadata Server クラスターから削除され、クラスター警告が生成されていました。

今回の修正により、MDS マップからの MDS デーモンの削除を検討する際に Ceph Monitor で使用されるロジックに、ランクを保持している standby-replay MDS デーモンに関する情報が含まれるようになりました。これにより、standby-replay MDS デーモンが予期せず MDS クラスターから削除されることがなくなります。

(BZ#2130116)

6.3. Ceph Manager プラグイン

Ceph Manager Alert メールに対するスパムタグが取り除かれる

以前は、Ceph Manager Alerts モジュールによって送信されたメールには、Message-Id と Date:headers がありませんでした。これにより、メールにスパムとしてフラグが立てられる可能性が高くなりました。

今回の修正により、Ceph Manager Alerts モジュールによって送信されるメールにヘッダーが追加され、メッセージにはスパムとしてフラグが付けられなくなりました。

(BZ#2064481)

6.4. Ceph Volume ユーティリティー

ceph-osd コンテナーが見つからず、cephvolumescan アクターが失敗しなくなると、ボリュームリストは空のままになります

以前は、Ceph コンテナーが他のコンテナーと一緒に実行され、その中に ceph-osd コンテナーが存在しない場合、プロセスは 1 つの非 Ceph コンテナーからボリュームリストを取得しようとしましたが、これは機能しませんでした。そのため、cephvolumescan アクターが失敗し、アップグレードが完了しませんでした。

今回の修正により、ceph-osd コンテナーが見つからない場合、ボリュームリストは空のままになり、cephvolumescan アクターは失敗しなくなります。

(BZ#2141393)

ceph-volume が複数のデバイスを処理する場合、Ceph OSD デプロイメントが失敗しなくなりました

以前は、処理するデバイスが複数ある場合に ceph-volume が間違ったサイズを計算し、OSD のデプロイメントに失敗していました。

今回の修正により、複数のデバイスを処理する場合も ceph-volume は正しいサイズを計算し、OSD のデプロイメントが期待どおりに機能するようになりました。

(BZ#2119774)

6.5. Ceph Object Gateway

ユーザーは、非 TLS 環境で SASL を使用して Kafka 接続をセットアップできるようになりました

以前は、Ceph Object Gateway の TLS 証明書の設定に失敗するため、Kafka トピックを SASL (ユーザーとパスワード) を使用して設定できませんでした。

今回の修正により、新しい設定パラメーター (rgw_allow_notification_secrets_in_cleartext) が追加されました。ユーザーは、非 TLS 環境で SASL を使用して Kafka 接続をセットアップできるようになりました。

(BZ#2014330)

トークンの内部処理が修正された。

以前のリリースでは、AWS SDK for Java および Hadoop S3A Connector の Java ベースのクライアント認証プロバイダー jar の更新パスでのトークンの内部処理は、大きなトークンを正しく処理せず、一部のトークンが不適切に処理され、クライアントのトークンを更新できませんでした。

今回の修正により、内部トークンの処理が修正され、想定通りに機能するようになりました。

(BZ#2055137)

オブジェクトバージョンアクセスが修正され、オブジェクトロック違反を阻止。

以前のバージョンでは、一部の呼び出しパスでバージョン情報が不適切にスライスされ、オブジェクトロックで保護されているオブジェクトバージョンがポリシーに反して削除されていました。

今回の修正により、オブジェクトバージョンアクセスが修正され、オブジェクトロックの違反が発生しないようになりました。

(BZ#2108394)

Ceph Object Gateway が不正な URL でクラッシュしなくなる。

以前のバージョンでは、リファクタリングの抽象化により、バケットの値が、常に初期化されていないバケット値へのポインターに置き換えられていました。これが原因で、不正な URL となり、バケットに対してバケット操作が行われず、Ceph Object Gateway がクラッシュしました。

今回の修正により、ポインターのチェックが呼び出しパスに実装され、初期化されていない場合に、Ceph Object Gateway はクラッシュするのではなく、アクセス許可エラーを返します。

(BZ#2109256)

z-amz-date 日付の形式を解析するコードが変更される

以前は、x-amz-date の標準形式が変更され、新しいソフトウェアが新しい日付形式を使用していたため、問題が発生していました。最新の go ライブラリーで構築された新しいソフトウェアでは、Ceph Object Gateway とは通信されません。

今回の修正により、x-amz-date 形式で日付を解析する Ceph Object Gateway のコードが変更され、新しい日付形式も使用できるようになりました。

(BZ#2109675)

ライフサイクルシャードを処理する新しいロジックでは、バケットの削除が原因の停止が回避される

以前は、ライフサイクル処理が日をまたいで継続的に循環するように、つまり、毎日適格なバケットのリストの先頭から再開しないように変更が行われていました。ただし、この変更には、削除されたバケットを含むライフサイクルシャードの処理を停止させるバグが含まれており、ライフサイクルシャードの処理が停止する可能性がありました。

この修正では、削除されたバケットをスキップするロジックが導入されたため、処理が停止しなくなりました。

(BZ#2118295)

ヘッダー処理が原因で、断続的で迅速なプロトコル認証の失敗が発生することがなくなりました

以前は、不適切な HTTP ヘッダー処理とタイムスタンプ処理ロジックの組み合わせにより、無効な Keystone 管理者トークンが操作に使用されるか、必要に応じた Keystone 管理者トークンの更新が行われませんでした。そのため、断続的で迅速なプロトコル認証の失敗が発生していました。

今回の修正により、ヘッダー処理が修正され、新しい診断が追加されました。ロジックは期待どおりに機能するようになりました。

(BZ#2123335)

不適切な状況で警告が記録されなくなりました

以前は、逆ロジックが誤った警告を報告することがあり、Ceph Object Gateway 設定で適用できない場合に警告 (unable to find head object) がログに記録されていました。

今回の修正により、修正されたロジックが不適切な状況で警告をログに記録しなくなりました。

(BZ#2126787)

PUT オブジェクト操作により、正しいバケットインデックスシャードに書き込まれるようになりました

以前は、競合状態が原因で、PUT オブジェクト操作により以前のバケットインデックスシャードに書き込まれることはほとんどありませんでした。そのため、以前のバケットインデックスシャードが再作成され、オブジェクトが適切なバケットインデックスに表示されませんでした。したがって、バケットがリストされたときにオブジェクトはリストされませんでした。

今回の修正により、さまざまな操作によるバケットインデックスシャードの作成が阻止され、競合状態が発生したときに回復するようになりました。PUT オブジェクト操作では、常に正しいバケットインデックスシャードに書き込まれるようにようになりました。

(BZ#2145022)

6.6. マルチサイトの Ceph Object Gateway

プライマリーゾーンでバケットのバージョン管理を一時停止しても、アーカイブゾーンでバケットのバージョン管は一時停止されなくなりました

以前は、バケットのバージョン管理がプライマリーゾーンで一時停止されると、アーカイブゾーンでのバケットのバージョニングも一時停止されていました。

今回の修正により、他のゾーンでバケットのバージョン管理が変更されても、アーカイブゾーンのバージョン管理は常に有効になります。アーカイブゾーンでのバケットのバージョン管理は、中断されなくなりました。

(BZ#1957088)

マルチサイトレプリケーションでの radosgw-admin sync status コマンドは、期待どおりに機能します

これまでマルチサイトレプリケーションでは、参加している 1 つ以上の Ceph Object Gateway ノードがダウンしている場合、radosgw-admin sync status コマンドを実行すると (5) Input/output error が出力されていました。このステータスは、すべての Ceph Object Gateway ノードがオンラインに復帰すると解決されるはずです。

今回の更新により、radosgw-admin sync status コマンドは停止せず、期待どおり動作するようになりました。

(BZ#1749627)

廃止されたバケットインデックスエントリーをトリミングするプロセスが原因で radosgw インスタンスがクラッシュしなくなりました

これまで特定の状況下では、廃止されたバケットインデックスエントリーをトリミングするプロセスにおいて初期化されていないポインター変数にアクセスし、radosgw インスタンスがクラッシュすることがありました。

今回の修正により、コードは使用直前に初期化され、radosgw インスタンスがクラッシュしなくなりました。

(BZ#2139258)

バケット同期の実行には、すべてのオブジェクトを同期する制御ロジックが指定されるように。

以前のバージョンでは、マルチサイトクラスターで動的バケットの再シャーディングをサポートするために、バケットインデックスログが 1 つであったものが、複数のバケットインデックスログの生成に置き換えられました。ただし、バケット同期実行の実装方法が原因で、最も古い未処理の世代のみが同期実行されます。

この修正では、バケット同期の実行に制御ロジックが与えられ、最も古い未解決のものから現在のものまで同期を実行できるようになり、すべてのオブジェクトが想定待どおりに同期されるようになりました。

(BZ#2066453)

バケットごとのレプリケーション論理エラーの修正がポリシーを正しく実行するように

以前のバージョンでは、内部ロジックエラーにより、バケットごとのレプリケーションポリシーが機能していなかったため、バケットごとのレプリケーションで障害が発生していました。

今回の修正により、ソースおよびターゲットバケット情報の混乱を生じさせるロジックエラーが修正され、ポリシーが正しく実行されるようになりました。

(BZ#2108886)

変数アクセスにより、未定義のプログラム動作が発生しないように。

以前は、coverity scan は、 2 つのケースを特定します。移動後に変数が使用されることが原因で未定義のプログラム動作が問題を起こしていました。

この修正では、変数アクセスが修正され、潜在的な障害が発生しなくなりました。

(BZ#2123423)

テナントはあるがバケットがないリクエストでクラッシュが発生しなくなりました

以前は、アップストリームのリファクタリングによって、初期化されていないバケットデータフィールドが初期化されていないポインターに置き換えられていました。そのため、有効なバケットを参照しない URL を含むバケットリクエストがクラッシュを引き起こしていました。

今回の修正により、バケットにアクセスするが有効なバケットを指定しないリクエストは拒否され、クラッシュではなくエラーが発生するようになります。

(BZ#2139422)

6.7. RADOS

2 つのサイトのストレッチクラスターで DR テストを実行しても、Ceph が応答しなくなることがなくなりました

以前は、2 つのサイトのストレッチクラスターで DR テストを実行するときに、クラスターから新しいモニターを削除および追加すると、ConnectionTracker クラスで不適切なランクが発生していました。そのため、モニターは peer_tracker コピーで自分自身を識別できず、正しいフィールドを更新しませんでした。その結果、選択プロセスでデッドロックが発生し、Ceph が応答しなくなっていました。

今回の修正により、以下のとおり是正されました。

  • 関数 notify_rank_removed() に assert を追加し、Monmap によって提供される想定ランクと手動で調整されたランクを、サニティチェックとして比較します。
  • Monmap の更新ごとに変数 removed_ranks をクリアします。
  • 各モニターで ceph connection scores reset コマンドを実行する際に、peer_tracker.rank を手動でリセットするアクションが追加されました。peer_tracker.rank は、モニターの現在のランクと一致します。
  • モニターのアップグレード時 (起動を含む) にクリーンな peer_tracker をチェックする関数を Elector および ConnectionTracker クラスに追加しました。クリーンでないことが判明した場合、peer_tracker はクリアされます。
  • Red Hat Ceph Storage では、ユーザーはモニターをシャットダウンする前に手動でモニターランクを削除することを選択できるため、Monmap で不整合が発生します。そのため、Monitor::notify_new_monmap() では、関数が Monmap に存在しないランクを削除するのを防ぎます。

クラスターは期待どおりに機能するようになり、不当なダウンタイムは発生しません。2 つのサイトのストレッチクラスターで DR テストを実行しても、クラスターが応答しなくなることがなくなりました。

(BZ#2142674)

一貫性のない接続スコアの問題を軽減するために、live_pinging および dead_pinging セットからランクが削除されました

以前は、2 つのモニターを連続して削除するときに、ランクサイズが Paxos のサイズと等しい場合、モニターは dead_pinging セットからランクを削除しませんでした。そのため、ランクは dead_pinging セットに残り、stretch-cluster モードが有効になっているときに接続スコアの一貫性が失われるなどの問題が発生していました。

今回の修正により、最高ランクのモニターが削除されるケースが追加されました。つまり、ランクが Paxos のサイズと等しい場合、live_pinging および dead_pinging セットからランクが削除されます。live_pingingdead_pinging セットはクリーンな状態になり、モニターは正常に動作します。

(BZ#2142174)

Prometheus メトリクスは、要求されるたびにすべての Ceph Monitor の正しい Ceph バージョンを反映するようになりました。

以前のバージョンでは、Prometheus メトリクスは、モニターのアップグレード時に Ceph Monitor の一致しない Ceph バージョンを報告していました。その結果、この不整合を解決するには、アクティブな Ceph Manager デーモンを再起動する必要がありました。

今回の修正により、Ceph Monitor は、MON の選択が終了したときに、mon メタデータを含むメタデータ更新要求を mgr に明示的に送信します。

(BZ#2008524)

ceph daemon heap status コマンドがヒープのステータスを表示するようになりました

以前は、ceph daemon コマンドを使用してヒープ情報を取得できなかったため、ceph daemon heap stats コマンドは、Ceph デーモンの現在のヒープ使用量を返す代わりに、空の出力を返していました。これは、ceph::osd_cmds::heap()stderrstdout の概念を混同し、出力に違いが生じていたためです。

今回の修正により、ceph daemon heap stats コマンドが ceph tell コマンドを使用して得られるものと同様の Ceph デーモンのヒープ使用情報を返すようになりました。

(BZ#2119100)

ceph orch apply mon <num> コマンドの使用時に Ceph Monitor がクラッシュしなくなりました

以前は、ceph orch apply mon <num> コマンド使用してクラスター内のモニターを減らすと、ceph-adm でシャットダウンする前にモニターが削除され、モニターがクラッシュしていました。

今回の修正により、すべてのコードパスにサニティチェックが追加され、ピアランクがモニターマップのランクのサイズ以上かチェックされます。条件が満たされている場合は、モニターのクラッシュにつながる特定の操作をスキップします。ピアランクは、最終的にはモニターマップの次のバージョンで解決されます。シャットダウンする前にモニターマップから削除しても、モニターはクラッシュしなくなりました。

(BZ#2142141)

エンドユーザーは、Ceph クラスターログから scrub または deep-scrub starts メッセージを確認できるようになりました

以前は、Ceph クラスターログに scrub または deep-scrub starts メッセージが表示されなかったため、Ceph クラスターログから PG に対して PG スクラビングが開始されたかどうかをエンドユーザーが認識できませんでした。

この修正により、scrub または deep-scrub starts メッセージが再導入されました。scrubbing または deep-scrubbingプロセスに進むたびに、Ceph クラスターログに PG のメッセージが表示されるようになりました。

(BZ#2091773)

Ceph Manager フェイルオーバー中のアサーションなし

以前は、Ceph Manager をアクティベートする際に、以前にアクティブなマネージャーによって送信された複数の service_map バージョンを受信していました。コードの確認が間違っていることが原因で、以前のアクティブなマネージャーが送信したバージョンよりも新しいものが含まれるマップを、新たに有効になったマネージャーが受信する場合に、アサーションに失敗していました。

今回の修正により、初期サービスマップを処理するマネージャーのチェックが緩和され、Ceph Manager のフェイルオーバー中にアサーションが発生しなくなりました。

(BZ#2095062)

ユーザーは、クラスターのアップグレード後に複製されたオブジェクトを削除できる。

以前は、クラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードした後、以前のバージョンで作成されたオブジェクトのスナップショットを削除すると、クローンが残り削除できませんでした。これは、SnapMapper キーが誤って変換されたためです。

今回の修正により、SnapMapper のレガシーカンバセーションが更新され、新しいキー形式に一致するようになりました。以前のバージョンの Ceph で複製されたオブジェクトは、アップグレード後に簡単に削除できるようになりました。

(BZ#2107405)

RocksDB のエラーは小さな書き込みでは発生しない

BlueStore は、HDD の小さな書き込みを延期する戦略を採用し、データを RocksDB に保存します。RocksDB からの遅延データのクリーニングは、BlueFS とは同期されないバックグラウンドプロセスです。

この修正では、遅延リプレイが BlueFS データを上書きしなくなり、次のような RocksDB エラーが発生しなくなりました。

  • osd_superblock の破損。
  • 改行で終了しない CURRENT。
  • .SST ファイルのチェックサムエラー。
注記

書き込み場所には適切なオブジェクトが含まれているか空である可能性があるため、遅延データを書き込まないでください。この方法でオブジェクトデータが破損されることはありません。BlueFS は、この領域を割り当てることができる唯一のエンティティーです。

(BZ#2109886)

PG ログの破損した重複エントリーは、オフラインおよびオンラインのトリミングで削除できる

以前は、PG ログ重複エントリーのトリミングは、人間のオペレーターよりもはるかに高い頻度で PG オートスケーラーによって使用される低レベルの PG 分割操作中に阻止されていました。重複を取り除くと、PG ログのメモリー増大が大幅に増大し、OSD がメモリーが不足するとクラッシュしていました。OSD を再起動しても、PG ログはディスクに保存され、起動時に RAM に再ロードされるため、問題は解決しませんでした。

この修正により、オフライン (ceph-objectstore-tool コマンドを使用) とオンライン (OSD 内) の両方のトリミングで、オンラインのトリミング装置を妨害してメモリー増加の原因となっていた PG ログの破損した重複エントリーを削除できるようになりました。将来の調査に役立つように、重複エントリーの数を OSD のログに出力するデバッグの改善が実装されています。

(BZ#2119853)

6.8. RADOS ブロックデバイス (RBD)

イメージがフラット化されているときに rbd info コマンドを実行しても失敗しなくなりました

以前は、実装上の不具合により、イメージがフラット化されているときに rbd info コマンドを実行すると、まれに失敗していました。これにより、一時的な No such file or directory エラーが発生しましたが、再実行するとコマンドは常に成功しました。

今回の修正により、実装上の不具合が修正され、イメージがフラット化されているときに rbd info コマンドを実行しても失敗しなくなりました。

(BZ#1989527)

保留中のブロックデバイスタスクを含むプールを削除しても、すべてのタスクがハングしなくなりました

以前は、実装上の不具合により、保留中のブロックデバイスタスクを含むプールを削除すると、他のプールを含め、すべてのブロックデバイスタスクがハングしていました。ハングしたブロックデバイスタスクを再開するには、管理者が ceph-mgr デーモンを再起動する必要がありました。

今回の修正により、実装の不具合が修正され、保留中の RBD タスクを含むプールを削除してもハングしなくなりました。削除されたプールのブロックデバイスタスクはクリーンアップされます。他のプールのブロックデバイスタスクは、中断されることなく引き続き実行されます。

(BZ#2150968)

6.9. RBD ミラーリング

イメージリプレーヤーが想定どおりにシャットダウンする

以前のリリースでは、実装上の欠陥により、特定のイメージリプレーヤーをシャットダウンする要求が原因で、特にデーモンがリモートストレージクラスターでブロックリストに登録されている場合に、rbd-mirror デーモンが無期限にハングする可能性がありました。

この修正では、実装上の欠陥が修正され、特定のイメージリプレーヤーをシャットダウンする要求が原因で rbd-mirror デーモンがハングしなくなり、イメージリプレーヤーが期待どおりにシャットダウンされるようになりました。

(BZ#2086471)

rbd mirror pool peer bootstrap create コマンドは、ブートストラップトークン内の正しい監視アドレスを保証します。

以前は、rbd mirror pool peer bootstrap create コマンドで生成されたブートストラップトークンには、ceph.conf ファイルの mon_host オプションで指定された監視アドレスが含まれていました。これは脆弱であり、V1 と V2 エンドポイント間で混乱を生じさせ、一方のみを指定したり、誤ってグループ化したりするなどの問題を引き起こしました。

今回の修正により、rbd mirror pool peer bootstrap create コマンドが変更され、クラスター自体からモニターアドレスを抽出し、ブートストラップトークンに含まれるモニターアドレスが正しいことを確認します。

(BZ#2122130)

6.10. iSCSI ゲートウェイ

iSCSI を使用した Red Hat Ceph Storage 4.x から 5.x へのアップグレードが期待どおりに機能する

以前は、一部の ceph-iscsi 依存ライブラリー間のバージョンの競合が原因で、Red Hat Ceph Storage 4.x から 5.x にアップグレードすると、永続的な HTTP 500 エラーが発生していました。

今回の修正により、バージョン管理の競合が解決され、アップグレードは予想通りに機能するようになりました。ただし、今回の修正により、iSCSI REST API 応答はプリティープリントされなくなりました。

(BZ#2121462)

6.11. Ceph Ansible ユーティリティー

Ceph Object Gateway 設定を使用したアップグレードのワークフローが修正されました

以前は、ユーザーによって rgw_instancesgroup_vars/host_vars で定義されている場合、ダッシュボードの Playbook 実行から set_radosgw_address.yml が呼び出されるたびにファクト is_rgw_instances_defined が設定されることが期待されていました。そうでない場合、ユーザーが定義していないと仮定して、ファクト rgw_instances を設定する次のタスクが実行されます。これにより、Ceph Object Gateway マルチサイトおよび Ceph ダッシュボードをデプロイするときに、アップグレードワークフローが中断されていました。

今回の修正により、ceph-ansible は、Playbook の set_radosgw_address.yml がダッシュボード Playbook から呼び出され、アップグレードのワークフローが予想通りに機能するようになりました。

(BZ#2117672)

ファクト条件が更新され、Ceph Object Gateway ノードでのみ実行されるようになりました

以前は、Ceph Object Gateway ネットワーク範囲が存在しないノードを含むすべてのノードで set_fact _radosgw_address to radosgw_address_block ipv4 が実行されていたため、Playbook が機能しませんでした。

今回の修正により、Ceph Object Gateway ノードでのみファクト設定を実行するように when 条件が更新され、期待どおりに機能するようになりました。

(BZ#2136551)

第7章 既知の問題

本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。

7.1. Cephadm ユーティリティー

iSCSI デーモンで gwcli により iSCSI ゲートウェイを追加または拡張すると、期待どおりに動作します

以前は、信頼できる IP リストが仕様ファイルで更新されたときに iSCSI デーモンが自動的に再設定されないため、iSCSI デーモン間で iscsi-gateway.cfg が一致せず、gwcli での iSCSI ゲートウェイの追加または拡張が失敗していました。

今回の修正により、ゲートウェイを拡張し、gwcli コマンドを使用して既存のゲートウェイに追加できるようになりました。(BZ#2099470)

ceph orch ps はモニタリングスタックデーモンのバージョンを表示しません

現在、cephadm ではバージョングラビングコードにダウンストリームのモニタリングスタックコンテナーとの互換性がないため、node-exporterprometheusalertmanager などのモニタリングスタックデーモンのバージョングラビングが失敗します。

ユーザーがバージョンを確認する必要がある場合、デーモンのコンテナー名にバージョンが含まれるので、これを回避策とします。

(BZ#2125382)

第8章 非同期エラータの更新

このセクションでは、z-stream リリースのバグ修正、既知の問題、機能拡張について説明します。

8.1. Red Hat Ceph Storage 5.3z7

Red Hat Ceph Storage リリース 5.3z1 が利用可能になりました。この更新に含まれるバグ修正とセキュリティー更新は、RHSA-2024:4118 および RHSA-2024:41 19 アドバイザリーに記載され ています。

8.1.1. 機能拡張

8.1.1.1. RBD

rbd_diff_iterate2() API のパフォーマンスの向上

以前のバージョンでは、fast-diff モード (whole_object == truefast-diff イメージ機能が有効な場合) で開始時点 (fromsnapname == NULL) との差分を取る際に、排他ロックが利用可能な場合、RBD diff-iterate のローカルでの実行が保証されませんでした。

この機能拡張により、rbd_diff_iterate2() API のパフォーマンスが向上し、fast-diff イメージ機能が有効になっている QEMU ライブディスクの同期およびバックアップのユースケースでパフォーマンスが向上します。

Bugzilla:2284394

8.1.2. 既知の問題

8.1.2.1. Ceph のアップグレード

RHEL 8 から RHEL 9 へのアップグレード中にクラスターキーと特定の設定ディレクトリーが削除される

RHEL 8 では、libunwind パッケージが非推奨になっているため、RHEL 9 にアップグレードすると、このパッケージが削除されます。ceph-common パッケージは libunwind パッケージに依存するため、これも削除されます。ceph-common パッケージを削除すると、/etc/ceph ディレクトリーおよび /var/log/ceph ディレクトリー内のクラスターキーと特定の設定が削除されます。

その結果、さまざまなノード障害が発生する可能性があります。/etc/ceph パッケージが削除されたため、一部のノードで Ceph 操作は機能しない場合があります。/var/log/ceph パッケージが削除されたため、ノード上の Ceph サービスで systemd および Podman を起動できません。

回避策として、libunwind パッケージを削除しないように LEAPP を設定します。完全な手順は、Upgrading RHCS 5 hosts from RHEL 8 to RHEL 9 removes ceph-common package を参照してください。Red Hat カスタマーポータル でサービスの開始に失敗する

Bugzilla:2284394

8.2. Red Hat Ceph Storage 5.3z6

Red Hat Ceph Storage リリース 5.3z1 が利用可能になりました。この更新に含まれるバグ修正とセキュリティー更新は、RHSA-2024:0745 アドバイザリーに記載されています。

8.2.1. 機能拡張

8.2.1.1. Ceph Object Gateway

rgw-restore-bucket-index 実験的なツールは、バージョン付けおよびバージョン付けされていないバケットのバケットインデックスを復元します。

今回の機能拡張により、バージョンを指定しないバケットで既存の機能に加えて、rgw-restore-bucket-index 実験的なツールを使用してバージョン管理されたバケットのバケットインデックスを復元できるようになりました。

BZ#2224636

強化された順序付きバケット一覧

以前は、多数のシャードといくつかの疑似サブディレクトリーを持つバケットの完了に不必要に時間がかかりました。

今回の機能拡張により、このようなバケットは、順序付けされたバケットの一覧表示をより迅速に実行するようになりました。

BZ#2239433

radosgw-admin bucket stats コマンドは、バケットのバージョン管理を出力する

今回の機能拡張により、radosgw-admin bucket stats コマンドは、バージョン管理の作成後にバージョンを有効または無効にするため、enabledoff、または suspended の 3 つの値の 1 つとしてバケットのバージョン管理ステータスを出力します。

BZ#2240089

8.2.1.2. Ceph ファイルシステム

MDS のデフォルトバランサーがデフォルトで無効になりました

このリリースでは、MDS のデフォルトバランサーまたは自動動的サブツリーバランサーがデフォルトで無効になりました。これにより、誤ってサブツリーの移行が発生し、ピニングなどでサブツリーの委譲を計画せずに Operator がファイルシステム max_mds 設定を増やすと、サブツリーの移行にコストがかかることがあります。

BZ#2255436

8.2.1.3. Ceph Manager プラグイン

各 Ceph Manager モジュールには、コマンドを実行する個別のスレッドがあります。

以前は、すべての ceph-mgr モジュールコマンドが実行される 1 つのスレッドがありました。モジュールのコマンドの 1 つがスタックすると、他のすべてのモジュールのコマンドがハングし、同じスレッドで待機します。

今回の更新により、Ceph Manager モジュールごとに 1 つの finisher スレッドが追加されました。各モジュールには、コマンドの実行用の個別のスレッドがあります。モジュールのコマンドの 1 つがハングしても、他のモジュールを実行できます。

BZ#2234610

8.2.1.4. RADOS

実行 BlueStore への 2 回の保護の改善

以前は、アドバイザリーのロックを使用して、実行中の BlueStore に 2 回保護していました。これは、ベアメタルデプロイメントで適切に機能します。ただし、コンテナーで使用すると、同じ mknod b ブロックデバイスを対象とした、関連しない inode が作成されます。その結果、2 つのコンテナーは排他的アクセスが可能であり、重大なエラーが発生すると想定する可能性があります。

このリリースでは、1 つのブロックデバイスで OSD を同時に 2 回実行することに対する保護を改善できます。ブロックデバイス専用の O_EXCL オープンフラグを使用して、アドバイザリーのロックを再実行できます。BlueStore インスタンスを 1 回開くことができなくなり、上書きおよび破損が発生しなくなりました。

BZ#2239455

遅延操作のサブイベントに関する新しいレポートが利用可能になりました

以前は、時間を要している操作は遅延としてマークされていましたが、詳細な説明はありませんでした。

この機能強化により、操作の遅延したサブイベントの詳細な説明を表示できるようになりました。

BZ#2240839

8.2.2. 既知の問題

8.2.2.1. Ceph Dashboard

一部のメトリクスは null として表示され、グラフの空白スペースにつながります。

Ceph Dashboard の一部のメトリックは null として表示され、何らかの値になるまでメトリックを初期化しないため、グラフには空白のスペースが発生します。

回避策として、問題が存在する Grafana パネルを編集します。Edit メニューから Migrate をクリックし、Connect Nulls を選択します。Always を選択して、問題が解決されています。

Bugzilla:2284394

8.3. Red Hat Ceph Storage 5.3z5

Red Hat Ceph Storage リリース 5.3z5 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:4760 アドバイザリーにリストされています。

8.4. Red Hat Ceph Storage 5.3z4

Red Hat Ceph Storage リリース 5.3z4 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:4213 アドバイザリーにリストされています。

8.4.1. 既知の問題

8.4.1.1. マルチサイトの Ceph Object Gateway

マルチサイトで Ceph Object Gateway のサーバー側暗号化をテストするときに、レプリケートされたオブジェクトの md5 の不一致が発生する

現在、マルチサイトで Ceph Object Gateway のサーバー側暗号化をテストすると、レプリケートされたオブジェクトの md5 不一致が観察されます。データ破損は、SSE 暗号化が有効になっている S3 マルチパートアップロードに特有です。破損は複製されたコピーにのみ影響します。元のオブジェクトはそのままです。

各パートは個別にアップロードおよび暗号化されるため、マルチパートアップロードの暗号化にはパート境界の周りで特別な処理が必要です。マルチサイトでは、オブジェクトは暗号化され、マルチパートのアップロードは 1 つのパートとして複製されます。その結果、複製されたコピーは、データを正しく復号化するために必要な元の部分の境界に関する知識を失い、この破損が発生します。

回避策として、マルチサイトユーザーはマルチパートアップロードにサーバー側の暗号化を使用しないでください。詳細は、KCS の KCS の Sever side encryption with RGW multisite configuration might lead data corruption of multipart objects を参照してください。

Bugzilla:2214252

8.5. Red Hat Ceph Storage 5.3z3

Red Hat Ceph Storage リリース 5.3z3 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:3259 アドバイザリーにリストされています。

8.5.1. 機能拡張

8.5.1.1. Cephadm ユーティリティー

ユーザーは OSD 仕様で crash_device_class を設定できるようになりました。

以前は、OSD の作成後にユーザーが手動で crash_device_class を設定していました。

このリリースでは、ユーザーが OSD 仕様に crash_device_class を設定できるようになり、cephadm がその仕様に基づいて作成されたすべての OSD をそのクラッシュデバイスクラスとしてマークするようになります。

構文

service_type: osd
service_id: SERVICE_ID_OF_OSD
placement:
hosts:
- HOSTNAME_01
- HOSTNAME_01
crush_device_class: CRUSH_DEVICE_CLASS(SSD/HDD)
spec:
data_devices:
paths:
- DATA_DEVICES
db_devices:
paths:
- DB_DEVICES
wal_devices:
paths:
- WAL_DEVICES

ユーザーは Prometheus 仕様で保持時間を設定できるようになりました。

以前のリリースは、保持期間を設定するには、unit.run ファイルを手動で編集する必要があり、Prometheus デーモンが再デプロイされるたびにこのファイルが上書きされていました。

今回のリリースでは、次のように Prometheus 仕様ファイルで保持時間を設定できます。

service_type: prometheus
placement:
  count: 1
spec:
  retention_time: "1y"

この例では、保存期間がデフォルトの 15 日ではなく 1 年に設定されています。

8.5.2. 既知の問題

  • Red Hat Ceph Storage Dashboard で Ceph ファイルシステムのスナップショットを管理するユーザー向けドキュメント

    この機能の詳細は、Red Hat Ceph Storage Dashboard ガイドの次のバージョンに含まれています。

  • Red Hat Ceph Storage Dashboard でホストを管理するドキュメント

    この機能の詳細は、Red Hat Ceph Storage Dashboard ガイドの次のバージョンに含まれています。

  • ユーザーが RBD イメージを即時にインポートするためのドキュメント

    rbd import コマンドの詳細は、次のバージョンのRed Hat Ceph Storage ブロックデバイスガイドに含まれています。

8.6. Red Hat Ceph Storage 5.3z2

Red Hat Ceph Storage リリース 5.3z1 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:1732 アドバイザリーにリストされています。

8.6.1. 機能拡張

8.6.1.1. Ceph ファイルシステム

クライアントリクエストカウンターが _u8 タイプから _u32 タイプに変換され、上限が 256 回に設定されます。

以前は、複数のアクティブな MDS がある場合、ある MDS で 1 つのリクエストが失敗すると、クライアントはそのリクエストを別の MDS に転送していました。どの MDS もリクエストを正常に処理できない場合、リクエストは MDS 間で無制限にバウンスすることになります。古い num_fwd/num_retry カウンターは _u8 タイプで、256 回バウンスするとオーバーフローしていました。

この機能拡張により、カウンターが _u8 タイプから _u32 タイプに変換され、転送および再試行の上限が 256 回に設定されます。クライアントリクエストの転送および再試行は無制限に行われるのではなく、256 回で停止し、直ちに失敗します。

8.6.1.2. Ceph Object Gateway

管理者は rados ls からの出力を再利用して、バケットのインデックス再作成を迅速に完了できるようになりました。

以前は、各バケットに対して rados ls コマンドを実行すると非常に時間がかかり、バケットのインデックス再作成が遅くなっていました。

この機能拡張により、rgw-restore-bucket-index ツールが強化され、rados ls コマンドの既存の出力を再利用できるようになり、管理者が 1 つの rados ls コマンドの出力を再利用できるようになりました。これにより、バージョン管理されていない複数のバケットのバケットインデックスのリカバリーをより迅速に完了できます。

8.6.2. 既知の問題

8.6.2.1. Cephadm ユーティリティー

iSCSI デーモンで gwcli により iSCSI ゲートウェイを追加または拡張すると、期待どおりに動作します

以前は、信頼できる IP リストが仕様ファイルで更新されたときに iSCSI デーモンが自動的に再設定されないため、iSCSI デーモン間で iscsi-gateway.cfg` が一致せず、gwcli での iSCSI ゲートウェイの追加または拡張が失敗していました。

今回の修正により、ゲートウェイを拡張し、gwcli コマンドを使用して既存のゲートウェイに追加できるようになりました。

(BZ#2099470)

ceph orch ps はモニタリングスタックデーモンのバージョンを表示しません

現在、cephadm` ではバージョングラビングコードにダウンストリームのモニタリングスタックコンテナーとの互換性がないため、node-exporterprometheusalertmanager などのモニタリングスタックデーモンのバージョングラビングが失敗します。

ユーザーがバージョンを確認する必要がある場合、デーモンのコンテナー名にバージョンが含まれるので、これを回避策とします。

(BZ#2125382)

8.7. Red Hat Ceph Storage 5.3z1

Red Hat Ceph Storage リリース 5.3z1 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:0981 アドバイザリーにリストされています。

8.7.1. 機能拡張

8.7.1.1. Cephadm ユーティリティー

Grafana サービス仕様で設定されている場合、cephadm はダッシュボードの Grafana パスワードを自動的に更新します。

以前は、ユーザーは仕様を適用した後に Grafana パスワードを手動で設定する必要がありました。

この機能拡張により、適用された Grafana 仕様で initial_admin_password が設定されている場合、cephadm はダッシュボード Grafana パスワードを自動的に更新します。これは、ceph dashboard set-grafana-api-password コマンドを実行することと同等であり、Grafana を完全にセットアップするプロセスを合理化します。ユーザーは、パスワードを含む仕様を適用した後に、ダッシュボード Grafana パスワードを手動で設定する必要がなくなりました。

OSD は、Ceph 設定ファイルを新しい mon ロケーションで自動的に更新します。

この機能拡張により、monmap の変更が検出されるたびに、cephadm は新しい mon ロケーションで各 OSD の Ceph 設定ファイルを自動的に更新します。

注記

多数の OSD がある場合、この機能拡張がすべての OSD で更新されるまでに時間がかかる場合があります。

8.7.1.2. Ceph Dashboard

Block Device イメージのテーブルがページ付けされます

今回の機能拡張では、ブロックデバイスイメージの情報を取得するとコストがかかるため、ブロックデバイスイメージテーブルは 10000 以上のイメージストレージクラスターで使用できるようにページ分割されています。

新しく追加された cross_origin_url オプションによりクロスオリジンのリソース共有が可能になります

以前、IBM の開発者は、Red Hat の REST API に設定された厳密な Cross Origin Resource Sharing (CORS) ポリシーが原因で、フロントエンドを使用して REST API を固定しようとしたときに Storage Insights 製品で問題に直面していました。

今回の機能拡張により、特定の URL (ceph config set mgr mgr/dashboard/cross_origin_url localhost) に設定できる cross_origin_url オプションを追加することで CORS が許可され、REST API はその URL のみとの通信を許可します。

8.7.1.3. Ceph ファイルシステム

ユーザーは、CephFS サブボリュームスナップショットの任意のメタデータを保存できます。

今回の機能拡張では、Ceph ファイルシステム (CephFS) ボリュームのユーザーは、一連のコマンドラインインターフェイス (CLI) コマンドを使用して、CephFS サブボリュームスナップショットのキーと値のペアの形式で任意のメタデータを保存できます。

8.7.1.4. Ceph Object Gateway

ロールの STS max_session_duration を更新できるように。

今回の機能拡張では、radosgw-admin コマンドラインインターフェイスを使用してロールの STS max_session_duration を更新できます。

ListBucket S3 操作で JSON 出力が生成されるようになりました

インテグレーションの容易化というお客様のリクエストに応じたこの機能拡張により、要求に Accept: application/json ヘッダーが含まれている場合、ListBucket S3 操作では、デフォルトの XML ではなく JSON 形式の出力を生成されます。

libcurl が管理する TCP キープアライブを有効にするオプションが追加された。

今回の機能拡張では、libcurl によって管理される HTTP クライアントソケットで TCP キープアライブを有効にするオプションが追加され、ネットワークが不安性な場合に、Ceph Object Gateway によって開始された同期やその他の操作の回復機能が向上されました。これは、HTTP フロントエンドによって受信された接続には適用されず、Ceph Object Gateway によって送信された HTTP リクエスト (認証用の Keystone、マルチサイトからの同期リクエスト、SSE 用のキー管理サーバーへのリクエストなど) にのみ適用されます。

radosgw-admin コマンドの結果コード 2002 が明示的に 2 に変換される

以前は、内部 NoSuchBucket 結果の S3 エラー変換の変更により、radosgw-admin bucket stats コマンドからのエラーコードが誤って変更され、これらの radosgw-admin コマンドのシェル結果コードをチェックするプログラムが、別の結果コードを表示していました。

この機能拡張により、結果コード 2002 が明示的に 2 に変換され、ユーザーは元の動作を確認できるようになります。

役に立つエラーを使用してバケットポリシーを使用できるようになりました。

エラー表示が間違っていたため、バケットポリシーの使用が困難でした。さらに、通知なしでプリンシパルを削除すると、アップグレード中に問題が発生する可能性があります。今回の更新で、ポリシーパーサーからの有用なエラーと、rgw policy reject invalid principals=true パラメーターを使用して無効なプリンシパルを拒否するフラグが導入されました。

8.7.1.5. マルチサイトの Ceph Object Gateway

bucket sync run コマンドで詳細な情報が提示されるように

この機能拡張では、bucket sync run コマンドに関してユーザーフレンドリーな進行状況レポートが追加され、操作の進行状況をユーザーが簡単に確認できるようになりました。ユーザーが --extra-info フラグを指定して radosgw-admin bucket sync run コマンドを実行すると、ユーザーは生成同期の開始に関するメッセージと、同期される各オブジェクトに関するメッセージを受け取ります。

警告

Red Hat サポートに連絡せずに bucket sync run コマンドを使用することは推奨しません。

マルチサイト設定で動的なバケットインデックスのリシャーディングに対応

以前のバージョンでは、マルチサイト設定のバケットの手動によるリシャーディングのみがサポートされるようになりました。

この機能拡張により、マルチサイト設定で動的バケットのリシャーディングがサポートされます。ストレージクラスターがアップグレードされると、resharding 機能、ゾーンレベル、およびゾーングループが有効になります。radogw-admin bucket reshard command を使用してバケットを手動でリシャーディングするか、ストレージクラスター内の他のゾーンとは関係なく、動的リシャーディングでバケットを自動的にリシャーディングできます。

ユーザーは、マルチサイトアーカイブゾーンを使用してバケットインデックスを動的に再シャーディングできるように。

今回の機能拡張では、そのゾーンで動的リシャーディングが有効になっている場合に、マルチサイトアーカイブゾーンバケットインデックスを動的にリシャーディングできます。

8.7.1.6. RADOS

スロットル制限に達したことをユーザーに警告する低レベルのログメッセージが導入される

以前は、スロットル制限に達したことを示す低レベルのログ記録が不足していたため、これらの発生がネットワークの問題のように誤って表示されていました。

この機能拡張では、低レベルのログメッセージの導入により、スロットル制限に達したことがより明確になります。

8.7.1.7. RADOS ブロックデバイス (RBD)

複製されたイメージは、独自の暗号化形式とパスフレーズで暗号化できるようになりました

この機能強化により、階層化されたクライアント側の暗号化がサポートされるようになり、複製された各イメージを独自の暗号化形式とパスフレーズ (親イメージとは異なる場合もあり) で暗号化できるようになりました。フォーマットされていない通常のクローンイメージに固有の効率的なコピーオンライトセマンティクスは保持されます。

8.7.2. 既知の問題

8.7.2.1. Cephadm ユーティリティー

iSCSI デーモンで gwcli により iSCSI ゲートウェイを追加または拡張すると、期待どおりに動作します

以前は、信頼できる IP リストが仕様ファイルで更新されたときに iSCSI デーモンが自動的に再設定されないため、iSCSI デーモン間で iscsi-gateway.cfg が一致せず、gwcli での iSCSI ゲートウェイの追加または拡張が失敗していました。

今回の修正により、ゲートウェイを拡張し、gwcli コマンドを使用して既存のゲートウェイに追加できるようになりました。

(BZ#2099470)

ceph orch ps はモニタリングスタックデーモンのバージョンを表示しません

現在、cephadm ではバージョングラビングコードにダウンストリームのモニタリングスタックコンテナーとの互換性がないため、node-exporterprometheusalertmanager などのモニタリングスタックデーモンのバージョングラビングが失敗します。

ユーザーがバージョンを確認する必要がある場合、デーモンのコンテナー名にバージョンが含まれるので、これを回避策とします。

(BZ#2125382)

8.7.2.2. Ceph Object Gateway

num_shards = 0 のバケットをリシャーディングすると、バケットのメタデータが失われます。

num_shards = 0 のバケットを使用して古いリリースから Red Hat Ceph Storage 5.3 にアップグレードすると、バケットのメタデータが失われ、バケットにアクセスしようとしたときにバケットが使用できなくなる可能性があります。これは既知の問題であり、今後のリリースで修正される予定です。アップグレードガイド には、バケットの動的リシャーディングを無効にし、アップグレードを開始する前に num_shards をゼロ以外の値に設定する回避策が記載されています。アップグレードに関するヘルプやこの問題の詳細については、Red Hat サポート にお問い合わせください。

(BZ#2174235)

第9章 ソース

更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。

法律上の通知

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る