リリースノート


Red Hat Ceph Storage 5.2

Red Hat Ceph Storage 5.2 リリースノート

Red Hat Ceph Storage Documentation Team

概要

本リリースノートでは、Red Hat Ceph Storage 5 製品リリースに実装された主な機能、拡張機能、既知の問題、バ修正について説明します。これには、現在のリリースまでの Red Hat Ceph Storage 5.2 リリースのリリースノートが含まれています。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、Red Hat CTO である Chris Wright のメッセージ を参照してください。

Red Hat Ceph Storage ドキュメントへのフィードバック (英語のみ)

Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。これを行うには、Bugzilla のチケットを作成します。

+ .Bugzilla の Web サイトにアクセスします。Component ドロップダウンメニューで、Documentation を選択します。Sub-Component ドロップダウンで、適切なサブコンポーネントを選択します。ドキュメントの適切なバージョンを選択します。Summary および Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも追加してください。オプション:添付ファイルを追加します(ある場合)。Submit Bug をクリックします。

第1章 導入部分

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。

Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/ja-jp/red_hat_ceph_storage/5 から入手できます。

第2章 謝辞

Red Hat Ceph Storage 5 プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

第3章 新機能

本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。

3.1. Cephadm ユーティリティー

Cephadm-Ansible モジュール

Cephadm-Ansible パッケージは、データセンター全体を Ansible で管理したいユーザー向けに、新しい統合コントロールプレーンである cephadm をラップするいくつかのモジュールを提供します。Ceph-Ansible との後方互換性を提供することは意図していませんが、お客様が Ansible 統合を更新するために使用できるサポートされている一連の Playbook を提供することを目的としています。

詳細は、The cephadm-ansible modules を参照してください。

ブートストラップ Red Hat Ceph Storage クラスターは Red Hat Enterprise Linux 9 でサポートされる

このリリースでは、cephadm ブートストラップが Red Hat Enterprise Linux 9 のホストで使用可能になったため、Red Hat Ceph Storage 5.2 で Red Hat Enterprise Linux 9 がサポート対象になりました。ユーザーは、Red Hat Enterprise Linux 9 ホストで Ceph クラスターをブートストラップできるようになりました。

cephadm rm-cluster コマンドは、古い systemd ユニットファイルをホストからクリーンアップする

以前は、rm-cluster コマンドは、systemd ユニットファイルを削除せずにデーモンを破棄していました。

このリリースでは、cephadm rm-cluster コマンドは、デーモンのパージとともに、古い systemd ユニットファイルもホストからクリーンアップします。

cephadm は、仕様の適用に失敗した場合にヘルス警告を発生させる

以前は、仕様の適用に失敗した場合、サービスイベントとして報告されるだけで、ユーザーが確認しないことも多くありました。

今回のリリースでは、iscsi 仕様の不適切なプール名などの仕様の適用に失敗した場合、cephadm はヘルス警告を生成してユーザーに警告します。

Red Hat Ceph Storage 5.2 は、段階的なアップグレードをサポートする

Red Hat Ceph Storage 5.2 以降では、cephadm で大規模な Ceph クラスターを複数の小さなステップで選択的にアップグレードできます。

ceph orch upgrade start コマンドは、以下のパラメーターを受け入れます。

  • --daemon-types
  • --hosts
  • --services
  • --limit

これらのパラメーターは、指定された値に一致するデーモンを選択的にアップグレードします。

注記

cephadm がサポートされていない順序でデーモンをアップグレードすることになる場合、これらのパラメーターは拒否されます。

注記

これらのアップグレードパラメーターは、アクティブな Ceph Manager デーモンが Red Hat Ceph Storage 5.2 ビルド上にある場合に受け入れられます。以前のバージョンから Red Hat Ceph Storage 5.2 へのアップグレードでは、これらのパラメーターはサポートされません。

fs.aio-max-nr は、OSD を備えたホストで 1048576 に設定される

これまでは、Cephadm が管理するホストで fs.aio-max-nr をデフォルト値の 65536 のままにすると、一部の OSD がクラッシュする可能性がありました。

このリリースでは、OSD を備えたホストで fs.aio-max-nr が 1048576 に設定され、fs.aio-max-nr パラメーターの値が低すぎるために OSD がクラッシュすることがなくなりました。

ceph orch rm <service-name> コマンドは、削除しようとしたサービスが存在するかどうかをユーザーに通知する

以前は、サービスを削除すると、存在しないサービスの場合でも、必ず正常に削除されたとのメッセージが返され、ユーザーを混乱させていました。

このリリースでは、ceph orch rm SERVICE_NAME コマンドを実行すると、削除しようとしたサービスが cephadm に存在するかどうかがユーザーに通知されます。

新しい Playbook rocksdb-resharding.ymlcephadm-ansible で提供されるようになる

これまでは、rocksdb の再シャーディングには面倒な手動の手順が必要でした。

このリリースでは、cephadm-ansible Playbook の rocksdb-resharding.yml が実装され、プロセスを簡単にする rocksdb リシャーディングが可能になりました。

cephadm で、LVM レイヤーを使用しない OSD のデプロイがサポート対象になる

このリリースでは、OSD に LVM レイヤーを必要としないユーザーをサポートするために、cephadm または ceph-volume サポートが raw OSD に提供されます。Cephadm に渡される OSD 仕様ファイルに "method: raw" を含めて、LVM レイヤーなしで Cephadm を介して raw モードで OSD をデプロイすることができます。

このリリースでは、cephadm は OSD 仕様 yaml ファイルで method: raw を使用し、LVM レイヤーを使用せずに raw モードで OSD をデプロイすることをサポートしています。

詳細は、Deploying Ceph OSDs on specific devices and hosts を参照してください。

3.2. Ceph Dashboard

開始、停止、再起動、および再デプロイのアクションは、サービスの基盤となるデーモンで実行できます

以前は、オーケストレーターサービスは作成、編集、および削除しかできませんでした。サービスの基盤となるデーモンに対してアクションを実行できませんでした

このリリースでは、オーケストレーターサービスの基盤となるデーモンに対して、開始、停止、再起動、再デプロイなどのアクションを実行できます。

Ceph Dashboard の OSD ページとランディングページで、OSD の使用状況バーに異なる色が表示される

以前は、OSD がほぼ完全または完全な状態に達すると、クラスターの正常性が WARN または ERROR 状態に変わりましたが、ランディングページからは他の失敗の兆候はありませんでした。

このリリースでは、OSD がほぼフル比率またはフルになると、その特定の OSD の OSD ページとランディングページの使用状況バーに異なる色が表示されます。

ダッシュボードには、onode の hit または miss カウンターが表示される

このリリースでは、ダッシュボードに Bluestore 統計から取得された詳細が表示され、OSD ごとの RAM を増やすとクラスターのパフォーマンスが向上するかどうかを推測するのに役立つ onode の hit または miss カウンターが表示されます。

ユーザーは、特定のデーモンの CPU とメモリーの使用量を表示できる

このリリースでは、Red Hat Ceph Storage Dashboard の Cluster > Host > Daemons で特定のデーモンの CPU とメモリーの使用量を確認できます。

rbd-mirroring のための改善された Ceph Dashboard 機能

今回のリリースでは、Ceph Dashboard の RBD ミラーリングタブが強化され、以前はコマンドラインインターフェイス (CLI) にしか存在しなかった次の機能が追加されました。

  • イメージのミラーリングの有効化または無効化のサポート
  • アクションの昇格と降格のサポート
  • イメージの再同期のサポート
  • サイト名の編集とブートストラップキーの作成の可視性の向上
  • rbd-mirror が存在しない場合は、rbd-mirror を自動的に作成するためのボタンで設定される空白のページが表示される

ユーザーは、Red Hat Ceph Storage Dashboard 上のシンプルモードおよびアドバンスドモードで、OSD を作成できるようになる

このリリースでは、より単純なデプロイメントシナリオでクラスターの OSD デプロイメントを簡素化するために、OSD 作成のシンプルモードとアドバンスドモードが導入されています。

次の 3 つの新しいオプションから選択できるようになりました。

  • コスト/容量の最適化: 利用可能なすべての HDD が OSD のデプロイに使用されます。
  • 最適化されたスループット: HDD はデータデバイス用に、SSD は DB/WAL デバイス用にサポートされています。
  • IOPS 最適化: 使用可能なすべての NVME がデータデバイスとして使用されます。

詳細は、Management of OSDs using the Ceph Orchestrator を参照してください。

Ceph Dashboard のログインページにカスタマイズ可能なテキストが表示される

企業ユーザーは、システムにアクセスするすべての人が確認され、法的/セキュリティー条件の遵守を約束していることを確認したいと考えています。

このリリースでは、カスタマイズされたバナー/警告テキストを表示するために、Ceph Dashboard のログインページにプレースホルダーが提供されています。Ceph Dashboard の管理者は、以下のコマンドを使用してバナーを設定/編集/削除できます。

[ceph: root@host01 /]# ceph dashboard set-login-banner -i filename.yaml
[ceph: root@host01 /]# ceph dashboard get-login-banner
[ceph: root@host01 /]# ceph dashboard unset-login-banner

有効にすると、Dashboard ログインページにはカスタマイズ可能なテキストが表示されます。

メジャーバージョン番号と内部 Ceph バージョンが Ceph Dashboard に表示される

このリリースでは、メジャーバージョン番号とともに内部 Ceph バージョンも Ceph Dashboard に表示され、ユーザーが Red Hat Ceph Storage ダウンストリームリリースを Ceph 内部バージョンに関連付けるのに役立ちます。たとえば、Version: 16.2.9-98-gccaadd。上部のナビゲーションバーをクリックし、疑問符メニュー (?) をクリックして、About モーダルボックスに移動し、Red Hat Ceph Storage のリリース番号と対応する Ceph バージョンを特定します。

3.3. Ceph ファイルシステム

外部モードで設定された ODF の CephFS サブボリュームで新しい機能を使用できる

ODF の CephFS が外部モードで設定されている場合、ユーザーはボリューム/サブボリュームメタデータを使用して、ボリューム/サブボリュームの PVC/PV/namespace などをはじめとする Openshift 固有のメタデータ情報を保存することを好みます。

このリリースでは、CephFS サブボリュームからカスタムメタデータを設定、取得、更新、リスト表示、および削除する次の機能が追加されました。

以下を使用して、サブボリュームにカスタムメタデータをキーと値のペアとして設定します。

構文

ceph fs subvolume metadata set VOLUME_NAME SUBVOLUME_NAME KEY_NAME VALUE [--group-name SUBVOLUME_GROUP_NAME]

メタデータキーを使用して、サブボリュームに設定されたカスタムメタデータを取得します。

構文

ceph fs subvolume metadata get VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ]

サブボリュームに設定されたカスタムメタデータ、キーと値のペアをリスト表示します。

構文

ceph fs subvolume metadata ls VOLUME_NAME SUBVOLUME_NAME [--group-name SUBVOLUME_GROUP_NAME ]

メタデータキーを使用して、サブボリュームに設定されたカスタムメタデータを削除します。

構文

ceph fs subvolume metadata rm VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ] [--force]

clone status コマンドを使用すると、クローンが失敗する理由が表示される

これまでは、クローンが失敗した場合に障害の理由を確認するには、ログを検索するしかありませんでした。

このリリースでは、クローンの失敗理由が clone status コマンドの出力に表示されます。

[ceph: root@host01 /]#  ceph fs clone status cephfs clone1
{
  "status": {
    "state": "failed",
    "source": {
      "volume": "cephfs",
      "subvolume": "subvol1",
      "snapshot": "snap1"
      "size": "104857600"
    },
    "failure": {
      "errno": "122",
      "errstr": "Disk quota exceeded"
    }
  }
}

クローンの失敗の理由は、以下の 2 つのフィールドに表示されます。

  • errno : エラー番号
  • error_msg : 失敗したエラー文字列

3.4. Ceph Manager プラグイン

CephFS NFS エクスポートは、ceph nfs export apply コマンドを使用して動的に更新できる

以前は、CephFS NFS エクスポートを更新すると、NFS-Ganesha サーバーが常に再起動されていました。これは、更新されなかったエクスポートを含む、ganesha サーバーによって提供されるすべてのクライアント接続に一時的に影響を与えました。

このリリースでは、ceph nfs export apply コマンドを使用して、CephFS NFS エクスポートを動的に更新できるようになりました。CephFS NFS エクスポートが更新されるたびに NFS サーバーが再起動されることはなくなりました。

3.5. Ceph Volume ユーティリティー

ユーザーは、OSD の再デプロイ前にデバイスを手動で消去する必要がない

これまでは、ユーザーは OSD を再デプロイする前にデバイスを手動で消去する必要がありました。

このリリースでは、ザッピング後、ボリュームグループまたは論理ボリュームが残っていなければデバイス上の物理ボリュームが削除されるため、ユーザーは OSD の再デプロイ前にデバイスを手動でワイプする必要がなくなりました。

3.6. Ceph Object Gateway

Ceph Object Gateway は、その Ops ログを通常の Unix ファイルに送信するように設定できるようになる

このリリースでは、Ceph Object Gateway は、その Ops ログを通常の Unix ファイルに転送するように設定できます。ファイルベースのログは、Unix ドメインソケットと比較して、一部のサイトでの作業が簡単であるためです。ログファイルの内容は、デフォルト設定で Ops Log ソケットに送信される内容と同じです。

radosgw lc process コマンドを使用して、単一のバケットのライフサイクルを処理する

このリリースでは、ユーザーは radosgw-admin lc process コマンドを使用して、バケット名 --bucket または ID --bucket-id を指定して、コマンドラインインターフェイスから単一のバケットのライフサイクルのみを処理することができるようになりました。これは、単一のバケットのライフサイクルを処理することは、デバッグなど多くの場面で便利であるからです。

ユーザー ID 情報が Ceph Object Gateway の Ops ログ出力に追加される

このリリースでは、ユーザー ID 情報が Ops ログ出力に追加され、お客様が S3 アクセスの監査のためにこの情報にアクセスできるようになりました。ユーザー ID は、Ceph Object Gateway Ops Log のすべてのバージョンで S3 リクエストによって確実に追跡できます。

Ceph Object Gateway の HTTP アクセスロギングのログレベルは、debug_rgw_access パラメーターで個別に制御できる

このリリースでは、Ceph Object Gateway の HTTP アクセスロギングのログレベルを debug_rgw_access パラメーターで個別に制御できるようになり、これらの HTTP アクセスログ行を除く debug_rgw=0 などのすべての Ceph Object Gateway ロギングを無効にする機能をユーザーに提供できるようになりました。

バケットインデックスを更新すると、レベル 20 の Ceph Object Gateway ログメッセージが減少する

このリリースでは、値を追加しないメッセージを削除し、ログのサイズを縮小するためにバケットインデックスを更新するときに、Ceph Object Gateway レベル 20 のログメッセージが削減されます。

3.7. マルチサイトの Ceph Object Gateway

current_time フィールドがいくつかの radosgw-admin コマンドの出力に追加される

このリリースでは、いくつかの radosgw-admin コマンドに current_time フィールドが追加されました。具体的には、sync statusbucket sync statusmetadata sync statusdata sync status、および bilog status になります。

HTTP クライアントのロギング

これまでは、Ceph Object Gateway は HTTP レスポンスのエラー本文を出力せず、要求をレスポンスに一致させる方法もありませんでした。

このリリースでは、HTTP 要求を非同期 HTTP クライアントおよびエラー本文の HTTP レスポンスに一致させるタグを維持することにより、HTTP クライアントのより完全なロギングが実装されています。Ceph Object Gateway デバッグが 20 に設定されている場合、エラー本文およびその他の詳細が出力されます。

OpenStack Keystone の読み取り専用ロールが利用できるようになる

OpenStack Keystone サービスは、adminmember、および reader の 3 つのロールを提供します。ロールベースのアクセス制御 (RBAC) 機能を OpenStack に拡張するために、Keystone サービスの特定のユーザーに新しい読み取り専用の管理ロールを割り当てることができるようになりました。

RBAC のサポート範囲は OpenStack リリースに基づいています。

3.8. パッケージ

新しいバージョンの grafana コンテナーは、セキュリティー修正と改善された機能を提供する

本リリースでは、grafana v8.3.5 をリベースした新バージョンの grafana コンテナーを構築し、セキュリティー修正と機能向上を実現します。

3.9. RADOS

pg_autoscale_modeon に設定されている場合、MANY_OBJECTS_PER_PG 警告は報告されなくなる

以前は、Ceph の可用性警告 MANY_OBJECTS_PER_PG は、pg_autoscale_modeon に設定されているインスタンスで、可用性警告のモードの区別なくレポートされました。

今回のリリースでは、pg_autoscale_modeon に設定されている場合に MANY_OBJECTS_PER_PG 警告の報告を省略するチェックが追加されました。

OSD は、遅い操作の詳細を集計形式で Ceph Manager サービスに報告します。

以前は、低速なリクエストはクラスターログに詳細な情報を詰め込みすぎて、監視データベースがいっぱいになっていました。

このリリースでは、低速なリクエストはオペレーションタイプおよびプール情報によってクラスターログに記録され、OSD に基づいて集約された低速オペレーションの詳細がマネージャーサービスに報告されます。

ユーザーは、CIDR 範囲をブロックリストできるようになる

このリリースでは、個々のクライアントインスタンスと IP に加えて、CIDR 範囲をブロックリストに指定できます。特定の状況では、ブロックリストに個別のクライアントを指定するのではなく、データセンター全体またはラック全体ですべてのクライアントを拒否リストに指定する必要があります。たとえば、ワークロードを異なるマシンセットにフェイルオーバーし、古いワークロードインスタンスが部分的に動作し続けるのを防ぎたいとします。これは、既存の blocklist コマンドに類似した blocklist range を使用することで可能になりました。

3.10. Ceph Ansible ユーティリティー

Ceph ファイルのバックアップおよび復元に、新しい Ansible Playbook が利用できるようになる

以前は、OS を Red Hat Enterprise Linux 7 から Red Hat Enterprise Linux 8 にアップグレードするか、マシンを再プロビジョニングする際に、手動でファイルをバックアップおよび復元する必要がありました。これは特に大規模なクラスターデプロイメントの場合に非常に不便でした。

このリリースでは、/etc/ceph/var/lib/ceph などの Ceph ファイルをバックアップおよび復元するための backup-and-restore-ceph-files.yml Playbook が追加され、ユーザーは手動でファイルを復元する必要がなくなりました。

第4章 テクノロジープレビュー

本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。

重要

テクノロジープレビュー機能は、実稼働環境での Red Hat サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行いフィードバックを提供していただくことを目的としています。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。

HA 対応 NFS による NFS デプロイメントの可用性の向上

このリリースでは、NFS が HA 対応となり、NFS デプロイメントの可用性が向上しています。haproxy および keepalived 対応の NFS をデプロイできます。配置でさらに多くのホストが指定されているが、count プロパティーで使用されるホスト数が制限されている場合、NFS ホストがオフラインになると、NFS デーモンが他のホストにデプロイされます。

詳細は、Management of NFS Ganesha gateway using the Ceph orchestrator を参照してください。

4.1. Ceph Object Gateway

S3 透過的暗号化の Ceph Object Gateway テクノロジープレビューサポート

このリリースでは、Ceph Object Gateway は、SSE-S3 および S3 PutBucketEncryption API を使用した S3 透過的暗号化に対してテクノロジープレビューサポートを提供します。

4.2. RADOS ブロックデバイス

persistent write log cache という名前の librbd プラグインでレイテンシーを軽減する

このリリースでは、Persistent Write Log Cache (PWL) という名前の新しい librbd プラグインが、SSD デバイスを対象とした永続的でフォールトトレラントなライトバックキャッシュを提供します。レイテンシーが大幅に短縮され、低い io_depths でのパフォーマンスも向上します。このキャッシュは、チェックポイントを内部で維持するログ順のライトバック設計を使用しているため、クラスターにフラッシュバックされる書き込みは、常にクラッシュ整合性が保たれます。クライアントキャッシュが完全になくなった場合でも、ディスクイメージには整合性がありますが、データは古くなったように見えます。

第5章 非推奨になった機能

本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。

重要

非推奨の機能は、Red Hat Ceph Storage 5 のサポートが終了するまで引き続きサポートされます。非推奨の機能は、本製品の今後のメジャーリリースではサポートされない可能性が高く、新たに実装することは推奨されません。特定のメジャーリリースにおける非推奨機能の最新情報は、そのメジャーリリースの最新版のリリースノートを参照してください。

CephFS の NFS サポートが非推奨に

CephFS の NFS サポートが非推奨になりました。OpenStack Manila での NFS の Red Hat Ceph Storage サポートには影響はありません。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。

iSCSI サポートが非推奨に

iSCSI のサポートは非推奨となり、NVMEoF のサポートが追加されました。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。

第6章 バグ修正

本セクションでは、Red Hat Ceph Storage の本リリースで修正された、ユーザーに影響するバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。

6.1. Cephadm ユーティリティー

コンテナープロセス数の制限が max に設定されている

以前は、コンテナーのプロセス数の制限である 2048 により、新しいプロセスが制限を超えてフォークされることはありませんでした。

このリリースでは、プロセス数の制限が max に設定されているため、ターゲットごとに必要な数の LUN を作成できます。ただし、その数は引き続きサーバーリソースによって制限されます。

(BZ#1976128)

バッチで OSD を作成する際に、利用できないデバイスが渡されなくなる

以前は、GPT ヘッダーを持つデバイスは使用不可としてマークされませんでした。GPT ヘッダーを持つデバイスでは OSD を作成できないため、Cephadm が、他の有効なデバイスとともに、これらのデバイスで OSD をバッチで作成しようとすると、バッチ OSD の作成に失敗していました。そのため、OSD は作成されませんでした。

この修正により、OSD をバッチで作成する際に使用できないデバイスが渡されなくなり、GPT ヘッダーを持つデバイスは有効なデバイスでの OSD の作成をブロックしなくなりました。

(BZ#1962511)

サポートされていない形式で --format 引数を指定したユーザーは、トレースバックを受け取る

以前は、オーケストレーターは、サポートされていない --format 引数を受け取るたびに例外を出力し、サポートされていない形式で --format を渡したユーザーがトレースバックを受け取る原因となっていました。

この修正により、サポートされていない形式が適切に処理され、ユーザーがサポートされていない形式を提供すると、その形式がサポートされていないことを説明するメッセージが表示されるようになりました。

(BZ#2006214)

ceph-common パッケージが、依存関係エラーなしでインストールできるようになる

以前は、Red Hat Ceph Storage 4 を Red Hat Ceph Storage 5 にアップグレードした後、いくつかのパッケージが除外され、依存関係のエラーが生じていました。

この修正により、Red Hat Ceph Storage 4 パッケージが削除され、ceph-common パッケージをプリフライト Playbook の実行中にエラーなしでインストールできるようになりました。

(BZ#2008402)

tcmu-runner デーモンは迷子のデーモンとして報告されなくなる

以前は、tcmu-runner デーモンは iSCSI の一部とみなされるため、cephadm によってアクティブに追跡されませんでした。そのため、cephadm が追跡しないことで tcmu-runner デーモンは迷子のデーモンとして報告されていました。

この修正により、tcmu-runner デーモンが既知の iSCSI デーモンと一致すると、迷子のデーモンとしてマークされなくなりました。

(BZ#2018906)

ユーザーは、明示的な IP なしでアクティブマネージャーを使用してホストを再追加できる

以前は、cephadm がコンテナー内から現在のホストの IP アドレスを解決しようとするたびに、ループバックアドレスに解決される可能性がありました。ユーザーがアクティブな Ceph Manager を使用してホストを再度追加する場合は、明示的な IP が必要であり、ユーザーがそれを指定しなかった場合はエラーメッセージが表示されていました。

この修正では、ホストが明示的に提供されておらず、名前の解決としてループバックアドレスを返す場合、cephadm はホストを再追加する際に古い IP を再利用します。ユーザーは、明示的な IP なしにアクティブなマネージャーでホストを再度追加できるようになりました。

(BZ#2024301)

cephadm は、設定を推測していたデーモンの fsid が予想される fsid と一致するかどうかを検証する

以前の cephadm では、設定を推測するデーモンの fsid が、予想される fsid と一致するかどうかを確認するためのチェックが行われていませんでした。このため、ユーザーの /var/lib/ceph/FSID/DAEMON_NAME ディレクトリーに予想とは異なる fsid があった場合でも、そのデーモンディレクトリーの設定は引き続き推測されていました。

今回の修正により、fsid が期待されるものと一致するかどうかを確認するためのチェックが行われ、ユーザーは “failed to probe daemons or devices (デーモンまたはデバイスのプローブに失敗しました)" というエラーを受け取らなくなりました。

(BZ#2024720)

cephadm は、異なる名前のクライアントキーリングのコピーをサポートする

以前は、クライアントのキーリング ceph.keyring をコピーする際に、cephadm は宛先にファイル名を適用していました。

この修正で、cephadm は別の名前でのクライアントキーリングのコピーをサポートし、コピー時の自動名前変更の問題を排除するようになりました。

(BZ#2028628)

ユーザーは、-c ceph.conf オプションを使用して、複数のパブリックネットワークでクラスターをブートストラップできる

以前は、-c ceph.conf オプションの一部として提供された場合、cephadm はブートストラップ中に複数のパブリックネットワークを解析しませんでした。そのため、複数のパブリックネットワークでクラスターをブートストラップできませんでした。

この修正では、提供された ceph.conf ファイルから、public network フィールドが正しく解析され、public_network mon config フィールドの入力に使用できるようになりました。これにより、ユーザーは -cceph オプションを使用して、複数のパブリックネットワークを提供するクラスターをブートストラップできます。

(BZ#2035179)

数値のサービス ID を使用して MDS サービスを設定すると、ユーザーに警告するエラーが出力される

以前は、数値のサービス ID を使用して MDS サービスを設定すると、MDS デーモンがクラッシュしていました。

今回の修正により、数値のサービス ID を使用して MDS サービスを作成しようとすると、すぐにエラーが出力され、ユーザーに数値のサービス ID を使用しないよう警告するようになりました。

(BZ#2039669)

ceph orch redeploy mgr コマンドは、最後にアクティブな Manager デーモンを再デプロイする

以前は、ceph orch redeploy mgr コマンドを使用すると、スケジュールされた再デプロイアクションをクリアせずに Ceph Manager デーモンが継続的に再デプロイされるため、Ceph Manager デーモンは際限なくフラッピングしていました。

このリリースでは、アクティブマネージャーデーモンは必ず最後に再デプロイされ、ceph orch redeploy mgr コマンドが各 Ceph Manager を 1 回だけ再デプロイするように、再デプロイの順序が調整されました。

(BZ#2042602)

カスタム名を持つクラスターの採用がサポートされるようになる

以前は、cephadmunit.run ファイルでカスタムクラスターを伝播しないため、カスタム名の Ceph クラスターから Ceph OSD コンテナーを使用できませんでした。

このリリースでは、cephadm は LVM メタデータを変更し、デフォルトのクラスター名 Ceph を適用するため、カスタムクラスター名を持つクラスターを使用すると期待どおりに機能します。

(BZ#2058038)

cephadm は、ceph orch upgrade start コマンドに提供されるイメージ名に docker.io を追加しなくなる

これまで、cephadm は非修飾レジストリーからの任意のイメージに docker.io を追加していました。そのため、ローカルレジストリーなどの非修飾レジストリーからのイメージをアップグレードのために渡すことはできませんでした。これは、このイメージのプルに失敗するためです。

Red Hat Ceph Storage 5.2 以降、名前が ceph/ceph:v17 などのアップストリーム ceph イメージと一致しない限り、docker.io はイメージ名に追加されなくなりました。ceph orch upgrade コマンドを実行すると、ユーザーはローカルレジストリーからイメージを渡すことができ、Cephadm はそのイメージにアップグレードできます。

注記

これは、5.2 以降のアップグレードにのみ適用されます。5.1 から 5.2 へのアップグレードは、引き続きこの問題の影響を受けます。

(BZ#2077843)

Cephadm は、レガシーデーモンから設定ファイルを推測しなくなる

これまで Cephadm は、/var/lib/ceph/{mon|osd|mgr} ディレクトリーの存在に基づいて、デーモンが残っているかどうかに関わらず、レガシーデーモンから設定ファイルを推測していました。これにより、ディスク更新などの特定のタスクが、これらのディレクトリーが存在するノードで失敗しました。これは、Cephadm が存在しない設定ファイルを推測しようとする際にエラーを出力するためです。

この修正により、Cephadm はレガシーデーモンから設定ファイルを推測しなくなりました。代わりに、推測する前に既存の設定ファイルをチェックします。レガシーデーモンディレクトリーが存在するため、ホスト上のデーモンまたはデバイスを更新するときに Cephadm で問題が発生しなくなりました。

(BZ#2080242)

.rgw.root プールが自動的に作成されなくなる

以前は、マルチサイト用の Ceph Object Gateway の追加チェックが存在していたため、ユーザーが .rgw.root プールを削除してもプールが自動的に作成されていました。

Red Hat Ceph Storage 5.2 以降、マルチサイトチェックが削除され、ユーザーが Ceph Object Gateway 関連のアクションを実行することで作成されない限り、.rgw.root プールは自動的に作成されなくなりました。

(BZ#2083885)

Ceph Manager デーモンが、cephadm の配置仕様で指定されなくなったホストから削除される

以前は、現在アクティブなマネージャーデーモンは、マネージャーサービス仕様で指定された配置と一致しなくなった場合でも、cephadm から削除されませんでした。ユーザーがサービス仕様を変更して、現在アクティブなマネージャーが存在するホストを除外すると、フェイルオーバーが発生するまで、余分なマネージャーが作成されます。

今回の修正により、スタンバイが使用可能で、アクティブなマネージャーがサービス仕様に一致しなくなったホスト上にある場合、cephadm はマネージャーをフェイルオーバーします。Ceph Manager デーモンは、マネージャーがアクティブなマネージャーであっても、cephadm の配置仕様で指定されなくなったホストから削除されます。

(BZ#2086438)

不正な URL による 404 エラーが原因で、ログにトレースバックが発生

以前は、cephadm が prometheus レシーバーの URL を誤って形成し、不正な URL にアクセスしようとすると 404 エラーが発生するため、トレースバックがログに出力されていました。

この修正により、URL の形式が修正され、404 エラーが回避されます。トレースバックは記録されなくなりました。

(BZ#2087736)

cephadm は、ホストレベルで osd_memory_target 設定を削除しなくなる

以前は、osd_memory_target_autotune がグローバルにオフになっていた場合、cephadm はユーザーがホストレベルで osd_memory_target に設定した値を削除していました。さらに、FQDN 名を持つホストの場合、クラッシュマップで短い名前が使用されていても、cephadm は引き続き FQDN を使用して設定オプションを設定します。このため、ユーザーは osd_memory_target をホストレベルで手動で設定できず、osd_memory_target 自動チューニングは FQDN ホストでは機能しませんでした。

今回の修正により、osd_memory_target_autotunefalse に設定されている場合、osd_memory_target 設定はホストレベルで cephadm から削除されません。また、ホストレベル osd_memory_target を設定するときは、常にホストの短い名前を使用します。ホストレベルで osd_memory_target_autotunefalse に設定されている場合、ユーザーは手動で osd_memory_target を設定し、オプションが cephadm によって削除されないようにすることができます。さらに、FQDN 名で cephadm に追加されたホストで自動調整が機能するようになりました。

(BZ#2092089)

Cephadm は FQDN を使用して Aalertmanager Webhook URL を構築する

これまで Cephadm は、ホスト用に保存した IP アドレスに基づいて Alertmanager Webhook URL を選択していました。そのため、Webhook URL は特定のデプロイメントで機能せず、問題が発生していました。

この修正により、Cephadm は FQDN を使用して Alertmanager Webhook URL を構築するため、以前は壊れていた一部のデプロイメント状況で Webhook URL が機能するようになりました。

(BZ#2099348)

6.2. Ceph Dashboard

Ceph Dashboard のドレイン操作により、ホストを安全に削除できる

以前は、ユーザーがすべてのデーモンを移動せずに Ceph Dashboard でホストを削除すると、ホストは使用不可状態またはゴースト状態に移行していました。

この修正により、ユーザーはダッシュボードのドレイン操作を使用して、すべてのデーモンをホストから移動できます。ドレイン操作が正常に完了すると、ホストを安全に削除できます。

(BZ#1889976)

パフォーマンスの詳細グラフは、Ceph Dashboard に必要なデータを表示する

以前は、関連するメトリックが古くなっているため、put/get 操作が実行されていても、デーモンのパフォーマンス詳細グラフにデータが表示されませんでした。

この修正により、関連するメトリックが最新になり、パフォーマンスの詳細グラフに必要なデータが表示されます。

(BZ#2054967)

Alertmanager に正しい MTU mismatch アラートが表示される

これまで Alertmanager は、down 状態のカードに対しても誤った MTU mismatch アラートを表示していました。

この修正により、Alertmanager に正しい MTU mismatch アラートが表示されるようになりました。

(BZ#2057307)

PG ステータスチャートに不明な配置グループステータスが表示されなくなる

以前は、snaptrim_wait 配置グループ (PG) の状態が正しく解析されず、有効な PG 状態ではない snaptrimwait の 2 つの状態に分割されていました。これにより、すべての PG が既知の状態にあったにもかかわらず、PG ステータスチャートにいくつかの PG が誤って不明な状態で表示されました。

今回の修正により、snaptrim_wait とアンダースコアを含むすべての状態が正しく解析され、不明な PG ステータスが PG 状態チャートに表示されなくなりました。

(BZ#2077827)

Ceph Dashboard の改善されたユーザーインターフェイス

以前は、Ceph Dashboard のユーザーインターフェイスで次の問題が確認されており、マルチパスストレージクラスターでテストすると使用できなくなりました。

  • マルチパスストレージデバイスを使用するクラスターでは、物理ディスク ページでディスクが選択された場合、複数のディスクが選択され、テーブルの選択カウントが増加し始め、テーブルが 1 分以内に応答を停止するまで続きました。
  • SMART データの取得中に、Device Health ページにエラーが表示されました。
  • Hosts ページの Services 列に多数のエントリーが表示され、読みやすさが低下していました。

このリリースでは、以下の修正が実装され、ユーザーインターフェイスが改善されています。

  • 物理ディスク ページでのディスク選択の問題を修正しました。
  • scsi デバイスの SMART データを取得するオプションが追加されました。
  • Services 列の名前が Service Instances に変更され、そのサービスのインスタンス名とインスタンス数だけがバッジに表示されます。

(BZ#2097487)

6.3. Ceph ファイルシステム

任意のディレクトリーの ceph.dir.layout をフェッチすると、継承された最も近いレイアウトが返される

以前は、ディレクトリーパスがルートに移動して最も近い継承されたレイアウトを見つけられなかったため、特にレイアウトが設定されていないディレクトリーに対してシステムがそのような属性はありませんというメッセージを返していました。

今回の修正により、ディレクトリーパスはルートまでたどり、最も近い継承されたレイアウトを見つけ、ディレクトリー階層から任意のディレクトリーの ceph.dir.layout を取得します。

(BZ#1623330)

subvolumegroup ls API は、内部のごみ箱ディレクトリー _deleting をフィルタリングする

以前は、subvolumegroup ls API は内部のごみ箱ディレクトリー _deleting をフィルタリングせず、これが原因で subvolumegroup とリストされていました。

この修正により、subvolumegroup ls API は内部のごみ箱ディレクトリー _deleting をフィルタリングし、subvolumegroup ls API は内部のごみ箱ディレクトリー _deleting を表示しなくなります。

(BZ#2029307)

クラスター内の MDS 間で競合状態による混乱が発生しなくなる

以前は、メッセンジャーのセットアップ中に MDS で競合状態が発生すると、クラスター内の他の MDS 間で混乱が生じ、他の MDS が通信を拒否する原因となっていました。

今回の修正により、競合状態が修正され、MDS 間の正常な通信が確立されます。

(BZ#2030540)

MDS は、オンラインスクラブで stray reintegration をトリガーできるようになる

以前は、ストレイの再統合はクライアントの要求によってのみトリガーされ、ストレイ inode をクリアするプロセスが発生し、クライアントによる高価な再帰的なディレクトリーリストが必要になりました。

この修正により、MDS はオンラインスクラブを使用してストレイの再統合をトリガーできるようになりました。

(BZ#2041563)

ターゲットディレクトリーがいっぱいの場合、MDS はストレイを再統合する

以前は、リンクのターゲットディレクトリーがいっぱいになった場合、MDS はストレイを再統合せず、縮退した状況でストレイディレクトリーがいっぱいになりました。

この修正により、MDS はサイズの変更が発生しないため、ターゲットディレクトリーがいっぱいの場合でもストレイ統合を続行します。

(BZ#2041571)

データがコピーされた後、クローンにクォータが適用される

以前は、ソーススナップショットからデータをコピーする前にクローンのクォータが設定され、ソースからデータ全体をコピーする前にクォータが適用されていました。これにより、ソースのクォータが超過した場合、サブボリュームスナップショットクローンが失敗します。クォータはバイト範囲で厳密に適用されていないため、これは 1 つの可能性として考えられます。

今回の修正により、データのコピー後にクローンにクォータが適用されます。これで、スナップショットクローンは、クォータに関係なく常に成功します。

(BZ#2043602)

ceph-mgr の再起動後に災害復旧の自動化と計画が再開される

以前は、ceph-mgr の起動時にスケジュールが開始されず、ceph-mgr の再起動時にスナップショットスケジュールが再開されると想定していたユーザーの災害復旧計画に影響がありました。

今回の修正により、スケジュールは ceph-mgr の再起動時に開始され、災害復旧の自動化と計画 (スナップショットレプリケーションなど) は、ceph-mgr の再起動後すぐに再開されます。手動で介入する必要はありません。

(BZ#2055173)

mdlog は、ファイルを開いて読み取るとすぐにフラッシュされる

以前は、読み取り用にファイルを開くと MDS が他のクライアントから Fw 機能を取り消し、Fw 機能が解放されると MDS は mdlog をすぐにフラッシュできず、Fr 機能をブロックしていました。そのため、mdlog が 5 秒間隔で定期的にフラッシュされるまで、ファイルを要求するプロセスが約 5 秒間停止していました。

このリリースでは、Fw 機能を開放する際に必要な機能があれば、すぐに mdlog フラッシュがトリガーされ、ファイルを開いてすばやく読み取ることができます。

(BZ#2076850)

特定のクローンの状態ではサブボリュームクローンの削除が許可されなくなる

以前は、クローンが COMPLETED または CANCELLED 状態ではない場合に、force オプションを使用してサブボリュームのクローンを削除しようとすると、進行中のクローンを追跡するインデックスからクローンが削除されませんでした。これにより、対応する cloner スレッドがクローンを無限に再試行し、最終的に ENOENT エラーが発生していました。デフォルトの cloner スレッドの数が 4 つに設定された状態で、4 つのクローンを削除しようと試みると、4 つのクローンがすべてブロック状態になり、保留中のクローンが完了しません。

今回のリリースでは、クローンが COMPLETED または CANCELLED 状態のいずれかでない限り、削除されなくなりました。クローンが削除され、進行中のクローンを追跡するインデックスからのエントリーとともに、クローンスレッドがブロックされなくなりました。その結果、保留中のクローンは引き続き期待どおりに完了します。

(BZ#2081596)

新しいクライアントは古い Ceph クラスターと互換性がある

以前は、新しいクライアントは古い Ceph クラスターと互換性がなく、古いクラスターは、不明なメトリックを受け取ると、abort() をトリガーして MDS デーモンをクラッシュさせていました。

今回の修正により、クライアントの機能ビットを確認し、MDS でサポートされているメトリックのみを収集して送信するようになりました。新しいクライアントは古い ceph と互換性があります。

(BZ#2081929)

同時ルックアップおよびリンク解除操作中に Ceph Metadata Server がクラッシュしなくなる

以前は、Ceph クライアントからの同時ルックアップ操作とリンク解除操作でヒットする、コードに配置されたアサートの誤った仮定により、Ceph Metadata Server がクラッシュしていました。

最新の修正により、アサーションは、同時ルックアップおよびリンク解除操作中の仮定が有効である関連する場所に移動され、Ceph Metadata Server がクラッシュすることなく Ceph Metadata Server 操作を提供し続けることになります。

(BZ#2093065)

リンクされていないディレクトリーをフェッチするときに、MDS がクラッシュしなくなる

以前は、リンクされていないディレクトリーを取得すると、予測されたバージョンが正しく初期化されず、サニティチェックの実行時に MDS がクラッシュすることがありました。

この修正により、リンクされていないディレクトリーをフェッチするときに、投影されたバージョンと inode バージョンが初期化され、MDS がクラッシュすることなくサニティチェックを実行できるようになります。

(BZ#2108656)

6.4. Ceph Manager プラグイン

欠落しているポインターが PriorityCache perf カウンタービルダーに追加され、perf 出力が prioritycache キー名を返す

以前は、PriorityCache perf カウンタービルダーに必要なポインターが欠落していたため、perf カウンター出力 (ceph tell DAEMON_TYPE.DAEMON_ID perf dump および ceph tell DAEMON_TYPE.DAEMON_ID perf schema) は、prioritycache キーの代わりに空の文字列を返していました。この欠落したキーが原因で、collectd-ceph プラグインで障害が発生しました。

この修正により、欠落しているポインターが PriorityCache perf カウンタービルダーに追加されました。これで、perf 出力は、prioritycache キー名を返します。

(BZ#2064627)

ネイティブ CephFS と外部 Red Hat Ceph Storage 5 を使用した OpenStack 16.x Manila の脆弱性

以前は、OpenStack 16.x (Manila を使用) および 外部の Red Hat Ceph Storage 4 を実行していて、Red Hat Ceph Storage 5.0、5.0.x、5.1、または 5.1.x にアップグレードしたお客様は、脆弱性の影響を受ける可能性がありました。この脆弱性により、OpenStack Manila のユーザー/テナント (Ceph File System 共有の所有者) は、CephFS でバックアップされた任意の Manila 共有へのアクセス、あるいは CephFS ファイルシステム全体へのアクセス (読み取り/書き込み) も悪意を持って取得することが可能でした。この脆弱性は、Ceph Manager のボリュームプラグインのバグが原因となっています。このプラグインは、Manila ユーザーに共有を提供する方法として、OpenStack Manila サービスによって使用される Ceph File System サブボリュームを管理します。

このリリースでは、この脆弱性が修正されています。外部の Red Hat Ceph Storage 5.0、5.0.x、5.1、または 5.1.x にアップグレードした OpenStack 16.x (ネイティブ CephFS アクセスを提供する Manila を使用) を実行しているお客様は、Red Hat Ceph Storage 5.2 にアップグレードする必要があります。NFS 経由のアクセスのみを提供していたお客様には、影響はありません。

(BZ#2056108)

6.5. Ceph Volume ユーティリティー

欠落しているバックポートが追加され、OSD をアクティブ化できる

以前は、バックポートの欠落によるリグレッションが原因で、OSD をアクティブ化できませんでした。

この修正により、欠落していたバックポートが追加され、OSD をアクティブ化できるようになりました。

(BZ#2093022)

6.6. Ceph Object Gateway

バージョニングされたバケットのライフサイクルポリシーがリシャード間で失敗しなくなる

以前は、内部ロジックエラーにより、バケットのリシャーディング中にバケットのライフサイクル処理が無効になり、影響を受けるバケットのライフサイクルポリシーが処理されませんでした。

今回の修正により、バグが修正され、バージョン管理されたバケットのライフサイクルポリシーがリシャード間で失敗しなくなりました。

(BZ#1962575)

削除されたオブジェクトはバケットインデックスにリストされなくなる

以前は、オブジェクトの削除操作が正常に完了しなかった場合、オブジェクトはバケットインデックスにリストされ、削除されるべきオブジェクトがまだリストされていました。

このリリースでは、不完全なトランザクションをファイナライズする内部の "dir_suggest" が修正され、削除されたオブジェクトはリストされなくなりました。

(BZ#1996667)

Ceph Object Gateway のゾーングループが awsRegion 値として送信される

以前は、awsRegion の値にイベントレコードの zonegroup が設定されていませんでした。

今回の修正により、Ceph Object Gateway のゾーングループが awsRegion 値として送信されるようになりました。

(BZ#2004171)

トピックの空のリストが提供されると、Ceph Object Gateway はすべての通知トピックを削除する

以前は、Ceph Object Gateway では、通知トピックは名前で正確に削除されていましたが、空のトピック名が指定された場合にすべてのトピックを削除するという AWS の動作に従わなかったため、いくつかのお客様のバケット通知ワークフローが Ceph Object Gateway で使用できなくなっていました。

今回の修正により、空のトピックリストの明示的な処理が変更され、トピックの空のリストが提供されると、Ceph Object Gateway はすべての通知トピックを削除します。

(BZ#2017389)

バケットのリスト、バケットの統計、および同様の操作でのクラッシュは、インデックスのないバケットでは表示されない

以前は、一般的なバケットのリスト表示を含むいくつかの操作で、インデックスのないバケットからインデックス情報に誤ってアクセスしようとして、クラッシュが発生していました。

今回の修正により、インデックスのないバケットの新しいチェックが追加されたため、バケットのリスト、バケットの統計、および同様の操作でのクラッシュは見られなくなりました。

(BZ#2043366)

内部テーブルインデックスが負になるのを防止

以前は、内部テーブルへのインデックスが一定時間の継続的実行の後で負の値になることが許可されていたため、Ceph Object Gateway がクラッシュしていました。

この修正により、インデックスは負の値にならなくなり、Ceph Object Gateway もクラッシュしなくなりました。

(BZ#2079089)

FIPS 対応環境での MD5 の使用は明示的に許可されており、S3 マルチパート操作を完了できる

以前は、FIPS が有効な環境では、暗号化以外の目的で明示的に除外されていない限り、MD5 ダイジェストの使用はデフォルトで許可されていませんでした。このため、S3 の完全なマルチパートアップロード操作中にセグメンテーション違反が発生しました。

この修正により、S3 の完全なマルチパート PUT 操作のための FIPS 対応環境での非暗号化目的での MD5 の使用が明示的に許可され、S3 のマルチパート操作を完了することができます。

(BZ#2088602)

radosgw-admin コマンドの結果コード 2002 が明示的に 2 に変換される

以前は、内部 NoSuchBucket 結果の S3 エラー変換の変更により、radosgw-admin bucket stats コマンドからのエラーコードが誤って変更され、これらの radosgw-admin コマンドのシェル結果コードをチェックするプログラムが、別の結果コードを表示していました。

この修正により、結果コード 2002 が明示的に 2 に変換され、ユーザーは元の動作を確認できるようになります。

(BZ#2100967)

FIPS 対応環境での MD5 の使用は明示的に許可されており、S3 マルチパート操作を完了できる

以前は、FIPS が有効な環境では、暗号化以外の目的で明示的に除外されていない限り、MD5 ダイジェストの使用はデフォルトで許可されていませんでした。このため、S3 の完全なマルチパートアップロード操作中にセグメンテーション違反が発生しました。

この修正により、S3 の完全なマルチパート PUT 操作のための FIPS 対応環境での非暗号化目的での MD5 の使用が明示的に許可され、S3 のマルチパート操作を完了することができます。

6.7. マルチサイトの Ceph Object Gateway

radosgw-admin bi purge コマンドは、削除されたバケットで機能する

以前は、radosgw-admin bi purge コマンドにはバケットエントリーポイントオブジェクトが必要でしたが、これは削除されたバケットには存在せず、バケットの削除後に bi purge がクリーンアップできませんでした。

今回の修正により、bi purge--bucket-id を受け入れてバケットエントリーポイントの必要性を回避し、コマンドは削除されたバケットに対して機能します。

(BZ#1910503)

Null ポインターチェックによるマルチサイトデータ同期のクラッシュが発生しなくなる

以前は、null ポインターアクセスによりマルチサイトデータ同期がクラッシュしていました。

今回の修正により、null ポインターチェックが正常に実装され、クラッシュの可能性が防止されます。

(BZ#1967901)

エラー発生時のメタデータの同期が停止しなくなる

以前は、メタデータ同期の一部のエラーが再試行されず、Ceph Object Gateway マルチサイト設定で一部のエラーが発生したときに同期が停止していました。

この修正により、再試行動作が修正され、エラーが発生してもメタデータの同期が停止しなくなりました。

(BZ#2068039)

rgw_data_notify_interval_msec=0 パラメーターに特別な処理が追加される

以前は、rgw_data_notify_interval_msec は 0 に対して特別な処理をしていなかったため、プライマリーサイトの通知によりセカンダリーサイトでフラッディングが発生していました。

この修正により、rgw_data_notify_interval_msec=0 の特別な処理が追加され、非同期データ通知を無効にできるようになりました。

(BZ#2102365)

6.8. RADOS

require-osd-release フラグがクラスターのアップグレード後に適切なリリースに設定されていない場合、Ceph クラスターはヘルス警告を発行します。

以前のバージョンでは、アップグレード後に require-osd-release フラグの不一致を検出するコードのロジックが、コードのリファクタリング作業中に誤って削除されていました。アップグレード後の ceph -s 出力で警告が発生しないため、適切なリリースにフラグを設定せずにクラスターに加えられた変更により、配置グループ (PG) が特定の状態でスタックし、Ceph のメモリー消費が過剰に行われ、他の多くの問題を含む要求が遅くなっていました。

今回の修正により、require-osd-release フラグがクラスターのアップグレード後に適切なリリースに設定されていない場合、Ceph クラスターはヘルス警告を発行するようになりました。

(BZ#1988773)

ストレッチモードで PG が remapped+peering 状態でスタックすることがなくなる

以前は、論理エラーが原因で、クラスターをストレッチモードで操作しているときに、一部の配置グループ (PG) が特定のクラスター条件下で remapped+peering 状態で永続的にスタックする可能性があり、OSD が再起動されるまでデータを使用できなくなりました。オフラインにしました。

この修正により、PG は安定した OSD セットを選択し、ストレッチモードで remapped+peering 状態で誤ってスタックすることがなくなりました。

(BZ#2042417)

OSD デプロイメントツールは、クラスターに変更を加えながら、すべての OSD を正常にデプロイする

KVMonitor paxos サービスは、クラスターへの変更を実行するときに追加、削除、または変更されるキーを管理します。以前は、OSD デプロイメントツールを使用して新しい OSD を追加するときに、サービスがキーへ書き込み可能かどうかを確認せずにキーが追加されていました。このため、paxos コードでアサーションエラーが発生し、モニターがクラッシュしていました。

最新の修正により、新しい OSD を追加する前に KVMonitor サービスが書き込みできるようになりました。できない場合は、コマンドが関連するキューに戻され、後の時点で再試行されるようになりました。OSD デプロイメントツールは、問題なくすべての OSD を正常にデプロイメントします。

(BZ#2086419)

PG ログの破損した重複エントリーは、オフラインおよびオンラインのトリミングで削除できる

以前は、PG ログ重複エントリーのトリミングは、人間のオペレーターよりもはるかに高い頻度で PG オートスケーラーによって使用される低レベルの PG 分割操作中に阻止されていました。重複を取り除くと、PG ログのメモリー増大が大幅に増大し、OSD がメモリーが不足するとクラッシュしていました。OSD を再起動しても、PG ログはディスクに保存され、起動時に RAM に再ロードされるため、問題は解決しませんでした。

この修正により、オフライン (ceph-objectstore-tool コマンドを使用) とオンライン (OSD 内) の両方のトリミングで、オンラインのトリミング装置を妨害してメモリー増加の原因となっていた PG ログの破損した重複エントリーを削除できるようになりました。将来の調査に役立つように、重複エントリーの数を OSD のログに出力するデバッグの改善が実装されています。

(BZ#2093031)

6.9. RBD ミラーニング

すべてのイメージの last_copied_object_number 値が適切に更新される

以前は、実装上の欠陥により、last_copied_object_number の値が、完全に割り当てられたイメージに対してのみ適切に更新されていました。これにより、last_copied_object_number の値がスパースイメージに対して正しくなくなり、rbd-mirror デーモンが突然再起動した場合にイメージレプリケーションの進行状況が失われました。

今回の修正により、すべてのイメージの last_copied_object_number 値が適切に更新され、rbd-mirror デーモンの再起動時に、イメージのレプリケーションが以前に停止した場所から再開されます。

(BZ#2019909)

イメージがプライマリーにプロモートされると、既存のスケジュールが有効になる

以前は、最適化が適切に考慮されていなかったため、イメージがプライマリーにプロモートされた後、既存のスケジュールが有効にならず、最近プロモートされたイメージに対してスナップショットベースのミラーリングプロセスが開始されませんでした。

このリリースでは、この問題の原因となっている最適化が削除され、イメージがプライマリーにプロモートされ、スナップショットベースのミラーリングプロセスが期待どおりに開始されたときに既存のスケジュールが有効になります。

(BZ#2020618)

スナップショットベースのミラーリングプロセスがキャンセルされなくなる

以前は、内部の競合状態の結果として、rbd mirror snapshot schedule add コマンドがキャンセルされていました。他の既存のスケジュールが適用できない場合、影響を受けるイメージのスナップショットベースのミラーリングプロセスは開始されません。

このリリースでは、競合状態が修正され、スナップショットベースのミラーリングプロセスが期待どおりに開始されます。

(BZ#2069720)

リモートイメージがプライマリーでない場合、再生または再同期は試行されなくなる

以前は、実装上の欠陥により、リモートイメージがプライマリーでなくても、つまり、再生または再同期する場所がない場合でも、再生または再同期が試行されていました。これにより、スナップショットベースのミラーリングでライブロックが発生し、ローカルピアをリモートイメージからリンク解除できませんでしたというエラーが継続的に報告されました。

今回の修正により、実装上の問題が修正され、リモートイメージがプライマリーイメージでない場合は再生または再同期が試行されなくなり、エラーが報告されなくなりました。

(BZ#2081715)

セカンダリークラスターの rbd-mirror デーモンによって使用されているミラースナップショットが削除されない

以前は、内部競合状態の結果として、セカンダリークラスターで rbd-mirror デーモンによって使用されていたミラースナップショットが削除され、影響を受けるイメージのスナップショットベースのミラーリングプロセスが停止し、split-brain エラーが報告されていました。

今回の修正により、ミラースナップショットキューの長さが拡張され、それに応じてミラースナップショットのクリーンアップ手順が修正されました。セカンダリークラスターの rbd-mirror デーモンによって使用されているミラースナップショットは削除されなくなり、スナップショットベースのミラーリングプロセスは停止しなくなりました。

(BZ#2092838)

schedule_request_lock() 中に所有者がロックされている場合、ロジックによって RBD ミラーがクラッシュしなくなる

以前は、すでにロックされている所有者の schedule_request_lock() 中に、ブロックデバイスミラーがクラッシュし、イメージの同期が停止していました。

今回の修正により、所有者がすでにロックされている場合、schedule_request_lock() は正常に中止され、ブロックデバイスのミラーリングがクラッシュしなくなりました。

(BZ#2102227)

イメージの複製が、incomplete local non-primary snapshot エラーで停止しなくなる

以前は、実装上の欠陥により、突然の rbd-mirror デーモンの再起動時に、イメージのレプリケーションが incomplete local non-primary snapshot エラーで停止していました。

今回の修正により、イメージレプリケーションが incomplete local non-primary snapshot エラーで停止することがなくなり、期待どおりに機能するようになりました。

(BZ#2105454)

6.10. Ceph Ansible ユーティリティー

cephadm への移行時に autotune_memory_target_ratio に正しい値が設定される

以前は、cephadm に移行するときに、デプロイの種類 (HCI または non_HCI) に応じて autotune_memory_target_ratio に適切な値が設定されませんでした。このため、比率は設定されておらず、2 つのデプロイメントに違いはありません。

今回の修正により、cephadm-adopt playbook はデプロイメントの種類に応じて適切な比率を設定し、autotune_memory_target_ratio パラメーターに適切な値が設定されます。

(BZ#2028693)

第7章 既知の問題

本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。

7.1. Cephadm ユーティリティー

クラッシュデーモンがクラッシュレポートをストレージクラスターに送信できないことがある

クラッシュデーモン設定の問題により、クラッシュデーモンからクラスターにクラッシュレポートを送信できない場合があります。

(BZ#2062989)

Red Hat Ceph Storage 5.2 へのアップグレード中にユーザーに警告が表示される

以前は、Red Hat Ceph Storage 5 でリシャーディングされたバケットは、Red Hat Ceph Storage 5.2 Ceph Object Gateway デーモンでは理解できない可能性がありました。そのため、Red Hat Ceph Storage 5.2 にアップグレードするすべてのユーザーがこの問題を認識し、以前にオブジェクトストレージで Red Hat Ceph Storage 5.1 を使用していた場合はダウングレードできるように、アップグレード警告/ブロッカーが追加されました。

回避策として、オブジェクトストレージを使用していないユーザー、または 5.1 以外のバージョンからアップグレードしているユーザーは、ceph config set mgr mgr/cephadm/no_five_one_rgw --force を実行して、警告/ブロッカーを削除し、すべての操作を通常に戻すことができます。この設定オプションを設定することにより、ユーザーは Red Hat Ceph Storage 5.2 にアップグレードする前に、Ceph Object Gateway に問題があることを認識したとになります。

(BZ#2104780)

NFS デーモンが存在する仮想 IP の HA-backed I/O 操作は、フェイルオーバー時に維持されず、HAProxy の設定は NFS デーモンで更新されない

NFS デーモンをオフラインホストからオンラインホストにフェイルオーバーするときに、HAProxy 設定が更新されません。その結果、HA でバックアップされた I/O 操作は、NFS デーモンが存在する仮想 IP に向けられ、フェイルオーバー全体で維持されません。

(BZ#2106849)

7.2. Ceph Dashboard

Ceph Dashboard からの SSL を使用した Ingress サービスの作成が機能しない

Ceph Dashboard からの SSL を使用した Ingress サービスの作成は機能しません。これは、必須フィールドではなくなった Private key フィールドに、ユーザーがデータを入力することをフォームが期待していることが原因となっています。

この問題を回避するには、Ceph オーケストレーター CLI を使用して Ingress サービスを正常に作成します。

(BZ#2080276)

SSD および NVMe デバイスを含むクラスターには、"Throughput-optimized" オプションが推奨される

以前は、クラスターに SSD デバイスのみ、または SSD と NVMe デバイスの両方がある場合は常に、throughput-optimized オプションが推奨されていました。

回避策として、ユーザーは希望する仕様に従って OSD をデプロイメントするために詳細モードを使用できます。この UI の問題を除いて、シンプルモードのすべてのオプションは引き続き使用できます。

(BZ#2101680)

7.3. Ceph ファイルシステム

getpath コマンドが原因で自動化が失敗する

getpath コマンドによって返されるディレクトリー名が、スナップショットが作成されるディレクトリーであると仮定すると、自動化の失敗と混乱が生じます。

回避策として、1 つ上のレベルのディレクトリーパスを使用して、snap-schedule add コマンドに追加することを推奨します。スナップショットは、getpath コマンドによって返されるレベルよりも 1 つ上のレベルで使用できます。

(BZ#2053706)

7.4. Ceph Object Gateway

Ceph Object Gateway 設定での Red Hat Ceph Storage 5.1 から Red Hat Ceph Storage 5.2 へのアップグレードはサポートされない

Ceph Object Gateway (RGW) クラスター (シングルサイトまたはマルチサイト) 上の Red Hat Ceph Storage 5.1 から Red Hat Ceph Storage 5.2 へのアップグレードは、既知の問題 (BZ#2100602) によりサポートされていません。

詳細は、Support Restrictions for upgrades for RGW を参照してください。

警告

Red Hat Ceph Storage 5.1 および Ceph Object Gateway (シングルサイトまたはマルチサイト) で実行されている Red Hat Ceph Storage クラスターを Red Hat Ceph Storage 5.2 リリースにアップグレードしないでください。

第8章 ソース

更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。

法律上の通知

Copyright © 2023 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.