リリースノート
Red Hat Ceph Storage 4.3 のリリースノート
概要
第1章 はじめに リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。
Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/en/red-hat-ceph-storage/ から入手できます。
第2章 謝辞 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage バージョン 4.3 には、Red Hat Ceph Storage チームの数多くの貢献が反映されています。さらに Ceph プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。
- Intel®
- Fujitsu ®
- UnitedStack
- Yahoo ™
- Ubuntu Kylin
- Mellanox ®
- CERN ™
- Deutsche Telekom
- Mirantis ®
- SanDisk ™
- SUSE
第3章 新機能 リンクのコピーリンクがクリップボードにコピーされました!
本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
3.1. Ceph Ansible ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
ダッシュボードとモニタリングスタックのみをパージできるようになりました。
以前のバージョンでは、Alertmanager、Prometheus、Grafana、node-exporter などの Ceph Manager Dashboard and Monitoring スタックコンポーネントだけを個別にパージすることはできませんでした。
`purge-dashboard.yml ` Playbook を使用すると、ユーザーはダッシュボードとモニタリングスタックコンポーネントのみを削除できます。
osd_auto_discovery: true を使用してストレージクラスターをパージし、Ceph OSD を削除するようになりました。
以前のバージョンでは、osd_auto_discovery: true でデプロイされたストレージクラスターをパージしても、Ceph OSD がパージされませんでした。今回のリリースにより、purge Playbook は予想通りに機能し、osd_auto_discovery: true のシナリオでストレージクラスターがデプロイされると Ceph OSD を削除するようになりました。
Alertmanager 設定はカスタマイズ可能
今回のリリースにより、/group_vars/all.yml ファイルの alertmanager_conf_overrides パラメーターを使用して Alertmanager 設定をカスタマイズできます。
Red Hat Ceph Storage Dashboard デプロイメントは専用のネットワークでサポートされます。
以前のリリースでは、ceph-ansible には、ダッシュボードのデプロイに使用するアドレスが public_network と同じサブネット上にありました。
今回のリリースにより、/group_vars/all.yml ファイルの dashboard_network パラメーターを CIDR サブネットアドレスで設定することで、ダッシュボードのデフォルトの専用サブネットを上書きすることができるようになりました。
設定ファイルでのグローバル NFS オプションを設定することがサポートされます。
以前のリリースでは、ceph-ansible は設定ファイルのパラメーターを上書きすることができませんでした。
今回のリリースで、ganesha.conf ファイルの NFS_CORE_PARAM ブロックセクションのパラメーターを上書きするには、group_vars/all.yml に ganesha_core_param_overrides 変数を設定し、クライアント関連の設定を更新できるようになりました。
ceph-ansible は、アップグレードを開始する前に Ceph Monitor クォーラムを確認する
以前のバージョンでは、Ceph モニターの 1 つがダウンしてストレージクラスターが HEALTH ERR または HEALTH WARN 状態になると、rolling_upgrade.yml Playbook が実行されていました。ただし、アップグレードに失敗し、クォーラム (定足数) が失われ、I/O が停止するか、またはクラスターに失敗していました。
今回のリリースでは、アップグレードを開始する前に ceph-ansible が Ceph Monitor クォーラムをチェックする追加の条件が発生するようになりました。
コンテナー化されたデプロイメントの systemd ターゲットユニットがサポートされるようになりました。
以前のリリースでは、コンテナー化されたデプロイメントにあるノード上のすべての Ceph デーモンを停止する方法はありませんでした。
今回のリリースにより、コンテナー化されたデプロイメントの systemd ターゲットユニットがサポートされ、ベアメタルデプロイメントと同様に、ホストまたは特定の Ceph デーモン上の Ceph デーモンをすべて停止できるようになりました。
ceph-ansible が Playbook を実行する前に、アップグレード中に関連するリリースバージョンをチェックするようになりました。
今回のリリースにより、ストレージクラスターのアップグレード中に、ceph-ansible は最初に関連するリリースバージョンをチェックし、Ceph バージョンが正しくない場合に Playbook が失敗し、エラーメッセージが表示されなくなりました。
3.2. Ceph Management Dashboard リンクのコピーリンクがクリップボードにコピーされました!
Ceph Object Gateway のマルチサイト設定のグラフを表示する新しい Grafana Dashboard
このリリースでは、新しい Grafana ダッシュボードが利用可能になり、Ceph Object Gateway マルチサイト同期パフォーマンスのグラフ (双方向レプリケーションのスループット、ポーリングレイテンシー、レプリケーションの失敗など) が表示されるようになりました。
詳細は、Red Hat Ceph Storage Dashboard Guide の Monitoring Ceph object gateway daemons on the dashboard セクションを参照してください。
3.3. Ceph ファイルシステム リンクのコピーリンクがクリップボードにコピーされました!
max_concurrent_clones オプションを使用してクローンスレッドの数を設定します。
以前のバージョンでは、同時クローンの数は設定できず、デフォルトは 4 でした。
今回のリリースにより、マネージャー設定オプションを使用して同時クローンの最大数を設定できるようになりました。
Syntax
ceph config set mgr mgr/volumes/max_concurrent_clones VALUE
ceph config set mgr mgr/volumes/max_concurrent_clones VALUE
同時クローンの最大数を増やすと、ストレージクラスターのパフォーマンスが向上します。
3.4. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
ロール名とロールセッション情報が S3 操作の ops ログに表示されます。
今回のリリースにより、デバッグおよび監査目的で AssumeRole* 操作によって返される一時的な認証情報を使用するすべての S3 操作についてのロール名やロールセッションなどの情報を取得できるようになりました。
3.5. マルチサイトの Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
データ同期ロギングの処理が遅延する
以前のバージョンでは、データ同期ロギングはログエントリーの大規模なバックログを処理する際に遅延する可能性がありました。
今回のリリースにより、データ同期にバケット同期ステータスのキャッシュが含まれるようになりました。キャッシュを追加すると、バックログが存在する場合に重複するデータログエントリーの処理が高速になります。
第4章 テクノロジープレビュー リンクのコピーリンクがクリップボードにコピーされました!
本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。
テクノロジープレビュー機能は、Red Hat の実稼働環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。
Red Hat のテクノロジープレビュー機能のサポートについての詳細は、以下のリンクを参照してください。
4.1. ブロックデバイス (RBD) リンクのコピーリンクがクリップボードにコピーされました!
RBD イメージの NBD イメージへのマッピング
rbd-nbd ユーティリティーは、RADOS ブロックデバイス (RBD) イメージを Network ブロックデバイス (NBD) にマップし、Ceph クライアントが Kubernetes 環境内のボリュームおよびイメージにアクセスできるようにします。rbd-nbd を使用するには、rbd-nbd パッケージをインストールします。詳細は、rbd-nbd(7) のマニュアルページを参照してください。
4.2. Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
Object Gateway アーカイブサイト
このリリースでは、アーカイブサイトがテクノロジープレビューとしてサポートされるようになりました。アーカイブサイトには、アーカイブゾーンに関連付けられたゲートウェイからのみ除外できる S3 オブジェクトのバージョン履歴があります。マルチゾーン設定にアーカイブゾーンを含めると、バージョン S3 オブジェクトのレプリカが残りのゾーン内で消費するスペースを節約しながら、1 つのゾーンでのみ S3 オブジェクト履歴の柔軟性を得ることができます。
第5章 非推奨になった機能 リンクのコピーリンクがクリップボードにコピーされました!
本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。
Ubuntu がサポート対象外
Ubuntu への Red Hat Ceph Storage 4 クラスターのインストールはサポートされなくなりました。Red Hat Enterprise Linux を基礎となるオペレーティングシステムとして使用します。
ceph-ansible を使用した iSCSI ゲートウェイの設定はサポート対象外
ceph-ansible ユーティリティーを使用した Ceph iSCSI ゲートウェイの設定はサポートされなくなりました。ceph-ansible を使用してゲートウェイをインストールし、続いて gwcli ユーティリティーを使用して Ceph iSCSI ゲートウェイを設定します。詳細は、Red Hat Ceph Storage ブロックデバイスガイドの Ceph iSCSI ゲートウェイ の章を参照してください。
ceph-disk が非推奨に
ceph-disk ユーティリティーはサポートされなくなりました。代わりに ceph-volume ユーティリティーが使用されます。Red Hat Ceph Storage 4 の 管理ガイドに含まれる ceph-volume が ceph-disk に置き換えられた理由 セクションを参照してください。
FileStore は実稼働環境でサポートされなくなる
FileStore OSD バックエンドは、新規 BlueStore バックエンドが実稼働環境で完全にサポートされるため、非推奨になりました。Red Hat Ceph Storage インストールガイドの オブジェクトストアを FileStore から BlueStore に移行する方法 セクションを参照してください。
Ceph 設定ファイルが非推奨に
Ceph 設定ファイル (ceph.conf) が非推奨になり、Ceph Monitor に保管された新たな集中設定が提供されるようになりました。詳細は、Red Hat Ceph Storage 設定ガイドの Ceph 設定データベース セクションを参照してください。
第6章 バグ修正 リンクのコピーリンクがクリップボードにコピーされました!
本セクションでは、今回リリースされた Red Hat Ceph Storage で修正されたユーザーに大きな影響を及ぼすバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。
6.1. Ceph Ansible ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
Alertmanager は、自己署名または信頼できない証明書が使用される場合にエラーをログに記録しません。
以前のバージョンでは、信頼できない CA 証明書を使用する場合、Alertmanager はログに多くのエラーを生成していました。
今回のリリースで、ceph-ansible は、自己署名または信頼できない証明書を使用する場合に group_vars/all.yml ファイルに alertmanager_dashboard_api_no_ssl_verify: true を設定して、alertmanager.yml ファイルで insecure_skip_verify パラメーターを true に設定することができ、Alertmanager はこれらのエラーをログに記録せず、予想通りに機能するようになりました。
マルチサイト設定で HTTPS が有効になっている場合は、完全修飾ドメイン名 (FQDN) を使用します。
以前のリリースでは、マルチサイトの Ceph 設定では、ceph-ansible は HTTP と HTTPS を区別せず、HTTPS が有効な場合にホスト名ではなく IP アドレスでゾーンエンドポイントを設定していました。
今回のリリースで、ceph-ansible は、HTTPS が有効で、ゾーンエンドポイントが FQDN で設定され、TLS 証明書 CN と一致する場合に、IP アドレスではなく完全修飾ドメイン名 (FQDN) を使用するようになりました。
--pid-limits パラメーターを、podman の場合は -1、systemd ファイルの docker の場合は 0 にして追加し、コンテナーを起動します。
以前のバージョンでは、コンテナー内で実行できるプロセスの数が、podman では 2048、docker では 4096 となっていましたが、これらの制限値よりも多くのプロセスを起動する必要がある一部のコンテナーを起動するには十分ではありませんでした。
今回のリリースで、--pid-limits パラメーターを、podman の場合は -1、systemd ユニットファイルの docker の場合は 0 にして追加することで、開始可能な最大プロセスの上限を削除できるようになりました。その結果、デフォルトの制限よりも多くのプロセスを実行する必要があるかもしれない内部プロセスをカスタマイズしても、コンテナーは起動します。
ceph-ansible は、プロキシーの背後にある専用のタスクでモニタリングするコンテナーイメージをプルします。
以前のバージョンでは、ceph-ansible は Alertmanager、Prometheus、node-exporter、Grafana などのモニタリングコンテナーイメージを専用のタスクにプルせず、systemd サービスの起動時にイメージをプルしました。
今回のリリースで、ceph-ansible はプロキシーの背後でモニタリングするコンテナーのイメージのプルをサポートするようになりました。
ceph-ansible Playbook は radosgw システムユーザーを作成し、予想通りに機能します。
以前のリリースでは、ceph-ansible Playbook は radosgw システムユーザーの作成に失敗し、マルチサイトデプロイメントの host_vars または group_vars レベルで rgw_instances が設定されている場合に Dashboard のデプロイに失敗しました。この変数は Ceph Monitor ノードで設定されず、タスクを委譲すると失敗します。
今回のリリースで、ceph-ansible は定義されているすべての Ceph Object Gateway インスタンスを確認し、少なくとも 1 つのインスタンスで rgw_zonemaster が True に設定されているかどうかを確認するブール値のファクトを設定できるようになりました。radosgw システムユーザーが作成され、Playbook が期待どおりに機能します。
--limit オプションを使用しても Ansible Playbook が失敗しなくなりました。
以前は、--limit オプションを使用して Ansible Playbook を実行すると dashboard_server_addr パラメーターが設定されず、コロケーションされていないシナリオでプレイターゲットが Ceph Manager ホストと一致しない場合、Playbook が失敗していました。
このリリースでは、Ceph Manager ノードで dumpboard_server_addr パラメーターを設定する必要があり、Playbook は期待どおりに機能します。
6.2. Ceph Management Dashboard リンクのコピーリンクがクリップボードにコピーされました!
Client Connection パネルが Grafana ダッシュボードで MGRs に置き換えられます。
以前のバージョンでは、"Client Connection" パネルに Ceph File System 情報が表示され、意味がありませんでした。
今回のリリースにより、MGRs が Client Connection パネルを置き換え、アクティブな Ceph Manager とスタンバイ Ceph Manager の数を表示するようになりました。
(BZ#1992178)
Red Hat Ceph Storage Dashboard にディスク IOPS の値が表示されます。
以前のリリースでは、Red Hat Ceph Storage Dashboard は Hosts タブで Ceph OSD ディスクのパフォーマンスを表示しませんでした。
今回のリリースにより、Red Hat Ceph Storage Dashboard に Ceph OSD、ホストの詳細、および Grafana グラフに関する予想される情報が表示されるようになりました。
(BZ#1992246)
6.3. Ceph Volume ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
新規 OSD の作成時に add-osd.yml Playbook が失敗しなくなりました。
以前のリリースでは、ceph-ansible を使用して新規 OSD が追加されると、Playbook の add-osd.yml が失敗しました。これは、非対話モードで新しい OSD を追加できない ceph-volume lvm batch 制限が原因でした。
今回のリリースにより、--yes および --report オプションはコマンドラインインターフェイスに渡されず、新しい OSD の作成時に add-osd.yml Playbook が予想通りに機能するようになりました。
6.4. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
rgw_bucket_quota_soft_threshold パラメーターが無効になっている
以前のバージョンでは、キャッシュされた使用率が rgw_bucket_quota_soft_threshold に達した場合に、Ceph Object Gateway はバケットインデックスから使用状況情報を取得し、バケットインデックスで操作が多くなり、要求が遅くなりました。
本リリースでは rgw_bucket_quota_soft_threshold パラメーターが削除され、キャッシュされた統計が使用されるため、クォータ制限がほぼ到達してもパフォーマンスが向上します。
(BZ#1965314)
マーカーのトリミング中に radosgw-admin datalog trim コマンドがクラッシュしない
以前のバージョンでは、radosgw-admin から現世代のマーカーをトリミングする際に、論理エラーにより radosgw-admin datalog trim コマンドがクラッシュしていました。
本リリースでは、radosgw-admin datalog trim コマンドがクラッシュしなくても、ロジックエラーおよびログのトリムが修正されました。
6.5. Ceph Manager プラグイン リンクのコピーリンクがクリップボードにコピーされました!
クラスターの正常性変更が永続ストレージにコミットされなくなりました。
以前のバージョンでは、ストレージクラスターの正常性への迅速な変更により、ceph.audit.log への過剰なロギングが生じました。
今回のリリースにより、health_history は ceph.audit.log に記録されず、クラスターのヘルス変更が永続ストレージにコミットされなくなりました。
(BZ#2004738)
第7章 既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。
7.1. Ceph Management Dashboard リンクのコピーリンクがクリップボードにコピーされました!
ディスク AVG 使用率パネルで、Red Hat Ceph Storage Dashboard に N/A が表示されます。
Red Hat Ceph Storage Dashboard は、Overall host performance AVG disk utilization パネルに N/A という値が表示され、Grafana クエリーが正しく表示されませんでした。
7.2. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
特定のバケットのライフサイクル処理が “PROCESSING” 状態でスタックします。
特定のバケットのライフサイクル処理の進行中に Ceph Object Gateway サーバーが予期せず再起動した場合、そのバケットは少なくとも 2 つのスケジューリングサイクルの間、ライフサイクル作業の処理を再開せず、“PROCESSING” 状態でスタックします。これは正常な動作で、特に実稼働環境でデバッグが進行中の場合に、複数の Ceph Object ゲートウェイインスタンスまたはスレッドが同じバケットを同時に処理するのを避けることを目的としています。今後のリリースでは、デバッグが有効になっていない場合、翌日にライフサイクル処理が再開します。
(BZ#2072681)
7.3. Ceph Ansible ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
Ceph コンテナーが起動中に失敗します。
Red Hat Enterprise Linux-8.7 (またはそれ以降) への Red Hat Ceph Storage-4.3.z1 の新規デプロイメント、または Red Hat Enterprise Linux-8.7 (またはそれ以降) のホスト OS を使用した Red Hat Ceph Storage-4.3.z1 から 5.X へのアップグレードは、TASK [ceph-mgr : wait for all mgr to be up] で失敗します。Red Hat Enterprise Linux 8.7 でリリースされた podman は、SELinux のラベル再設定に関する動作が変更されました。このため、起動順序によっては、一部の Ceph コンテナーが必要なファイルにアクセスできず、起動に失敗することがありました。
回避策については、ナレッジベースの RHCS 4.3 installation fails while executing the command `ceph mgr dump` を参照してください。
第8章 ソース リンクのコピーリンクがクリップボードにコピーされました!
更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。
- Red Hat Enterprise Linux 7 の場合: http://ftp.redhat.com/redhat/linux/enterprise/7Server/en/RHCEPH/SRPMS/
- Red Hat Enterprise Linux 8 の場合: http://ftp.redhat.com/redhat/linux/enterprise/8Base/en/RHCEPH/SRPMS/