検索

リリースノート

download PDF
Red Hat Ceph Storage 4.3

Red Hat Ceph Storage 4.3 のリリースノート

Red Hat Ceph Storage Documentation Team

概要

本リリースノートでは、Red Hat Ceph Storage 4.3 製品リリース向けに実装された主要な機能、機能拡張、既知の問題、バグ修正を説明します。本リリースノートには、現在のリリースより前の Red Hat Ceph Storage 4.2 リリースのリリースノートが含まれます。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、弊社の CTO、Chris Wright のメッセージ を参照してください。

第1章 はじめに

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。

Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/en/red-hat-ceph-storage/ から入手できます。

第2章 謝辞

Red Hat Ceph Storage バージョン 4.3 には、Red Hat Ceph Storage チームの数多くの貢献が反映されています。さらに Ceph プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

第3章 新機能

本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。

3.1. Ceph Ansible ユーティリティー

ダッシュボードとモニタリングスタックのみをパージできるようになりました。

以前のバージョンでは、Alertmanager、Prometheus、Grafana、node-exporter などの Ceph Manager Dashboard and Monitoring スタックコンポーネントだけを個別にパージすることはできませんでした。

`purge-dashboard.yml ` Playbook を使用すると、ユーザーはダッシュボードとモニタリングスタックコンポーネントのみを削除できます。

osd_auto_discovery: true を使用してストレージクラスターをパージし、Ceph OSD を削除するようになりました。

以前のバージョンでは、osd_auto_discovery: true でデプロイされたストレージクラスターをパージしても、Ceph OSD がパージされませんでした。今回のリリースにより、purge Playbook は予想通りに機能し、osd_auto_discovery: true のシナリオでストレージクラスターがデプロイされると Ceph OSD を削除するようになりました。

Alertmanager 設定はカスタマイズ可能

今回のリリースにより、/group_vars/all.yml ファイルの alertmanager_conf_overrides パラメーターを使用して Alertmanager 設定をカスタマイズできます。

Red Hat Ceph Storage Dashboard デプロイメントは専用のネットワークでサポートされます。

以前のリリースでは、ceph-ansible には、ダッシュボードのデプロイに使用するアドレスが public_network と同じサブネット上にありました。

今回のリリースにより、/group_vars/all.yml ファイルの dashboard_network パラメーターを CIDR サブネットアドレスで設定することで、ダッシュボードのデフォルトの専用サブネットを上書きすることができるようになりました。

設定ファイルでのグローバル NFS オプションを設定することがサポートされます。

以前のリリースでは、ceph-ansible は設定ファイルのパラメーターを上書きすることができませんでした。

今回のリリースで、ganesha.conf ファイルの NFS_CORE_PARAM ブロックセクションのパラメーターを上書きするには、group_vars/all.yml に ganesha_core_param_overrides 変数を設定し、クライアント関連の設定を更新できるようになりました。

ceph-ansible は、アップグレードを開始する前に Ceph Monitor クォーラムを確認する

以前のバージョンでは、Ceph モニターの 1 つがダウンしてストレージクラスターが HEALTH ERR または HEALTH WARN 状態になると、rolling_upgrade.yml Playbook が実行されていました。ただし、アップグレードに失敗し、クォーラム (定足数) が失われ、I/O が停止するか、またはクラスターに失敗していました。

今回のリリースでは、アップグレードを開始する前に ceph-ansible が Ceph Monitor クォーラムをチェックする追加の条件が発生するようになりました。

コンテナー化されたデプロイメントの systemd ターゲットユニットがサポートされるようになりました。

以前のリリースでは、コンテナー化されたデプロイメントにあるノード上のすべての Ceph デーモンを停止する方法はありませんでした。

今回のリリースにより、コンテナー化されたデプロイメントの systemd ターゲットユニットがサポートされ、ベアメタルデプロイメントと同様に、ホストまたは特定の Ceph デーモン上の Ceph デーモンをすべて停止できるようになりました。

ceph-ansible が Playbook を実行する前に、アップグレード中に関連するリリースバージョンをチェックするようになりました。

今回のリリースにより、ストレージクラスターのアップグレード中に、ceph-ansible は最初に関連するリリースバージョンをチェックし、Ceph バージョンが正しくない場合に Playbook が失敗し、エラーメッセージが表示されなくなりました。

3.2. Ceph Management Dashboard

Ceph Object Gateway のマルチサイト設定のグラフを表示する新しい Grafana Dashboard

このリリースでは、新しい Grafana ダッシュボードが利用可能になり、Ceph Object Gateway マルチサイト同期パフォーマンスのグラフ (双方向レプリケーションのスループット、ポーリングレイテンシー、レプリケーションの失敗など) が表示されるようになりました。

詳細は、Red Hat Ceph Storage Dashboard GuideMonitoring Ceph object gateway daemons on the dashboard セクションを参照してください。

3.3. Ceph ファイルシステム

max_concurrent_clones オプションを使用してクローンスレッドの数を設定します。

以前のバージョンでは、同時クローンの数は設定できず、デフォルトは 4 でした。

今回のリリースにより、マネージャー設定オプションを使用して同時クローンの最大数を設定できるようになりました。

Syntax

ceph config set mgr mgr/volumes/max_concurrent_clones VALUE

同時クローンの最大数を増やすと、ストレージクラスターのパフォーマンスが向上します。

3.4. Ceph Object Gateway

ロール名とロールセッション情報が S3 操作の ops ログに表示されます。

今回のリリースにより、デバッグおよび監査目的で AssumeRole* 操作によって返される一時的な認証情報を使用するすべての S3 操作についてのロール名やロールセッションなどの情報を取得できるようになりました。

3.5. マルチサイトの Ceph Object Gateway

データ同期ロギングの処理が遅延する

以前のバージョンでは、データ同期ロギングはログエントリーの大規模なバックログを処理する際に遅延する可能性がありました。

今回のリリースにより、データ同期にバケット同期ステータスのキャッシュが含まれるようになりました。キャッシュを追加すると、バックログが存在する場合に重複するデータログエントリーの処理が高速になります。

第4章 テクノロジープレビュー

本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。

重要

テクノロジープレビュー機能は、Red Hat の実稼働環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、以下のリンクを参照してください。

4.1. ブロックデバイス (RBD)

RBD イメージの NBD イメージへのマッピング

rbd-nbd ユーティリティーは、RADOS ブロックデバイス (RBD) イメージを Network ブロックデバイス (NBD) にマップし、Ceph クライアントが Kubernetes 環境内のボリュームおよびイメージにアクセスできるようにします。rbd-nbd を使用するには、rbd-nbd パッケージをインストールします。詳細は、rbd-nbd(7) のマニュアルページを参照してください。

4.2. Object Gateway

Object Gateway アーカイブサイト

このリリースでは、アーカイブサイトがテクノロジープレビューとしてサポートされるようになりました。アーカイブサイトには、アーカイブゾーンに関連付けられたゲートウェイからのみ除外できる S3 オブジェクトのバージョン履歴があります。マルチゾーン設定にアーカイブゾーンを含めると、バージョン S3 オブジェクトのレプリカが残りのゾーン内で消費するスペースを節約しながら、1 つのゾーンでのみ S3 オブジェクト履歴の柔軟性を得ることができます。

第5章 非推奨になった機能

本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。

Ubuntu がサポート対象外

Ubuntu への Red Hat Ceph Storage 4 クラスターのインストールはサポートされなくなりました。Red Hat Enterprise Linux を基礎となるオペレーティングシステムとして使用します。

ceph-ansible を使用した iSCSI ゲートウェイの設定はサポート対象外

ceph-ansible ユーティリティーを使用した Ceph iSCSI ゲートウェイの設定はサポートされなくなりました。ceph-ansible を使用してゲートウェイをインストールし、続いて gwcli ユーティリティーを使用して Ceph iSCSI ゲートウェイを設定します。詳細は、Red Hat Ceph Storage ブロックデバイスガイドCeph iSCSI ゲートウェイ の章を参照してください。

ceph-disk が非推奨に

ceph-disk ユーティリティーはサポートされなくなりました。代わりに ceph-volume ユーティリティーが使用されます。Red Hat Ceph Storage 4 の 管理ガイドに含まれる ceph-volume が ceph-disk に置き換えられた理由 セクションを参照してください。

FileStore は実稼働環境でサポートされなくなる

FileStore OSD バックエンドは、新規 BlueStore バックエンドが実稼働環境で完全にサポートされるため、非推奨になりました。Red Hat Ceph Storage インストールガイドオブジェクトストアを FileStore から BlueStore に移行する方法 セクションを参照してください。

Ceph 設定ファイルが非推奨に

Ceph 設定ファイル (ceph.conf) が非推奨になり、Ceph Monitor に保管された新たな集中設定が提供されるようになりました。詳細は、Red Hat Ceph Storage 設定ガイドCeph 設定データベース セクションを参照してください。

第6章 バグ修正

本セクションでは、今回リリースされた Red Hat Ceph Storage で修正されたユーザーに大きな影響を及ぼすバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。

6.1. Ceph Ansible ユーティリティー

Alertmanager は、自己署名または信頼できない証明書が使用される場合にエラーをログに記録しません。

以前のバージョンでは、信頼できない CA 証明書を使用する場合、Alertmanager はログに多くのエラーを生成していました。

今回のリリースで、ceph-ansible は、自己署名または信頼できない証明書を使用する場合に group_vars/all.yml ファイルに alertmanager_dashboard_api_no_ssl_verify: true を設定して、alertmanager.yml ファイルで insecure_skip_verify パラメーターを true に設定することができ、Alertmanager はこれらのエラーをログに記録せず、予想通りに機能するようになりました。

(BZ#1936299)

マルチサイト設定で HTTPS が有効になっている場合は、完全修飾ドメイン名 (FQDN) を使用します。

以前のリリースでは、マルチサイトの Ceph 設定では、ceph-ansible は HTTP と HTTPS を区別せず、HTTPS が有効な場合にホスト名ではなく IP アドレスでゾーンエンドポイントを設定していました。

今回のリリースで、ceph-ansible は、HTTPS が有効で、ゾーンエンドポイントが FQDN で設定され、TLS 証明書 CN と一致する場合に、IP アドレスではなく完全修飾ドメイン名 (FQDN) を使用するようになりました。

(BZ#1965504)

--pid-limits パラメーターを、podman の場合は -1、systemd ファイルの docker の場合は 0 にして追加し、コンテナーを起動します。

以前のバージョンでは、コンテナー内で実行できるプロセスの数が、podman では 2048、docker では 4096 となっていましたが、これらの制限値よりも多くのプロセスを起動する必要がある一部のコンテナーを起動するには十分ではありませんでした。

今回のリリースで、--pid-limits パラメーターを、podman の場合は -1、systemd ユニットファイルの docker の場合は 0 にして追加することで、開始可能な最大プロセスの上限を削除できるようになりました。その結果、デフォルトの制限よりも多くのプロセスを実行する必要があるかもしれない内部プロセスをカスタマイズしても、コンテナーは起動します。

(BZ#1987041)

ceph-ansible は、プロキシーの背後にある専用のタスクでモニタリングするコンテナーイメージをプルします。

以前のバージョンでは、ceph-ansible は Alertmanager、Prometheus、node-exporter、Grafana などのモニタリングコンテナーイメージを専用のタスクにプルせず、systemd サービスの起動時にイメージをプルしました。

今回のリリースで、ceph-ansible はプロキシーの背後でモニタリングするコンテナーのイメージのプルをサポートするようになりました。

(BZ#1995574)

ceph-ansible Playbook は radosgw システムユーザーを作成し、予想通りに機能します。

以前のリリースでは、ceph-ansible Playbook は radosgw システムユーザーの作成に失敗し、マルチサイトデプロイメントの host_vars または group_vars レベルで rgw_instances が設定されている場合に Dashboard のデプロイに失敗しました。この変数は Ceph Monitor ノードで設定されず、タスクを委譲すると失敗します。

今回のリリースで、ceph-ansible は定義されているすべての Ceph Object Gateway インスタンスを確認し、少なくとも 1 つのインスタンスで rgw_zonemaster が True に設定されているかどうかを確認するブール値のファクトを設定できるようになりました。radosgw システムユーザーが作成され、Playbook が期待どおりに機能します。

(BZ#2034595)

--limit オプションを使用しても Ansible Playbook が失敗しなくなりました。

以前は、--limit オプションを使用して Ansible Playbook を実行すると dashboard_server_addr パラメーターが設定されず、コロケーションされていないシナリオでプレイターゲットが Ceph Manager ホストと一致しない場合、Playbook が失敗していました。

このリリースでは、Ceph Manager ノードで dumpboard_server_addr パラメーターを設定する必要があり、Playbook は期待どおりに機能します。

(BZ#2063029)

6.2. Ceph Management Dashboard

Client Connection パネルが Grafana ダッシュボードで MGRs に置き換えられます。

以前のバージョンでは、"Client Connection" パネルに Ceph File System 情報が表示され、意味がありませんでした。

今回のリリースにより、MGRs が Client Connection パネルを置き換え、アクティブな Ceph Manager とスタンバイ Ceph Manager の数を表示するようになりました。

(BZ#1992178)

Red Hat Ceph Storage Dashboard にディスク IOPS の値が表示されます。

以前のリリースでは、Red Hat Ceph Storage Dashboard は Hosts タブで Ceph OSD ディスクのパフォーマンスを表示しませんでした。

今回のリリースにより、Red Hat Ceph Storage Dashboard に Ceph OSD、ホストの詳細、および Grafana グラフに関する予想される情報が表示されるようになりました。

(BZ#1992246)

6.3. Ceph Volume ユーティリティー

新規 OSD の作成時に add-osd.yml Playbook が失敗しなくなりました。

以前のリリースでは、ceph-ansible を使用して新規 OSD が追加されると、Playbook の add-osd.yml が失敗しました。これは、非対話モードで新しい OSD を追加できない ceph-volume lvm batch 制限が原因でした。

今回のリリースにより、--yes および --report オプションはコマンドラインインターフェイスに渡されず、新しい OSD の作成時に add-osd.yml Playbook が予想通りに機能するようになりました。

(BZ#1896803)

6.4. Ceph Object Gateway

rgw_bucket_quota_soft_threshold パラメーターが無効になっている

以前のバージョンでは、キャッシュされた使用率が rgw_bucket_quota_soft_threshold に達した場合に、Ceph Object Gateway はバケットインデックスから使用状況情報を取得し、バケットインデックスで操作が多くなり、要求が遅くなりました。

本リリースでは rgw_bucket_quota_soft_threshold パラメーターが削除され、キャッシュされた統計が使用されるため、クォータ制限がほぼ到達してもパフォーマンスが向上します。

(BZ#1965314)

マーカーのトリミング中に radosgw-admin datalog trim コマンドがクラッシュしない

以前のバージョンでは、radosgw-admin から現世代のマーカーをトリミングする際に、論理エラーにより radosgw-admin datalog trim コマンドがクラッシュしていました。

本リリースでは、radosgw-admin datalog trim コマンドがクラッシュしなくても、ロジックエラーおよびログのトリムが修正されました。

(BZ#1981860)

6.5. Ceph Manager プラグイン

クラスターの正常性変更が永続ストレージにコミットされなくなりました。

以前のバージョンでは、ストレージクラスターの正常性への迅速な変更により、ceph.audit.log への過剰なロギングが生じました。

今回のリリースにより、health_historyceph.audit.log に記録されず、クラスターのヘルス変更が永続ストレージにコミットされなくなりました。

(BZ#2004738)

第7章 既知の問題

本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。

7.1. Ceph Management Dashboard

ディスク AVG 使用率パネルで、Red Hat Ceph Storage Dashboard に N/A が表示されます。

Red Hat Ceph Storage Dashboard は、Overall host performance AVG disk utilization パネルに N/A という値が表示され、Grafana クエリーが正しく表示されませんでした。

7.2. Ceph Object Gateway

特定のバケットのライフサイクル処理が “PROCESSING” 状態でスタックします。

特定のバケットのライフサイクル処理の進行中に Ceph Object Gateway サーバーが予期せず再起動した場合、そのバケットは少なくとも 2 つのスケジューリングサイクルの間、ライフサイクル作業の処理を再開せず、“PROCESSING” 状態でスタックします。これは正常な動作で、特に実稼働環境でデバッグが進行中の場合に、複数の Ceph Object ゲートウェイインスタンスまたはスレッドが同じバケットを同時に処理するのを避けることを目的としています。今後のリリースでは、デバッグが有効になっていない場合、翌日にライフサイクル処理が再開します。

(BZ#2072681)

7.3. Ceph Ansible ユーティリティー

Ceph コンテナーが起動中に失敗します。

Red Hat Enterprise Linux-8.7 (またはそれ以降) への Red Hat Ceph Storage-4.3.z1 の新規デプロイメント、または Red Hat Enterprise Linux-8.7 (またはそれ以降) のホスト OS を使用した Red Hat Ceph Storage-4.3.z1 から 5.X へのアップグレードは、TASK [ceph-mgr : wait for all mgr to be up] で失敗します。Red Hat Enterprise Linux 8.7 でリリースされた podman は、SELinux のラベル再設定に関する動作が変更されました。このため、起動順序によっては、一部の Ceph コンテナーが必要なファイルにアクセスできず、起動に失敗することがありました。

回避策については、ナレッジベースの RHCS 4.3 installation fails while executing the command `ceph mgr dump` を参照してください。

(BZ#2235299)

第8章 ソース

更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。

法律上の通知

Copyright © 2023 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.