リリースノート
Red Hat Ceph Storage 7.0 のリリースノート
概要
多様性を受け入れるオープンソースの強化 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、用語の置き換えは、今後の複数のリリースにわたって段階的に実施されます。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
Red Hat Ceph Storage ドキュメントへのフィードバック (英語のみ) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。これを行うには、Bugzilla のチケットを作成します。
- Bugzilla の Web サイトに移動します。
- Component ドロップダウンメニューで、Documentation を選択します。
- Sub-Component ドロップダウンで、適切なサブコンポーネントを選択します。
- ドキュメントの適切なバージョンを選択します。
- Summary および Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも記載してください。
- オプション: 添付ファイルを追加します (ある場合)。
- Submit Bug をクリックします。
第1章 はじめに リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。
Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/ja-jp/red_hat_ceph_storage/7 から入手できます。
第2章 謝辞 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage バージョン 7.0 には、Red Hat Ceph Storage チームの数多くの貢献が反映されています。さらに Ceph プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。
- Intel®
- Fujitsu ®
- UnitedStack
- Yahoo ™
- Ubuntu Kylin
- Mellanox ®
- CERN ™
- Deutsche Telekom
- Mirantis ®
- SanDisk ™
- SUSE ®
- Croit ™
- Clyso ™
- Cloudbase solutions ™
第3章 新機能 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
3.1. Cephadm ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
cmount_path オプションを追加し、一意のユーザー ID を生成します
この機能強化により、cmount_path オプションを追加し、Ceph ファイルシステムごとに一意のユーザー ID を生成して、複数の Ganesha エクスポート間で CephFS クライアントを共有できるようになりました。これにより、単一の CephFS クライアントのメモリー使用量を削減できます。
すべてのモニタリングコンポーネントで TLS が有効になり、Prometheus のセキュリティーが強化されます
この機能強化により、データの整合性、機密性、セキュリティーのベストプラクティスとの整合性を保護するために、モニタリングスタック全体で TLS が有効になります。Prometheus、アラートマネージャー、およびノードエクスポーターの強化されたセキュリティー機能により、モニタリングスタック全体でセキュアな通信が使用され、保護層が追加されます。
モニタリングスタックのセキュリティー強化
この機能強化により、データの整合性と機密性を保護し、セキュリティーのベストプラクティスに準拠するために、Prometheus、アラートマネージャー、およびノードエクスポーターの認証機能が実装されました。これにより、すべてのモニタリングコンポーネントで TLS が有効になり、ユーザーが Prometheus および Alert Manager データにアクセスする前に有効な認証情報を提供することが必要になるため、モニタリングスタック全体のセキュリティーが強化されます。この新機能を使用すると、セキュアな通信を使用し、機密性の高いメトリクスや監視データへの不正アクセスを防止することで、追加の保護層が提供されます。すべてのモニタリングスタックコンポーネントで TLS が有効で、認証が導入されているため、ユーザーは監視データとメトリクスデータにアクセスする前に認証が必要となり、全体的なセキュリティーとデータアクセスの制御が強化されます。
ユーザーはホストをメンテナンスモードにできるようになりました
以前は、ホスト上のすべてのデーモンを停止するとデータが利用できなくなるため、ユーザーはホストをメンテナンスモードにすることができませんでした。
この機能強化により、ceph orch host maintenance enter コマンド用のより強力な強制フラグ --yes-i-really-mean-it が追加されました。Cephadm が警告した場合でも、ユーザーはホストをメンテナンスモードにできるようになりました。
ユーザーは、クライアント conf ファイルや keyring ファイルをドレインせずに、デーモンのホストをドレインできるようになりました
この機能強化により、ユーザーは ceph orch host drain コマンドに --keep-conf-keyring フラグを渡すことで、ホストにデプロイされたクライアント conf ファイルや keyring ファイルをドレインすることなく、デーモンのホストをドレインできるようになります。ユーザーは、Cephadm にホストの conf または keyring ファイルを管理させながら、すべてのデーモンをドレインするかホストに配置しないように、ホストをマークできるようになりました。
Cephadm サービスを managed または unmanaged としてマークできるようになりました
以前は、Cephadm サービスを managed または unmanaged としてマークする唯一の方法は、同サービスのサービス仕様を編集して再適用することでした。この方法は、Cephadm の OSD 仕様に一致するデバイスで OSD の作成を一時的に停止する場合などには不便でした。
この機能強化により、Cephadm サービスを managed または unmanaged としてマークするように設定するコマンドが追加されました。たとえば、ceph orch set-unmanaged mon コマンドまたは ceph orch set-managed mon コマンドを実行できます。これらの新しいコマンドを使用すると、サービス仕様を編集して再適用することなく、状態を切り替えることができます。
ユーザーは、HAProxy プロトコルモードを使用して、NFS デプロイメントにクライアント IP 制限を適用できるようになりました
以前は、ユーザーはクライアントと NFS の間で HAProxy を使用している間は、クライアント IP 制限を適用できませんでした。これは、NFS が HAProxy IP しか認識せず、適切なクライアント IP 制限が不可能になるためです。
この機能強化により、ceph nfs cluster create コマンドで引数 --ingress-mode=haproxy-protocol を渡すか、NFS サービス仕様と対応する Ingress 仕様の両方で enable_haproxy_protocol: true を設定することにより、HAProxy プロトコルモードで NFS サービスをデプロイできます。ユーザーは、NFS デプロイメントで新しい HAProxy プロトコルモードを使用して、NFS デプロイメントに適切なクライアント IP 制限を適用できるようになりました。
3.2. Ceph ファイルシステム リンクのコピーリンクがクリップボードにコピーされました!
quota.max_bytes がよりわかりやすいサイズ値に設定されるようになりました
以前は、quota.max_bytes 値はバイト単位で設定されていたため、サイズの値が非常に大きくなることが多く、設定や変更が困難でした。
この機能強化により、quota.max_bytes 値を M/Mi、G/Gi、T/Ti などのわかりやすい値に設定できるようになりました。たとえば、10 GiB または 100 K などです。
遅延したクライアントは、遅延した OSD がない場合にのみエビクトされるようになりました
以前は、MDS からのパフォーマンスダンプの監視時に、OSD の遅延、すなわち objecter.op_laggy および objecter.osd_laggy が表示されることがありました。これにより、クライアントが遅延し、キャップ取り消しのダーティーデータがフラッシュされませんでした。
この機能強化により、defer_client_eviction_on_laggy_osds パラメーターが true に設定され、OSD の遅延が原因でクライアントの遅延が発生した場合、OSD の遅延がなくなるまでクライアントエビクションは行われません。
3.3. Ceph Dashboard リンクのコピーリンクがクリップボードにコピーされました!
概要ダッシュボードの使用状況パネルの改善
この機能強化により、グラフとグラフの凡例が改善され、使いやすさが向上しました。さらに、検索クエリーが改善され、より良い結果が得られるようになりました。
ダッシュボードからのクラスターのアップグレード
以前は、Red Hat Ceph Storage クラスターは、コマンドラインインターフェイスを使用しないとアップグレードできませんでした。
この機能強化により、ストレージクラスターの利用可能なバージョンを簡単に表示およびアップグレードできるようになりました。Ceph Dashboard からアップグレードの進捗を追跡することもできます。
Ceph Dashboard に、Ceph Object Gateway 情報を表示する Overview ページが追加されました
この機能強化により、Ceph Dashboard の Object Gateway セクションに Overview ページが追加されました。この Overview ページから、ユーザーは Ceph Dashboard で Object Gateway に特化した概要にアクセスできるようになりました。この機能は、Object Gateway のパフォーマンス、ストレージの使用状況、設定の詳細に関する洞察を提供することにより、ユーザーエクスペリエンスを向上します。クラスター内でマルチサイトが設定されている場合、ユーザーはこの Overview ページでマルチサイトの同期ステータスも直接確認できます。
Ceph Dashboard に、ブロックデバイスイメージの容量使用率情報が表示されます
この機能強化により、Ceph Dashboard の Block > Images テーブルに、新たに容量使用率の進捗バーが表示されます。このバーには、使用率に関する情報がパーセンテージとともに表示されます。
この進捗バーは、fast-diff が有効で、スナップショットミラーリングが行われていないブロックイメージでのみ使用できます。
ダッシュボードで Ceph File System ボリュームを管理します
以前は、Ceph File System (CephFS) ボリュームは、コマンドラインインターフェイスを使用しないと管理できませんでした。
この機能強化により、Ceph Dashboard から CephFS ボリュームのリスト表示、作成、編集、削除ができるようになりました。
ダッシュボードで Ceph File System のサブボリュームとサブボリュームグループを管理します
以前は、Ceph File System (CephFS) サブボリュームおよびサブボリュームグループは、コマンドラインインターフェイスを使用しないと管理できませんでした。
この機能強化により、CephFS サブボリュームとサブボリュームグループを Ceph Dashboard からリスト表示、作成、編集、削除できるようになりました。
ユーザーは、CLI およびダッシュボードから Ceph Object Gateway ホストの FQDN を指定できるようになりました
以前は、Ceph Object Gateway のホスト名を解決するために短いホスト名が選択されており、問題の原因となっていました。
この機能強化により、Ceph Dashboard では、Ceph Object Gateway の rgw_dns_name 設定オプションを使用して、ホスト名が提供されている場合にそのホスト名を解決します。Ceph Object Gateway ホストの FQDN を指定する場合は、CLI で rgw_dns_name 設定オプションを使用すると、ダッシュボードがそれを選択し、それに対して Ceph Object Gateway リクエストが作成されます。
ダッシュボードで Ceph Object Gateway マルチサイトを設定します
この機能強化により、コマンドラインインターフェイスだけでなく、Ceph Dashboard からもマルチサイト Ceph Object Gateway を設定できるようになりました。ダッシュボードは、レルム、ゾーングループ、ゾーンなどの Object Gateway エンティティーの作成、更新、削除をサポートするようになりました。さらに、この機能により、ユーザーは 2 つのリモートクラスター間でマルチサイトを設定でき、データの複製と同期のオプションが提供されます。
3.4. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
radosgw-admin バケットコマンドがバケットのバージョン管理を出力します
この機能強化により、` radosgw-admin bucket stats ` コマンドが、バケットのバージョン管理ステータスを enabled または off として出力するようになりました。バージョン管理は、作成後に有効または無効にできるためです。
外部エンティティーによる S3 WORM 認証
この機能強化により、S3 WORM 機能が外部エンティティーによって認定されます。これにより、FSI 規制に準拠したデータ保持と、実稼働ゾーン内のオブジェクト/バケットが紛失または侵害された場合でも確実にデータを取得できる、セキュアなオブジェクトストレージデプロイメントが可能になります。
詳細は、WORM の概要 を参照してください。
マルチサイト同期インスタンスが、インスタンス間でワークロードを動的に分散するようになりました
以前は、Ceph Object Gateway のマルチサイトスループットは総じて、単一インスタンスの利用可能な帯域幅に制限されていました。
この機能拡張により、Ceph Object Gateway マルチサイト同期インスタンスは、作業共有アルゴリズムを使用して、インスタンス間でワークロードを動的に並列処理します。その結果、スケーラビリティーが大幅に向上し、同期ワークロードが同期全体で均等に分割されるようになりました。
バケットの詳細なマルチサイト同期ポリシーの強化
IBM Storage Ceph は、バケットの詳細なマルチサイト同期ポリシーをサポートするようになりました。
以前のバージョンでは、バケットの詳細なマルチシンク同期レプリケーションは限定リリースとして利用可能でした。この機能拡張により、新規および既存のユーザーはこの機能を実稼働環境で完全に利用できるようになりました。
この機能を使用すると、バケットレベルでマルチサイトの非同期レプリケーションを有効または無効にできます。この機能強化により、必要な合計 RAW スペースが増加し、サイト間の同期トラフィックの量も増加します。
詳細は、バケットの詳細な同期ポリシー を参照してください。
JSON、Parquet、CSV 形式のオブジェクトのサポートが追加され、データ分析のためのオブジェクトストレージのクエリー時間が短縮されました
Ceph Object Gateway は、JSON 形式、Parquet 形式、および CSV 形式のオブジェクトの操作をサポートするようになりました。これにより、S3 select の潜在的な適用範囲が、Apache Spark や Trino などの広くデプロイされた分析フレームワークに拡張されました。この追加のサポートは、クエリー時間の短縮に役立ちます。
詳細は、S3 select content from an object を参照してください。
マルチクラウドゲートウェイ (MCG) を使用して、データを Azure クラウドサービスに移行できるようになりました
以前のバージョンでは、Azure クラウドサービスへのデータ移行はテクノロジープレビュー機能でした。この機能拡張により、この機能を実稼働環境で使用できるようになりました。
この機能により、アーカイブを目的として、Ceph Object Gateway ストレージ環境内で、データを Azure クラウドに移行できます。
詳細は、Azure クラウドサービスへのデータの移行 を参照してください。
Trino とのより効率的な統合のための強化された S3 select 機能
オブジェクトストレージの Trino との統合が、S3 select 操作向けに強化されました。これにより、Ceph Object Gateway に保存されている半構造化データセットおよび構造化データセットのクエリー時間が短縮されます。
詳細は、Ceph Object Gateway と Trino の統合 を参照してください。
3.5. RADOS リンクのコピーリンクがクリップボードにコピーされました!
メッセンジャー v2 に導入された新しいパフォーマンスカウンター
以前は、メッセンジャー v2 には暗号化トラフィックの計算専用のパフォーマンスカウンターがありませんでした。
この機能強化により、受信バイトと送信バイトをそれぞれ考慮する msgr_recv_encrypted_bytes および msgr_send_encrypted_bytes が導入され、暗号化ステータスの大まかなバリデーションが容易になります。
遅延操作のサブイベントに関する新しいレポートが利用可能になりました
以前は、時間を要している操作は遅延としてマークされていましたが、詳細な説明はありませんでした。
この機能強化により、操作の遅延したサブイベントの詳細な説明を表示できるようになりました。
3.6. NFS Ganesha リンクのコピーリンクがクリップボードにコピーされました!
HAProxy の PROXY プロトコルをサポートします
この機能強化により、HAProxy は負荷分散サーバーを使用するようになりました。これにより、負荷分散が可能になり、クライアントのアクセス制限も可能になります。
第4章 バグ修正 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、今回リリースされた Red Hat Ceph Storage で修正されたユーザーに大きな影響を及ぼすバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。
4.1. Ceph マネージャープラグイン リンクのコピーリンクがクリップボードにコピーされました!
Python タスクが GIL を待機しなくなりました
以前は、Ceph マネージャーデーモンは、Ceph MDS との間で一部の RPC を行う際に、Python グローバルインタープリターロック (GIL) を保持していました。そのため、他の Python タスクは GIL の待機中に空き状態になっていました。
この修正により、すべての libcephfs/librbd 呼び出し中に GIL が解放され、他の Python タスクは GIL を正常に取得できるようになります。
4.2. Cephadm ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
cephadm が重複したホスト名を区別できるようになり、同じホストをクラスターに追加しなくなりました
以前は、cephadm は、短縮名を持つホストとその FQDN を持つホストを 2 つの別個のホストと見なしていたため、同じホストがクラスターに 2 回追加されていました。
この修正により、cephadm はホストの短縮名と FQDN の違いを認識し、ホストをシステムに再度追加しなくなりました。
cephadm が、存在しないラベルをホストから削除したことを報告しなくなりました
以前の cephadm では、ホストからラベルを削除する前に、ラベルが存在するかどうかを確認していませんでした。このため、ceph orch host label rm コマンドは、ラベルが存在しない場合でも、ラベルがホストから削除されたことを報告していました。たとえば、ラベルのスペルが間違っている場合などです。
この修正により、当該コマンドは、指定されたラベルが正常に削除されたかどうかに関する明確なフィードバックをユーザーに提供するようになりました。
keepalive デーモンが通信してメイン/プライマリー状態に入るようになりました
以前は、keepalive 設定には、ceph orch host ls コマンドで報告されるホスト IP と一致する IP が指定されていました。その結果、リスト表示されたホスト IP とは異なるサブネットに仮想 IP が設定されていた場合、keepalive デーモンは通信できず、keepalive デーモンはプライマリー状態になっていました。
この修正により、keepalive 設定の keepalive ピアの IP として、仮想 IP のサブネットと一致するものが選択されるようになりました。keepalive デーモンは、仮想 IP が ceph orch host ls コマンドのホスト IP とは異なるサブネットにある場合でも通信できるようになりました。この場合、1 つの keepalive デーモンだけがプライマリー状態になります。
停止したクラッシュデーモンが正しい状態になるようになりました
以前は、クラッシュデーモンが停止した場合の戻りコードが、想定される stopped 状態ではなく、error 状態を示していました。その結果 systemd は、サービスが失敗したと判断していました。
この修正により、戻りコードは想定される stopped 状態を示すようになりました。
HA プロキシーが仮想 IP のフロントエンドポートにバインドするようになりました
以前の Cephadm では、すべてのホストネットワークにわたってポートバインディングが発生するため、同じフロントエンドポートを持つ同じホストに複数の Ingress サービスをデプロイすることはできませんでした。
この修正により、複数の Ingress サービスが異なる仮想 IP を使用し、仕様として Ingress サービスに異なるモニタリングポートが設定されている限り、同じフロントエンドポートを持つ同じホストに複数の Ingress サービスが存在できるようになりました。
4.3. Ceph ファイルシステム リンクのコピーリンクがクリップボードにコピーされました!
ユーザー空間の Ceph ファイルシステム (CephFS) はアップグレード後に期待どおりに動作します
以前は、クラスターのアップグレード中に、ユーザー空間の CephFS クライアントがクラッシュすることがありました。これは、ユーザー空間側で保持されていた MDS 側の機能ビットが古いことが原因でした。
この修正により、ユーザー空間の CephFS クライアントの MDS 機能ビットが更新され、クラスターのアップグレード後にクライアントが期待どおりに動作できるようになります。
大量のセッションメタデータがあるクライアントをブロックリストに登録してエビクトします
以前は、MDS 内に大量のクライアントメタデータが蓄積されると、MDS が読み取り専用モードに切り替わることがありました。
この修正により、蓄積の原因となっているクライアントをブロックリストに登録してエビクトするようになりました。これにより、MDS は期待どおりに動作します。
リンク解除リクエストと再統合リクエストの間でデッドロックが発生しなくなりました
以前は、非同期の dirop バグを修正するときに、以前のコミットによってリグレッションが導入され、リンク解除リクエストと再統合リクエストの間でデッドロックが発生していました。
この修正により、古いコミットが元に戻され、リンク解除リクエストと再統合リクエストの間でデッドロックが発生しなくなりました。
クライアントは常にキャップ取り消し確認応答を MDS デーモンに送信します
以前は、MDS デーモンがキャップ取り消しリクエストをクライアントに送信し、この間にクライアントがキャップを解放して inode を削除した場合、クライアントはリクエストを直接破棄していました。しかし、MDS デーモンはクライアントからのキャップ取り消し確認応答を待つ必要がありました。このため、キャップを取り消す必要がない場合でも、MDS デーモンはクライアントからの確認応答を待ち続け、MDS デーモンの健全性ステータスに警告が発生していました。
この修正により、inode が存在せず、MDS デーモンが停止状態にならない場合でも例外なく、クライアントはキャップ取り消し確認応答を MDS デーモンに送信するようになりました。
MDS ロックが正しい順序で取得されます
以前は、MDS がメタデータツリーロックを誤った順序で取得し、create および getattr RPC リクエストでデッドロックが発生していました。
この修正により、MDS でロックが正しい順序で取得され、リクエストのデッドロックが発生しなくなりました。
CephFS MDS が split_realms 情報の送信をスキップします
以前は、CephFS MDS が誤って split_realms 情報を送信し、kclient はこの情報を正しくデコードできませんでした。このため、クライアントは、split_realms を考慮せず、破損したスナップトレースとして扱っていました。
この修正により、split_realms は kclient に送信されなくなり、クラッシュは発生しなくなりました。
writing フラグを設定してもスナップショットデータが失われなくなりました
以前は、クライアントで Fb キャップの使用時に writing フラグを ‘1’ に設定していた場合、ダーティーキャップの場合はスキップし、既存のキャップスナップを再利用していました。しかし、これは正しくありませんでした。このことが原因で、2 つの連続したスナップショットが上書きされ、データが失われていました。
この修正により、writing フラグが正しく設定され、スナップショットデータが失われなくなりました。
スレッド名の変更が失敗しなくなりました
以前は、まれに名前変更中に別のスレッドが dst dentry を検索しようとした場合、src dentry と dst dentry の両方が同じ inode に同時にリンクされ、スレッドが取得する検索結果に一貫性が欠ける場合がありました。したがって、2 つの異なる dentry が同じ inode にリンクされることで、名前変更リクエストは失敗していました。
この修正により、スレッドは名前変更アクションが完了するまで待機し、すべてが期待どおりに動作するようになりました。
取り消しリクエストがスタックしなくなりました
以前は、'seq' を増やす取り消しリクエストの送信前に、クライアントが対応するキャップを解放し、古い seq でキャップ更新リクエストを送信した場合、MDS は seq とキャップの計算を確認しそこなっていました。このため、取り消しリクエストが無限にスタックし、クライアントから応答のない取り消しリクエストに関する警告が出力されていました。
この修正により、取り消しリクエストに対して常に確認応答が送信されるようになり、取り消しリクエストがスタックしなくなりました。
エラーが MDLog::_recovery_thread で適切に処理されます
以前は、QA テストによって発行された fs fail により MDS がすでにブロックリストに登録されていた場合、書き込みが失敗していました。たとえば、QA テスト test_rebuild_moved_file (tasks/data-scan) は、この理由で失敗していました。
この修正により、書き込みの失敗は MDLog::_recovery_thread で適切に処理されるようになりました。
Ceph クライアントが、アラームを送信する前に遅延の原因を検証するようになりました
以前は、Ceph は OSD の遅延を警告する誤ったアラートを送信することがありました。たとえば、X client(s) laggy due to laggy OSDs などです。これらのアラートは、遅延が実際に OSD によるものであり、他の原因によるものではないことを検証せずに送信されていました。
この修正により、X client(s) laggy due to laggy OSDs というメッセージは、一部のクライアントと OSD に遅延がある場合にのみ送信されるようになりました。
4.4. Ceph Dashboard リンクのコピーリンクがクリップボードにコピーされました!
Ceph Dashboard のデーモンのパフォーマンスに関する Grafana パネルに正しいデータが表示されるようになりました
以前は、ラベルエクスポーターは Grafana ダッシュボードで使用されるクエリーと互換性がありませんでした。このため、Ceph Dashboard の Ceph デーモンのパフォーマンスに関する Grafana パネルは空でした。
この修正により、ラベル名が Grafana ダッシュボードクエリーと互換性があるものとなり、デーモンのパフォーマンスに関する Grafana パネルに正しいデータが表示されるようになりました。
Dashboard でのレイヤー機能と deep-flatten 機能の編集が無効になります
以前は、Ceph Dashboard で、イミュータブルのレイヤー化機能および deep-flatten 機能の編集を許可することができ、その結果、rbd: failed to update image features: (22) Invalid argument というエラーが発生していました。
この修正により、レイヤー化機能および deep-flatten 機能の編集が無効になり、すべてが期待どおりに機能するようになりました。
ceph_daemon ラベルが Ceph エクスポーターのラベル付きパフォーマンスカウンターに追加されます
以前は、Ceph エクスポーターでは、ラベル付きパフォーマンスカウンターに ceph_daemon ラベルを追加できませんでした。
この修正により、ceph_daemon ラベルが Ceph エクスポーターのラベル付きパフォーマンスカウンターに追加されました。ceph daemon ラベルがすべての Ceph デーモンパフォーマンスメトリクスに含まれ、instance_id ラベルが Ceph Object Gateway パフォーマンスメトリクスに含まれるようになりました。
スナップショットの保護は、親イメージのレイヤー化が有効な場合にのみ有効になります
以前は、親イメージのレイヤー化が無効な場合でも、スナップショットの保護が有効になっていました。これにより、レイヤー化が無効なイメージのスナップショットを保護しようとするとエラーが発生していました。
この修正により、イメージのレイヤー化が無効になっている場合、スナップショットの保護が無効になります。スナップショットの保護は、親イメージのレイヤー化が有効な場合にのみ有効になります。
新しく追加したホストの詳細がクラスター拡張レビューページに表示されるようになりました
以前は、ユーザーは前の手順で追加したホストに関する情報を確認できませんでした。
この修正により、前の手順で追加したホストがクラスター拡張レビューページに表示されるようになりました。
Ceph Object Gateway ページが Ceph Dashboard に正しくローされるようになりました
以前は、Ceph Object Gateway ページをロードしようとした際に、正規表現の照合に誤りがあるとダッシュボードが破損していました。Ceph Object Gateway ページは、rgw_frontends like beast port=80 ssl_port=443 のような特定の設定ではロードされませんでした。
この修正により、コードベース内の正規表現の照合が更新され、Ceph Object Gateway ページが問題なくロードされるようになりました。
4.5. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
Ceph Object Gateway デーモンが、phoneNumbers.addr が NULL の場合でもクラッシュしなくなりました
以前は、構文エラーが原因で、select * from s3object[*].phonenumbers where phoneNumbers.addr is NULL; のクエリーにより、Ceph Object Gateway デーモンがクラッシュしていました。
この修正により、誤った構文は特定および報告されるようになり、デーモンはクラッシュしなくなりました。
Ceph Object Gateway デーモンが cast( trim) クエリーでクラッシュしなくなりました
以前は、select cast( trim( leading 132140533849470.72 from _3 ) as float) from s3object; のクエリー内の trim スキップタイプチェックにより、Ceph Object Gateway デーモンがクラッシュしていました。
この修正により、タイプがチェックされ、誤っている場合は特定および報告されるようになったため、デーモンがクラッシュすることはなくなりました。
Ceph Object Gateway デーモンは、s3select JSON クエリーの “where” 句でクラッシュしなくなりました
以前は、構文エラーが原因で、“where” 句を含む s3select JSON クエリーにより Ceph Object Gateway デーモンがクラッシュしていました。
この修正により、誤った構文は特定および報告されるようになり、デーモンはクラッシュしなくなりました。
Ceph Object Gateway デーモンが s3 select phonenumbers.type クエリーでクラッシュしなくなりました
以前は、構文エラーが原因で、select phonenumbers.type from s3object[*].phonenumbers; のクエリーにより、Ceph Object Gateway デーモンがクラッシュしていました。
この修正により、誤った構文は特定および報告されるようになり、デーモンはクラッシュしなくなりました。
Ceph Object Gateway デーモンが引数を検証し、クラッシュしなくなりました
以前は、引数が欠落している Operator が原因で、存在しない引数にアクセスしようとした際にデーモンがクラッシュしていました。
この修正により、デーモンは各 Operator の引数の数を検証するようになり、クラッシュしなくなりました。
Ceph Object Gateway デーモンが trim コマンドでクラッシュしなくなりました
以前は、select trim(LEADING '1' from '111abcdef111') from s3object; のクエリー内の trim スキップタイプチェックにより、Ceph Object Gateway デーモンがクラッシュしていました。
この修正により、タイプがチェックされ、誤っている場合は特定および報告されるようになったため、デーモンがクラッシュすることはなくなりました。
大きな値が入力されても Ceph Object Gateway デーモンがクラッシュしなくなりました
以前は、値エントリーが大きすぎるため、select DATE_DIFF(SECOND, utcnow(),date_add(year,1111111111111111111, utcnow())) from s3object; のクエリーにより、Ceph Object Gateway デーモンがクラッシュしていました。
この修正により、クラッシュを特定し、エラーを報告するようになりました。
Ceph Object Gateway は、処理に失敗せずに CSV オブジェクトを解析するようになりました
以前は、Ceph Object Gateway は CSV オブジェクトを適切に解析できませんでした。プロセスが失敗すると、適切なエラーメッセージが表示されることなくリクエストが停止していました。
この修正により、CSV パーサーは期待どおりに動作し、失敗することなく CSV オブジェクトを処理できるようになりました。
ハイフンで始まるオブジェクトバージョンのインスタンス ID が復元されます
以前は、バージョン管理されたバケットのインデックスを復元するときに、オブジェクトバージョンのインスタンス ID がハイフンで始まる場合、バケットインデックスに適切に復元されませんでした。
この修正により、ハイフンで始まるインスタンス ID が認識され、期待どおりにバケットインデックスに復元されるようになりました。
複数削除機能の通知が期待どおりに機能します
以前は、バケット削除の通知を設定している場合に複数削除機能を実行すると、コード内の競合状態などの内部エラーが原因で、Ceph Object Gateway がクラッシュするか予期せぬ反応をしていました。
この修正により、複数削除機能の通知が期待どおりに機能するようになりました。
RADOS オブジェクトのマルチパートアップロードワークフローが適切に完了します
以前は、前のアップロードで作成されたマルチパートアップロードワークフローオブジェクトの一部である RADOS オブジェクトが原因で、特定の部分のアップロードが完了しないか、途中で停止することがありました。
この修正により、マルチパートアップロードワークフローが完了すると、すべての部分が正しくアップロードされるようになりました。
バケット所有者とは異なるテナントに属するユーザーが通知を管理できるようになりました
以前は、バケット所有者とは異なるテナントに属するユーザーは、通知を管理できませんでした。たとえば、変更、取得、削除などの通知です。
この修正により、適切な権限を持つすべてのユーザーが、バケットの通知を管理できるようになります。
バケットに対して NFS setattr を実行する機能が削除されました
以前は、NFS ディレクトリーとしてエクスポートすることによりバケットに保存されている属性を変更すると、Ceph Object Gateway のバケット情報キャッシュ内で不整合が発生していました。このため、その後に NFS 経由でバケットにアクセスしようとすると失敗していました。
この修正により、バケットに対して NFS setattr を実行する機能が削除されました。バケットに対する NFS setattr (ディレクトリーに対する chown など) の実行を試みても効果はありません。
上記の点は今後のリリースで変更される可能性があります。
クラッシュを防ぐために、再シャーディング可能なバケットレイアウトのテストが追加されました
以前は、マルチサイトで動的バケットの再シャーディングを有効にする追加のバケットレイアウトコードを使用した場合、動的、即時、または再スケジュールされた再シャーディング中に、バケットレイアウトが再シャーディングをサポートするか確認していませんでした。このため、動的バケットの再シャーディングの場合は Ceph Object Gateway デーモンがクラッシュし、即時またはスケジュールされた再シャーディングの場合は radosgw-admin コマンドがクラッシュしていました。
この修正により、再シャーディング可能なバケットレイアウトのテストが追加され、クラッシュは発生しなくなりました。即時およびスケジュールされた再シャーディングが発生すると、エラーメッセージが表示されます。動的バケットの再シャーディングが発生すると、当該バケットはスキップされます。
user modify -placement-id コマンドに空の --storage-class 引数を指定できるようになりました。
以前は、'user modify --placement-id' コマンドの実行時に --storage-class 引数を使用しなかった場合、コマンドが失敗していました。
この修正により、--storage-class 引数を空のままにしてもコマンドが失敗しなくなりました。
初期化の際に、以前に登録したウォッチのみが登録解除されるようになりました
以前は、初期化エラーにより、一度も登録されていないウォッチの登録を解除しようとすることがありました。これにより、一部のコマンドラインツールが予期せずクラッシュする場合がありました。
この修正により、以前に登録されたウォッチのみが登録解除されるようになりました。
マルチサイトレプリケーションにより、ゾーン間の整合状態が維持され、削除されたオブジェクトの上書きが防止されるようになりました
以前のバージョンでは、マルチサイトレプリケーションの競合状態により、削除すべきオブジェクトが別のサイトからコピーバックされ、ゾーン間で不整合状態が生じることがありました。その結果、ワークロードを受け取っているゾーンには、削除すべきいくつかのオブジェクトが残っていました。
この修正により、宛先ゾーンのトレース文字列を渡すためにカスタムヘッダーが追加され、オブジェクトのレプリケーショントレースと照合されます。一致する場合は 304 応答が返され、削除したオブジェクトが完全同期によって上書きされるのを防ぎます。
Ceph Object Gateway のメモリーフットプリントが大幅に削減されました
以前のバージョンでは、Lua スクリプト統合に関連するメモリーリークにより、RGW メモリーの過剰な増加が発生する場合がありました。
この修正により、リークが修正され、Ceph Object Gateway のメモリーフットプリントが大幅に削減されました。
バージョン管理されたオブジェクトの操作中に、バケットインデックスのパフォーマンスが影響を受けることがなくなりました
以前のバージョンでは、場合によってはスペースリークが発生し、バケットインデックスのパフォーマンスが低下することがありました。これは、オブジェクト論理ヘッド (OLH) の更新に関連する競合状態が原因で発生していました。OLH は、更新時のバージョン管理バケットの最新バージョン計算に関連します。
この修正により、OLH 更新操作のロジックエラーが修正され、バージョン管理されたオブジェクトの操作中にスペースがリークされなくなりました。
削除マーカーは LC ルールで正しく機能します
以前のバージョンでは、sal オブジェクトハンドルを再利用する最適化を試みていました。このため、削除マーカーが期待どおりに生成されませんでした。
この修正により、get-object-attributes の sal オブジェクトハンドルを再利用する変更が元に戻り、削除マーカーが正しく作成されるようになりました。
SQL エンジンが不正な計算で Ceph Object Gateway のクラッシュを引き起こさなくなりました
以前のバージョンでは、SQL エンジンが処理されない例外を出力し、Ceph Object Gateway のクラッシュを引き起こすことがありました。これは、日時操作の不正な SQL 計算が原因で発生していました。
この修正により、クラッシュするのではなく、エラーメッセージの出力によって例外が処理されるようになりました。
クエリー select trim (LEADING '1' from '111abcdef111') from s3object; で大文字が使用されている場合にクエリーが機能するようになりました
以前のバージョンでは、LEADING または TRAILING がすべて大文字で書かれていると文字列が正しく読み取られず、float 型が string 型として参照され、誤った出力が発生していました。
この修正により、クエリーを完了する前に型チェックが導入され、LEADING と TRAILING は大文字で記述されても小文字で記述されても機能するようになりました。
JSON 解析が、クエリー select _1.authors.name from s3object[*] limit 1 に対して機能するようになりました
以前のバージョンでは、select _1.authors.name from s3object[*] limit 1 で指定された匿名配列は、誤った値を出力していました。
この修正により、クエリーに匿名配列が指定された場合でも、JSON 解析が機能するようになりました。
4.6. マルチサイトの Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
クライアントは、Content-Length ヘッダーフィールド値に誤りがあっても接続をリセットしなくなりました
以前は、エラーページ (404 または 403 状態など) をクライアントに返すときに、終了タグ </body> および </html> が欠落していました。しかし、これらのタグの存在は、リクエストの Content-Length ヘッダーフィールド値で考慮されていました。このため、クライアントによっては、通常の状況下では FIN パケットによって閉じられるクライアントと Rados Gateway 間の TCP 接続が、誤った Content-Length ヘッダーフィールド値が原因で、クライアントからの RST パケットによって閉じられていました。
この修正により、必要なすべての状況下で終了タグ </body> および </html> がクライアントに送信されるようになりました。Content-Length ヘッダーフィールドの値が、クライアントに送信されるデータの長さを正しく表すようになり、クライアントは誤った Content-Length を理由に接続をリセットしなくなりました。
同期通知が正しいオブジェクトサイズで送信されます
以前は、オブジェクトがゾーン間で同期され、同期通知が設定されていた場合、オブジェクトのサイズをゼロとして通知が送信されていました。
この修正により、同期通知が正しいオブジェクトサイズで送信されるようになりました。
マルチサイト同期が、許可されたゾーンとフィルターに従って適切にフィルタリングとチェックを行います
以前は、マルチサイト同期ポリシーを使用する場合、radosgw-admin sync status などの特定のコマンドは、制限付きゾーンまたは空の同期グループ名をフィルタリングしませんでした。フィルターが欠如することで、これらのコマンドの出力は誤解を招くものでした。
この修正により、制限付きゾーンにはチェックや報告が行われなくなり、空の同期グループ名はステータス結果から除外されるようになりました。
4.7. RADOS リンクのコピーリンクがクリップボードにコピーされました!
ceph version コマンドは空のバージョンリストを返さなくなりました
以前は、MDS デーモンがクラスターにデプロイされていない場合、ceph version コマンドは、バージョンの不一致を表す MDS デーモンの空のバージョンリストを返していました。このリストは、デーモンがクラスターにデプロイされていない場合には表示されないはずのものです。
この修正により、デーモンバージョンマップが空の場合デーモンバージョン情報はスキップされ、ceph version コマンドはクラスターにデプロイされている Ceph デーモンのバージョン情報のみを返すようになりました。
ms_osd_compression_algorithm が正しい値を表示するようになりました
以前は、ms_osd_compression_algorithm の値に誤りがある場合、デフォルト値ではなくアルゴリズムのリストが表示されていました。そのため、1 つのアルゴリズムではなく一連のアルゴリズムがリスト表示され、不一致が発生していました。
この修正により、ms_osd_compression_algorithm コマンドを使用するときにデフォルト値のみが表示されます。
MGR がクラスターとの接続を再試行せずに切断することがなくなりました
以前は、ネットワークの問題が発生すると、クラスターが再試行せずに MGR との接続を切断し、monclient の認証が失敗していました。
この修正により、ハンティングと接続の両方が失敗する状況では再試行が行われるようになりました。
client_mount_timeout のタイムアウト再試行値を引き上げます
以前は、client_mount_timeout 設定可能パラメーターの誤った処理により、モニターに対するクライアント認証が、5 分という高いデフォルトタイムアウト値を無視して最大 10 回の再試行に至る場合がありました。
この修正により、以前の動作が復元されて設定可能パラメーターが 1 回のみ再試行するようになり、認証タイムアウトが期待どおりに機能するようになりました。
4.8. RBD ミラーリング リンクのコピーリンクがクリップボードにコピーされました!
イメージの昇格後に、降格したミラースナップショットが削除されます
以前は、実装上の不具合により、セカンダリーイメージであってもプライマリーイメージであっても、イメージの昇格後に降格したミラースナップショットは削除されませんでした。このため、降格したミラースナップショットが蓄積し、ストレージ領域を消費していました。
この修正により、実装上の不具合が修正され、イメージの昇格後に適切な降格ミラースナップショットが削除されるようになりました。
プライマリーイメージが削除されると、プライマリー以外のイメージも削除されるようになりました
以前は、rbd-mirror デーモンイメージリプレーヤーの競合状態により、プライマリーイメージが削除されたときにプライマリー以外のイメージを削除することができませんでした。このため、プライマリー以外のイメージは削除されず、ストレージ領域が使用されていました。
この修正により、rbd-mirror イメージリプレーヤーが修正され、競合状態が解消するようになりました。プライマリーイメージが削除されると、プライマリー以外のイメージも削除されるようになりました。
librbd クライアントが、呼び出し元にブロックリスト登録エラーを正しく伝播します
以前は、rbd_support モジュールの RADOS クライアントがブロックリストに登録されていた場合、モジュールの mirror_snapshot_schedule ハンドラーが常に正しくシャットダウンするとは限りませんでした。ハンドラーの librbd クライアントはブロックリスト登録エラーを伝播しないため、ハンドラーのシャットダウンが停止していました。これにより、mirror_snapshot_schedule ハンドラーと rbd_support モジュールが、繰り返されるクライアントのブロックリスト登録から自動的に回復できなくなっていました。rbd_support モジュールは、クライアントを繰り返しブロックリストに登録した後、ミラースナップショットのスケジューリングを停止していました。
この修正により、排他的ロックの取得とブロックリストの処理の間で生じていた librbd クライアントでの競合が修正されました。これにより、librbd クライアントは、排他的ロックの取得を待機している間に、呼び出し元 (mirror_snapshot_schedule ハンドラーなど) にブロックリスト登録エラーを正しく伝播できます。mirror_snapshot_schedule ハンドラーと rbd_support_module は、繰り返されるクライアントのブロックリスト登録から自動的に回復します。
第5章 テクノロジープレビュー リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、今回リリースされた Red Hat Ceph Storage で修正されたユーザーに大きな影響を及ぼすバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。
テクノロジープレビュー機能は、実稼働環境での Red Hat サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。テクノロジープレビューの機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行いフィードバックを提供していただくことを目的としています。詳細は、Red Hat テクノロジープレビュー機能のサポート範囲 を参照してください。
5.1. Crimson OSD リンクのコピーリンクがクリップボードにコピーされました!
コア Ceph Object Storage デーモン (OSD) コンポーネントの新しく実装された Crimson-OSD が ceph-osd を置き換えます
この機能強化により、次世代の ceph-osd が実装され、DPDK や SPDK を含む最先端のテクノロジーの採用により、マルチコアのスケーラビリティーを実現し、高速ネットワークおよびストレージデバイスのパフォーマンスを向上します。Crimson は、クラス ceph-osd を持つ OSD デーモンの以前のバージョンとの互換性を目指しています。
詳細は、Crimson (テクノロジープレビュー) を参照してください。
5.2. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage の Object Storage Archive Zone
この機能強化により、アーカイブゾーンは実稼働ゾーンからすべてのオブジェクトを受け取り、すべてのオブジェクトのすべてのバージョンを保持することで、オブジェクトの完全な履歴を含むオブジェクトカタログをユーザーに提供します。これにより、実稼働ゾーン内のオブジェクト/バケットが紛失または侵害された場合でも確実にデータを取得できる、セキュアなオブジェクトストレージデプロイメントが可能になります。
詳細は、アーカイブゾーンの設定 (テクノロジープレビュー) を参照してください。
バケットごとにアーカイブゾーンへの同期を有効化および無効化して、実稼働クラスター外のオブジェクトストレージデータを保護します
管理者は、プライマリーサイトに存在していたあらゆるオブジェクトのバージョンを、アーカイブゾーンから復元できるようになりました。データ損失やランサムウェア攻撃が発生した場合でも、必要に応じてすべてのオブジェクトの有効なバージョンにアクセスできます。
詳細は、アーカイブゾーンの設定 (テクノロジープレビュー) を参照してください。
5.3. RADOS リンクのコピーリンクがクリップボードにコピーされました!
読み取りバランサーを使用した Red Hat Ceph Storage クラスターのバランス調整
このリリースでは、各デバイスがプライマリー OSD を公平に共有できるようにし、読み取りリクエストがクラスター内の OSD 全体に均等に分散されるように、読み取りバランサーが実装されます。読み取り分散は低コストで、データの移動が含まれないため操作が高速です。読み取り分散は、レプリケートされたプールのみをサポートします。イレイジャーコーディングされたプールはサポートされません。
詳細は、読み取りバランサーを使用した Red Hat Ceph Storage クラスターのバランス調整 (テクノロジープレビュー) および Ceph のリバランスおよびリカバリー を参照してください。
第6章 既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。
6.1. Cephadm ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
一部の NFS デーモンはログを生成しない場合があります
現在、cephadm でデプロイされた NFS サービスが複数の NFS デーモンを備える場合、IO を提供するのはそのうち 1 つだけであるため、ユーザーはログを生成しない NFS デーモンに遭遇します。現在、この問題に対する回避策はありません。
ロック解除時にミューテックスが失敗するのを防ぎます
以前は、ロックされていないミューテックスをロック解除しようとすると、ミューテックスがクラッシュしていました。
回避策として、ロックを解除する前に、そもそもミューテックスがロックされているかどうかを確認してください。
ceph orch ps コマンドはモニタリングスタックデーモンのバージョンを表示しません
現在、cephadm ではバージョングラビングコードにダウンストリームのモニタリングスタックコンテナーとの互換性がないため、node-exporter、prometheus、alertmanager などのモニタリングスタックデーモンのバージョングラビングが失敗します。
各パートは個別にアップロードおよび暗号化されるため、マルチパートアップロードの暗号化にはパート境界の周りで特別な処理が必要です。マルチサイトでは、オブジェクトは暗号化され、マルチパートのアップロードは 1 つのパートとして複製されます。その結果、複製されたコピーは、データを正しく復号化するために必要な元の部分の境界に関する知識を失い、この破損が発生します。
ユーザーがバージョンを確認する必要がある場合、デーモンのコンテナー名にバージョンが含まれるので、これを回避策とします。
6.2. Ceph Dashboard リンクのコピーリンクがクリップボードにコピーされました!
マルチサイト設定後に Ceph Object Gateway ページがロードされません
マルチサイト設定中に、ダッシュボードが新しいレルムの正しいアクセスキーとシークレットキーを見つけることができないため、Ceph Object Gateway ページがロードされません。
回避策として、ceph dashboard set-rgw-credentials コマンドを使用してキーを手動で更新します。
6.3. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
JSON select count() from S3Object[]; クエリーに遅延が生じ、CPU 使用率が高くなります
select count() from S3Object[]; クエリーの実行時に、CSV オブジェクトクエリーと比較して、遅延および radosgw の CPU 使用率が顕著に増大します。
回避策として、JSON クエリーを実行するときに、count(*) クエリーの代わりに count() を使用します。
s3select を使用して JSON オブジェクトを処理すると、s3select と Trino が失敗します
Trino が s3select リクエストを使用して JSON オブジェクトを処理すると、リクエストが失敗し、Trino も失敗します。これにより、Ceph Object Gateway ログに wrong json dataType should use DOCUMENT というエラーメッセージが出力されます。
回避策として、Trino を使用せずに、直接 s3select リクエストを使用できる場合があります。
第7章 非同期エラータの更新 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、z-stream リリースのバグ修正、既知の問題、機能拡張を説明します。
7.1. Red Hat Ceph Storage 7.0z2 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage リリース 7.0z2 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2024:2743 および RHBA-2024:2744 アドバイザリーに記載されています。
7.1.1. 機能拡張 リンクのコピーリンクがクリップボードにコピーされました!
7.1.1.1. Ceph ファイルシステム リンクのコピーリンクがクリップボードにコピーされました!
snap-schedule モジュールは、定義された数のスナップショットを保持します
このリリースでは、snap-schedule モジュールは、ユーザーが定義した数のスナップショットを保持するための新しい保持仕様をサポートします。たとえば、スナップショットの作成頻度に関係なく 50 個のスナップショットを保持するように指定した場合、新しいスナップショットが作成された後にスナップショットが削除されます。実際に保持されるスナップショットの数は、指定された最大数より 1 少なくなります。この例では、49 個のスナップショットが保持されています。これは、次のイテレーションでファイルシステムにスナップショットを作成できるように、余白として 1 確保するためです。保持されたスナップショットにより、システムで設定された mds_max_snaps_per_dir の制限に違反することがなくなります。
mds_max_snaps_per_dir とスナップショットのスケジュール制限を設定するときは、mds_max_snaps_per_dir 制限を超えた場合にファイルシステムが "Too many links" エラーを返すことでスナップショットスケジュールが意図せず非アクティブにならないように注意してください。
dump dir コマンドを導入しました
このリリースでは、ディレクトリー情報をダンプするための新しいコマンド dump dir が導入されました。
オプション --subvol を使用したサブボリュームのスナップショットスケジュールが使用可能になりました
この機能拡張により、ユーザーは --subvol 引数を使用して、デフォルトおよび非デフォルトのサブボリュームグループ内のサブボリュームに対してスナップショットをスケジュールできるようになりました。
7.1.1.2. Ceph Metrics リンクのコピーリンクがクリップボードにコピーされました!
counter dump コマンドの出力が、複数のセクションに分割されるようになりました
この機能拡張により、Ceph Object Gateway 操作メトリクスのラベル付きパフォーマンスカウンターが、user operation カウンターと bucket operation カウンターの counter dump コマンドの出力で異なるセクションに分割されます。
7.1.1.3. Ceph Objecy Gateway リンクのコピーリンクがクリップボードにコピーされました!
新しい設定変数 rgw_op_counters_dump_expiration を導入しました
この機能拡張により、新しい設定変数 rgw_op_counters_dump_expiration が導入されました。この新しい変数は、ceph counter dump コマンドからラベル付きパフォーマンスカウンターが発行される秒数を制御します。
rgw_op_counters_dump_expiration の秒数が経過しても、バケットまたはユーザーラベル付きカウンターが更新されない場合、ceph counter dump の json 出力には表示されません。
このフィルタリングをオフにするには、rgw_op_counters_dump_expiration の値を 0 に設定する必要があります。
rgw_op_counters_dump_expiration の値は実行時に変更しないでください。
S3 操作のパフォーマンスカウンターを Prometheus に送信できるようになりました
この機能拡張により、Ceph エクスポーターデーモンを使用して新しいラベル付きカウンターを Prometheus に送信できるようになりました。これは、バケットごとまたはユーザーごとに視覚化できる PUT などの一般的な S3 操作に役立ちます。
ユーザーまたはバケットによってラベル付けされた S3 操作のパフォーマンスカウンターは、ceph counter dump コマンドを使用して出力されます。
7.1.2. 既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
7.1.2.1. マルチサイトの Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
アーカイブゾーン環境での大規模な omap 警告
現在、アーカイブゾーン環境では、バケット内の同一オブジェクトの複数バージョンが単一のバケットインデックスシャードオブジェクトに書き込まれているため、大規模な omap 警告が表示される可能性があります。アーカイブゾーンの omap olh エントリーを考慮して、'max_objs_per_shard' 設定オプションを 50,000 に減らすことが推奨されます。これにより、バケットインデックスシャードオブジェクトあたりの omap エントリー数が抑制され、大規模な omap 警告の発生を防ぐことができます。
7.1.2.2. Ceph Dashboard リンクのコピーリンクがクリップボードにコピーされました!
リモートクラスターからマルチサイト設定をインポートしようとすると、トークンのインポートでエラーが発生します
このマルチサイトインポート設定によりフォームの送信時にエラーが発生するため、現在、マルチサイト期間情報はレルム名を返しません。回避策: コマンドラインインターフェイスを使用してマルチサイト設定をインポートします。
7.1.2.3. セキュリティー リンクのコピーリンクがクリップボードにコピーされました!
grafana-container: go-git の CVE-2023-49569 は、Ceph 7.0z2 リリースないに存在します
Ceph 7.0 リリースでは、Ceph 6.1 リリースで使用できるものよりも古いバージョンの Grafana が使用されているため、Ceph 7.0z2 に CVE が存在します。
Ceph 7.0 は Grafana 9.4.12 を使用しますが、Grafana 10.4.0 上には 6.1z6 リリースがあり、そのリリースで CVE が修正されています。
7.2. Red Hat Ceph Storage 7.0z1 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage リリース 7.0z1 が利用可能になりました。この更新に含まれるバグ修正は RHBA-2024:1214 および RHBA-2024:1215 アドバイザリーに記載されています。
7.2.1. 機能拡張 リンクのコピーリンクがクリップボードにコピーされました!
7.2.1.1. Ceph ブロックデバイス リンクのコピーリンクがクリップボードにコピーされました!
rbd_diff_iterate2() API のパフォーマンスの向上
以前のバージョンでは、fast-diff モード (whole_object == true で fast-diff イメージ機能が有効な場合) で開始時点 (fromsnapname == NULL) との差分を取る際に、排他ロックが利用可能な場合、RBD diff-iterate のローカルでの実行が保証されませんでした。
この機能拡張により、rbd_diff_iterate2() API のパフォーマンスが向上し、fast-diff イメージ機能が有効になっている QEMU ライブディスクの同期およびバックアップのユースケースでパフォーマンスが向上します。
7.2.1.2. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
rgw-restore-bucket-index ツールで、バージョン管理されたバケットのバケットインデックスを復元できるようになりました
この機能拡張により、rgw-restore-bucket-index ツールは可能な限り広範囲で動作し、バージョン管理されていないバケットとバージョン管理されたバケットのバケットインデックスを復元できるようになりました。
7.2.2. 既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
7.2.2.1. マルチサイトの Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
S3 クライアント SDK を使用する一部の Ceph Object Gateway アプリケーションで、予期せぬエラーが発生する可能性があります
現在、S3 クライアント SDK を使用する一部のアプリケーションでは、外部チェックサムがリクエストされた場合、長さ 0 のオブジェクトをアップロードするときに予期せぬ 403 エラーが発生する可能性があります。
回避策として、SSL を使用した Ceph Object Gateway サービスを使用します。
7.2.3. 削除された機能 リンクのコピーリンクがクリップボードにコピーされました!
7.2.3.1. Ceph Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
Prometheus メトリクスは使用されなくなりました
このリリースでは、新しい機能豊富なラベル付き perf カウンターが導入され、以前に使用されていた Object Gateway 関連の Prometheus メトリクスが置き換えられました。新しいメトリクスは、重複して使用できるように、以前のメトリクスを完全に削除する前に導入されています。
この移行中も、Prometheus メトリクスは新しいメトリクスと同時に使用できます。ただし、Prometheus メトリクスは Red Hat Ceph Storage 8.0 リリースでは完全に削除されます。
7.0z1 以降で置き換えられたメトリクスを次の表で確認してください。
| 非推奨の Prometheus メトリクス | 7.0z1 の新しいメトリクス |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
第8章 ソース リンクのコピーリンクがクリップボードにコピーされました!
更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。
- Red Hat Enterprise Linux 9 の場合: https://ftp.redhat.com/redhat/linux/enterprise/9Base/en/RHCEPH/SRPMS/