リリースノート
Release notes for Red Hat Ceph Storage 5.1z2
概要
多様性を受け入れるオープンソースの強化
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
Red Hat Ceph Storage ドキュメントへのフィードバック (英語のみ)
Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。これを行うには、Bugzilla のチケットを作成します。
Bugzilla の Web サイトに移動します。Component ドロップダウンメニューで、Documentation を選択します。Sub-Component ドロップダウンで、適切なサブコンポーネントを選択します。ドキュメントの適切なバージョンを選択します。Summary および Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも追加してください。オプション: 添付ファイルを追加します (ある場合)。Submit Bug をクリックします。
第1章 導入部分
Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。
Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/ja-jp/red_hat_ceph_storage/5 から入手できます。
第2章 謝辞
Red Hat Ceph Storage 5 プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。
- Intel®
- Fujitsu ®
- UnitedStack
- Yahoo ™
- Ubuntu Kylin
- Mellanox ®
- CERN ™
- Deutsche Telekom
- Mirantis ®
- SanDisk ™
- SUSE
第3章 新機能
本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
本リリースで追加された主な機能は以下のとおりです。
コンテナー化されたクラスター
Red Hat Ceph Storage 5 は、コンテナー化されたデーモンのみをサポートします。コンテナーされていないストレージクラスターはサポートされません。コンテナー化されていないストレージクラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードする場合、アップグレードプロセスには、コンテナー化されたデプロイメントへの変換が含まれます。
詳細は、Red Hat Ceph Storage Installation Guideの Upgrading a Red Hat Ceph Storage cluster from RHCS 4 to RHCS 5 セクションを参照してください。
Cephadm
Cephadm は、manager デーモンからホストに接続して Red Hat Ceph Storage 5 クラスターをデプロイし、管理する新しいコンテナー化されたデプロイメントツールです。
cephadm
ユーティリティーは、Red Hat Ceph Storage デプロイメントのceph-ansible
に代わるものです。Cephadm の目的は、Red Hat Ceph Storage をための、フル機能を備え、堅牢で、適切にインストールされた管理レイヤーを提供することです。cephadm
コマンドは、Red Hat Ceph Storage クラスターの完全なライフサイクルを管理します。cephadm
コマンドは、以下の操作を行うことができます。- 新しい Ceph Storage クラスターをブートストラップします。
- Ceph コマンドラインインターフェイス (CLI) と連携するコンテナー化されたシェルを起動します。
コンテナー化されたデーモンのデバッグを支援します。
cephadm
コマンドはssh
を使用してストレージクラスターのノードと通信し、Ceph デーモンコンテナーを追加、削除、または更新します。これにより、外部ツールを使用せずに Red Hat Ceph Storage コンテナーを追加、削除、または更新できます。cephadm
コマンドには、2 つの主要コンポーネントがあります。-
cephadm
シェルは、コンテナー内のbash
シェルを起動します。これにより、ストレージクラスターのインストールと設定タスクを実行し、コンテナーでceph
コマンドを実行できます。 cephadm
オーケストレーターコマンドにより、Ceph デーモンおよびサービスをプロビジョニングし、ストレージクラスターを拡張できます。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
管理 API
管理 API は、Red Hat Ceph Storage 5 に適用される管理スクリプトを作成し、バージョンのライフサイクルには変更されない動作を維持します。互換性のないバージョンの API は、メジャーリリースの行ごとにのみ発生します。
詳細は、Red Hat Ceph Storage 開発者ガイド を参照してください。
Red Hat Ceph Storage の非接続インストール
Red Hat Ceph Storage 5 は、プライベートネットワークでのストレージクラスターの非接続インストールおよびブートストラップをサポートします。非接続インストールでは、ネットワークからファイルをダウンロードするのではなく、カスタムイメージ、設定ファイル、およびローカルホストが使用されます。
Red Hat レジストリーにアクセスできるプロキシーホストからダウンロードしたコンテナーイメージをインストールするか、ローカルレジストリーにコンテナーイメージをコピーします。ブートストラッププロセスでは、名前および IP アドレスで追加されるホストを識別する仕様ファイルが必要です。初回のモニターホストがブートストラップされたら、Ceph Orchestrator コマンドを使用してストレージクラスターを拡張し、設定できます。
詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
Ceph File System のジオレプリケーション
Red Hat Ceph Storage 5 リリース以降、Ceph File Systems (CephFS) は、地理的な場所または異なるサイト間で複製することができます。新しい
cephfs-mirror
デーモンは、スナップショットのリモートの CephFS への非同期レプリケーションを実行します。詳細は、Red Hat Ceph Storage ファイルシステムガイドの Ceph File System ミラー セクションを参照してください。
新しい Ceph File System クライアントパフォーマンスツール
Red Hat Ceph Storage 5 リリース以降、Ceph ファイルシステム (CephFS) は、Ceph ファイルシステムのメトリックをリアルタイムで表示するための
top
のようなユーティリティーを提供します。cephfs-top
ユーティリティーは、Ceph Manager のstats
モジュールを使用してクライアントパフォーマンスメトリックを取得して表示するcurses
ベースの Python スクリプトです。詳細は、Red Hat Ceph Storage ファイルシステムガイドの
cephfs-top
ユーティリティーの使用 セクションを参照してください。Red Hat Ceph Storage Dashboard を使用した Ceph オブジェクトゲートウェイのマルチサイトの監視
Red Hat Ceph Storage ダッシュボードを使用して、Ceph オブジェクトゲートウェイのマルチサイト設定をモニタリングできるようになりました。
cephadm
ユーティリティーを使用してマルチゾーンが設定されたら、あるゾーンのバケットが他のゾーンおよびその他のサイトに表示されます。ダッシュボードでバケットを作成、編集、削除することも可能です。詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードのマルチサイトオブジェクト設定のバケットの管理 の章を参照してください。
BlueStore スペースの使用状況を向上
Ceph Object Gateway および Ceph ファイルシステム (CephFS) は、小規模なオブジェクトおよびファイルを RADOS に個別のオブジェクトとして格納します。このリリースでは、SSD の場合は BlueStore の
min_alloc_size
のデフォルト値が、4 KB になりました。これにより、パフォーマンスに影響を及ぼさずに領域の使用が改善されます。詳細は、Red Hat Ceph Storage 管理ガイドの OSD BlueStore の章を参照してください。
3.1. Cephadm ユーティリティー
cephadm
は、同じホスト上で複数のデーモンのコロケーションをサポートします。
今回のリリースで、Ceph Object Gateway や Ceph Metadata Server(MDS) などの複数のデーモンを同じホストにデプロイできるようになり、パフォーマンスがさらに向上します。
例
service_type: rgw placement: label: rgw count-per-host: 2
単一ノードのデプロイメントの場合、cephadm
には、アップグレードシナリオで少なくとも実行中の Ceph Manager デーモンが 2 つ必要です。アップグレードシナリオ以外でも強く推奨しますが、これがない場合でもストレージクラスターは機能します。
Cephadm を使用した NFS-RGW の設定がサポートされるようになる
Red Hat Ceph Storage 5.0 設定では、回避策として NFS-RGW を使用するためにダッシュボードを使用する必要があり、そのようなユーザーには Red Hat Ceph Storage 5.1 までアップグレードを遅らせることが推奨されていました。
このリリースでは、NFS-RGW 設定がサポートされており、この設定を持つユーザーはストレージクラスターをアップグレードでき、期待どおりに機能します。
カスタムモニタリングスタックイメージを使用してストレージクラスターをブートストラップできるように
以前のバージョンでは、クラスターのブートストラップ後に、モニタリングスタックデーモンに使用されるイメージを手動で調整する必要がありました。
今回のリリースにより、以下のようにフォーマットされた設定ファイルを渡して、ブートストラップ時にモニタリングスタックデーモンのカスタムイメージを指定できるようになりました。
Syntax
[mgr] mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME
コマンドで --config CONFIGURATION_FILE_NAME
オプションを使用してブートストラップを実行できます。その他の設定オプションがある場合は、ストレージクラスターをブートストラップする前に、設定ファイルの上記の行を追加するだけです。
cephadm
で osd_memory_target
の自動調整が可能になる。
今回のリリースでは、cephadm
を使用するとデフォルトで osd_memory_target
設定パラメーターを自動調整できるようになっています。
サービスごとにデーモンの CPU 制限を指定できるように。
今回のリリースでは、extra_container_args フィールドで CPU 制限をサービス仕様ファイルに追加することで、指定のサービス内のすべてのデーモンの CPU 制限をカスタマイズできるようになりました。
例
service_type: mon service_name: mon placement: hosts: - host01 - host02 - host03 extra_container_args: - "--cpus=2" service_type: osd service_id: osd_example placement: hosts: - host01 extra_container_args: - "--cpus=2" spec: data_devices: paths: - /dev/sdb
cephadm
が Ceph Object Gateway デプロイメントの IPv6 ネットワークに対応
今回のリリースで、cephadm
は Ceph Object Gateway 仕様に IPv6 ネットワークを指定できるようになりました。Ceph Object Gateway をデプロイするサービス設定ファイルの例を以下に示します。
例
service_type: rgw service_id: rgw placement: count: 3 networks: - fd00:fd00:3000::/64
ceph nfs export create rgw
コマンドが、Ceph Object Gateway ユーザーのエクスポートに対応するようになりました。
以前のリリースでは、ceph nfs export create rgw
コマンドは、バケットレベルで Ceph Object Gateway エクスポートを作成していました。
今回のリリースでは、このコマンドはユーザーとバケットレベルの両方で Ceph Object Gateway エクスポートを作成するようになりました。
Syntax
ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]
例
[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24
3.2. Ceph Dashboard
Red Hat Ceph Storage Dashboard で HAProxy メトリックを表示できるようになりました。
今回のリリースにより、Red Hat は、Ceph Object Gateway エンドポイントに使用される Ingress サービスの新しい Grafana ダッシュボードを導入します。4 つの HAProxy メトリックを Ceph Object Gateway Daemons Overall Performance の下に表示できるようになりました。たとえば、HTTP コードによる応答合計数、要求/応答数、接続総数、合計の受信/送信バイト数などです。
Red Hat Ceph Storage Dashboard で mfa_ids
を表示可能に
今回のリリースで、Red Hat Ceph Storage Dashboard の User Details セクションで、Ceph Object Gateway ユーザーのマルチファクター認証 (MFA) が設定されたユーザーの mfa_ids
を表示できるようになりました。
3.3. Ceph Manager プラグイン
progress モジュールのグローバルリカバリーイベントが最適化されるように
このリリースでは、Python モジュールの代わりに C++コードを使用して、大容量ストレージクラスター内の多数のプレースメントグループのグローバルリカバリーイベントの進行状況の計算が最適化され、CPU 使用率が削減されます。
3.4. Ceph Volume ユーティリティー
lvm
コマンドは、コンテナー内で実行されたときにメタデータの破損を引き起こしません
以前は、lvm
コマンドをコンテナー内で直接実行すると、LVM メタデータが破損していました。
このリリースでは、ceph-volume
はホスト名前空間を使用して lvm
コマンドを実行し、メタデータの破損を回避します。
3.5. Ceph Object Gateway
Ceph Object Gateway リシャードキューからのロック競合メッセージを情報としてマーク
以前のバージョンでは、Ceph Object Gateway がリシャードキューのロックを取得できない場合に、出力ログエントリーがエラーになり、お客様に影響が及ぶ可能性がありました。
今回のリリースでは、出力ログのエントリーが情報提供として表示され、INFO: とタグ付けされるようになりました。
modulus および exponent を使用した OIDC JWT トークン検証のサポート追加
今回のリリースでは、OIDC JSON Web トークン (JWT) 検証が、署名の計算に modulus および exponent の使用をサポートするようになりました。また、OIDC JWT 検証に利用可能なメソッドのサポートも拡張されています。
ロール名およびロールセッションフィールドが一時認証情報の ops ログで利用できるようになりました。
以前のバージョンでは、ロール名およびロールセッションは利用できず、管理者は、どのロールが想定されているか、また使用されている一時的な認証情報に対して、どのセッションがどのセッションがアクティブであったかを把握するのは困難でした。
今回のリリースにより、S3 操作の実行用に、ops ログへのロール名およびロールセッションが、AssumeRole* API によって返される一時的な認証情報に使用できるようになりました。
--bucket
引数を使用してバケットのライフサイクルを処理できるように
今回のリリースにより、radosgw-admin lc process
コマンドに --bucket=BUCKET_NAME
引数を指定して、対応するバケットのライフサイクルを処理できるようになりました。これは、特定のバケットに影響を与えるライフサイクルの問題をデバッグしたり、遅れている特定のバケットのライフサイクル処理をバックフィルしたりするのに役立ちます。
3.6. マルチサイトの Ceph Object Gateway
マルチサイト設定で動的なバケットインデックスのリシャーディングに対応
以前のバージョンでは、マルチサイト設定のバケットの手動によるリシャーディングのみがサポートされるようになりました。
今回のリリースにより、動的バケットのリシャーディングがマルチサイト設定でサポートされるようになりました。ストレージクラスターがアップグレードされたら、resharding
機能を有効にし、ストレージクラスター内の他のゾーンとは別に、radogw-admin bucket reshard
コマンドを使用して手動で、または動的リシャーディングを使用して自動的にバケットをリシャーディングします。
3.7. RADOS
noautoscale
フラグを使用した PG Autoscaler の管理
今回のリリースでは、noautoscale
フラグを使用して pg_autoscaler
をグローバルに on
または off
できます。このフラグはデフォルトで off
に設定されます。このフラグを設定すると、すべてのプールの pg_autoscale_mode
が off
になります。
詳細は、Red Hat Ceph Storage ストレージストラテジーガイド の 自動スケーリングプロファイルの手動更新 セクションを参照してください。
--bulk
フラグを使用してプールを作成できるように。
今回のリリースでは、--bulk
フラグを使用してプールを作成できるようになりました。これは pg_autoscaler
のプロファイルを使用し、最初からパフォーマンスを向上して、配置グループ (PG) を完全に補完し、プールの使用量の比率が均等出ない場合にのみスケールダウンします。
プールに --bulk
フラグがない場合、プールは最小限の PG で起動します。
一括フラグでプールを作成するには、以下を実行します。
Syntax
ceph osd pool create POOL_NAME --bulk
既存プールに一括フラグを設定/設定解除するには、以下を実行します。
Syntax
ceph osd pool set POOL_NAME bulk TRUE/FALSE/1/0 ceph osd pool unset POOL_NAME bulk TRUE/FALSE/1/0
既存のプールの一括フラグを取得するには、以下を実行します。
Syntax
ceph osd pool get POOL_NAME --bulk
第4章 テクノロジープレビュー
本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。
テクノロジープレビュー機能は、実稼働環境での Red Hat サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。
Red Hat のテクノロジープレビュー機能のサポートについての詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
cephadm
ブートストラッププロセスが Red Hat Enterprise Linux 9 に対応
今回のリリースでは、Red Hat Enterprise Linux 8 ベースのストレージクラスター cephadm
ブートストラッププロセスが Red Hat Enterprise Linux 9 をサポートするようになりました。コンテナーは、Red Hat Enterprise Linux 9 サーバーを必要とする Red Hat Enterprise Linux 8 です。
マルチサイトレプリケーション設定の Ceph オブジェクトゲートウェイが AWS バケットレプリケーション API 機能のサブセットをサポートするように。
このリリースでは、Ceph Object Gateway は、{Put, Get, Delete} レプリケーション操作を含む AWS バケットレプリケーション API 機能のサブセットをサポートするようになりました。この機能により、バケットの粒度のレプリケーションが可能になり、さらにエンドユーザーのレプリケーション制御が提供されます。現在、バケットは既存の CephObject Gateway マルチサイトレプリケーションセットアップのゾーン内でレプリケートできます。
RADOS 上の sqlite 仮想ファイルシステム (VFS) が利用できるように。
今回のリリースでは、新しい libcephsqlite
RADOS クライアントライブラリーが RADOS に SQLite 仮想ファイルシステム (VFS) を提供するようになりました。データベースとジャーナルは、複数のオブジェクトにまたがる RADOS でストライプ化され、事実上無制限にスケーリングされ、スループットは SQLite クライアントでのみ制限されます。SQLite を使用するアプリケーションは、通常は代わりの VFS を指定するだけで、最小限の変更で Ceph VFS に変更される可能性があります。
NFS Ganesha デーモンをデプロイするための Ingress
フラグ
今回のリリースにより、--ingress
フラグを使用して 1 つ以上の NFS Ganesha デーモンをデプロイできるようになりました。Ingress
サービスは、NFS サーバーに負荷分散と高可用性を提供します。
第5章 非推奨になった機能
本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。
非推奨の機能は、Red Hat Ceph Storage 5 のサポートが終了するまで引き続きサポートされます。非推奨の機能は、本製品の今後のメジャーリリースではサポートされない可能性が高く、新たに実装することは推奨されません。特定のメジャーリリースにおける非推奨機能の最新情報は、そのメジャーリリースの最新版のリリースノートを参照してください。
CephFS の NFS サポートが非推奨に
CephFS に対する NFS サポートは非推奨となり、OpenShift Data Foundation で NFS の可用性がなくなりました。OpenStack Manila での NFS の Red Hat Ceph Storage サポートには影響はありません。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。
iSCSI サポートが非推奨に
iSCSI のサポートは非推奨となり、NVMEoF のサポートが追加されました。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。
Ceph 設定ファイルが非推奨に
Ceph 設定ファイル (ceph.conf
) が非推奨になり、Ceph Monitor に保管された新たな集中設定が提供されるようになりました。詳細は、Red Hat Ceph Storage Configuration Guideの The Ceph configuration database セクションを参照してください。
Ceph File System (CephFS) の min_compat_client
パラメーターが非推奨に
Red Hat Ceph Storage 5.0 では min_compat_client
パラメーターは非推奨となり、Ceph File Systems (CephFS) の設定用に新規クライアント機能が追加されます。詳細は、Red Hat Ceph Storage ファイルシステムガイドの クライアント機能 セクションを参照してください。
Ceph File System サブボリュームグループのスナップショットが非推奨に
Ceph File System (CephFS) サブボリュームグループのスナップショット機能は、Red Hat Ceph Storage 5.0 では非推奨になりました。既存のスナップショットは、必要に応じてリスト表示および削除できます。詳細は、Red Hat Ceph Storage Ceph ファイルシステムガイドの ファイルシステムサブボリュームグループのスナップショットのリスト表示 セクションおよび ファイルシステムサブボリュームグループのスナップショットの削除 セクションを参照してください。
Cockpit Ceph インストーラーが非推奨に
Cockpit Ceph Installer を使用した Red Hat Ceph Storage クラスター 5 のインストールはサポートされていません。Cephadm を使用して Red Hat Ceph Storage クラスターをインストールします。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
第6章 バグ修正
本セクションでは、Red Hat Ceph Storage の本リリースで修正された、ユーザーに影響するバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。
6.1. Cephadm ユーティリティー
.rgw.root
プールは、Ceph Object Gateway マルチサイトチェック中に自動的に作成されません
以前は、Ceph Object Gateway マルチサイトのチェックが cephadm
によって実行され、リリースでのシグナリングリグレッションを支援して、.rgw.root
プールが作成され、削除された場合は再作成されたため、ユーザーは .rgw.root
プールでスタックしていました。Ceph Object Gateway を使用していません。
この修正により、プールを作成したチェックが削除され、プールは作成されなくなります。システムにすでにプールがあるが、それを望まないユーザーは、レクリエーションの問題なしにプールを削除できるようになりました。このプールを持たないユーザーは、プールが自動的に作成されることはありません。
6.2. Ceph ファイルシステム
宛先ディレクトリーがいっぱいになっても、漂遊エントリーの再統合は失敗しません
以前は、Ceph メタデータサーバーは、リンクされていないファイルへの参照がある場合、つまり、削除されたファイルにハードリンクがある場合、またはスナップショットの一部である場合に、ファイルを再統合していました。宛先ディレクトリーがいっぱいの場合、本質的に内部の名前変更操作である再統合は失敗しました。その結果、Ceph Metadata Server は漂遊または削除されたエントリーの再統合に失敗しました。
このリリースでは、漂遊エントリーの再統合中のフルスペースチェックは無視され、宛先ディレクトリーがいっぱいになった場合でも、これらの漂遊エントリーは再統合されます。
新しいクライアントからメトリックを受信するときに MDS デーモンがクラッシュしなくなりました
以前は、特定のシナリオでは、古い CephFS クラスターに新しいクライアントが使用されていました。古い CephFS をアップグレードしている間、cephadm
または mgr
は新しいクライアントを使用して、古い Ceph クラスターでチェック、テスト、または設定を実行しました。このため、新しいクライアントから不明なメトリックを受信すると、MDS デーモンがクラッシュしました。
この修正により、libceph
クライアントは、MDS デーモンでサポートされているメトリックのみをデフォルトとして MDS に送信します。ユーザーが安全だと思ったときにすべてのメトリックを強制的に有効にするオプションも追加されています。
同時ルックアップおよびリンク解除操作中に Ceph Metadata Server がクラッシュしなくなりました
以前は、Ceph クライアントからの同時ルックアップ操作とリンク解除操作でヒットする、コードに配置されたアサートの誤った仮定により、Ceph Metadata Server がクラッシュしていました。
最新の修正により、アサーションは、同時ルックアップおよびリンク解除操作中の仮定が有効である関連する場所に移動され、Ceph Metadata Server がクラッシュすることなく Ceph Metadata Server 操作を提供し続けることになります。
6.3. Ceph Object Gateway
FIPS 環境での暗号化以外の目的で MD5 の使用が可能
以前は、FIPS が有効な環境では、暗号化以外の目的で明示的に除外されていない限り、MD5 ダイジェストの使用はデフォルトで許可されていませんでした。このため、S3 の完全なマルチパートアップロード操作中にセグメンテーション違反が発生しました。
この修正により、S3 の完全なマルチパート PUT
操作のための FIPS 環境での非暗号化目的での MD5 の使用が明示的に許可され、S3 のマルチパート操作を完了することができます。
6.4. RADOS
ceph-objectstore-tool
コマンドを使用すると、蓄積された PG ログ重複エントリーを手動でトリミングできます。
以前は、PG ログ重複エントリーのトリミングは、人間のオペレーターよりもはるかに高い頻度で PG オートスケーラーによって使用される低レベルの PG 分割操作中に防止されていました。重複を取り除くと、PG ログのメモリー増大が大幅に増大し、OSD がメモリーが不足するとクラッシュしていました。OSD を再起動しても、PG ログはディスクに保存され、起動時に RAM に再ロードされるため、問題は解決しませんでした。
今回の修正で、ceph-objectstore-tool
コマンドにより、累積された PG ログ dups エントリーを手動でトリミングし、自動トリミングの機械ドロップ解除が可能になりました。将来の調査に役立つように、重複エントリーの数を OSD のログに出力するデバッグの改善が実装されています。
6.5. RBD ミラーニング
スナップショットベースのミラーリングプロセスがキャンセルされなくなりました
以前は、内部の競合状態の結果として、rbd mirror snapshot schedule add
コマンドがキャンセルされていました。他の既存のスケジュールが適用できない場合、影響を受けるイメージのスナップショットベースのミラーリングプロセスは開始されません。
このリリースでは、競合状態が修正され、スナップショットベースのミラーリングプロセスが期待どおりに開始されます。
イメージがプライマリーにプロモートされると、既存のスケジュールが有効になります
以前は、最適化が適切に考慮されていなかったため、イメージがプライマリーにプロモートされた後、既存のスケジュールが有効にならず、最近プロモートされたイメージに対してスナップショットベースのミラーリングプロセスが開始されませんでした。
このリリースでは、この問題の原因となっている最適化が削除され、イメージがプライマリーにプロモートされ、スナップショットベースのミラーリングプロセスが期待どおりに開始されたときに既存のスケジュールが有効になります。
rbd-mirror
デーモンが排他ロックを取得しなくなりました
以前は、論理エラーが原因で、rbd-mirror
デーモンが事実上のプライマリーイメージの排他ロックを取得する可能性がありました。このため、影響を受けるイメージのスナップショットベースのミラーリングプロセスが停止し、failed to unlink local peer from remote image というエラーが報告されます。
このリリースでは、論理エラーが修正され、rbd-mirror
デーモンが事実上のプライマリーイメージの排他ロックを取得せず、スナップショットベースのミラーリングプロセスが停止せず、期待どおりに機能しなくなりました。
rbd-mirror
によって使用されるミラースナップショットキューが拡張され、削除されなくなりました
以前は、内部競合状態の結果として、セカンダリークラスターで rbd-mirror
デーモンによって使用されていたミラースナップショットが削除され、影響を受けるイメージのスナップショットベースのミラーリングプロセスが停止し、split-brain エラーが報告されていました。
このリリースでは、ミラースナップショットキューの長さが延長され、それに応じてミラースナップショットのクリーンアップ手順が修正され、セカンダリークラスターの rbd-mirror
デーモンおよびスナップショットベースでまだ使用されているミラースナップショットの自動削除が修正されました。ミラーリングプロセスは停止しません。
6.6. Ceph Ansible ユーティリティー
Playbook の導入により、OSD ノードに cephadm
をインストールできるようになりました。
以前のバージョンでは、tools リポジトリーが OSD ノードで無効にされているため、cephadm
OSD ノードをインストールすることができませんでした。これにより、採用 Playbook が失敗しました。
今回の修正により、tools リポジトリーが OSD ノードで有効にされ、導入 Playbook が OSD ノードに cephadm
をインストールできるようになりました。
レガシーディレクトリーを削除すると、エラーのないクラスターが後継に実行されるようになります。
以前は、cephadm
は、/var/lib/ceph/mon
などのレガシーディレクトリーが見つかると config inferring で予期しない動作を示していました。この動作により、採用後、クラスターには CEPHADM_REFRESH_FAILED: failed to probe daemon or devices というエラーメッセージが表示されていました。
今回のリリースにより、導入 Playbook により、このディレクトリーが削除され、クラスターが採用後に error 状態のままなくなりました。
第7章 既知の問題
本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。
7.1. Ceph Object Gateway
yes-i-know
フラグを使用して、Red Hat Ceph Storage クラスター 5.1 をブートストラップします。
Red Hat Ceph Storage クラスター 5.1 でのマルチサイトの設定に対する警告が出されます。
この問題を回避するには、ブートストラップ時に yes-i-know
フラグを渡す必要があります。
Syntax
sudo --image IMAGE_NAME bootstrap --mon-ip IP_ADDRESS --yes-i-know
Red Hat Ceph Storage 5.1 へのアップグレード中にユーザーに警告が表示される
以前は、Red Hat Ceph Storage 5.0 でリシャーディングされたバケットは、Red Hat Ceph Storage 5.1 Ceph Object Gateway デーモンでは理解できない可能性がありました。そのため、Red Hat Ceph Storage 5.1 にアップグレードするすべてのユーザーが確実に認識できるように、アップグレードの警告またはブロッカーが追加されました。以前に Red Hat Ceph Storage 5.1 を使用していた場合はダウングレードできます。
回避策として、ceph config set mgr mgr/cephadm/yes_i_know true --force
コマンドを実行して、警告またはブロッカーを削除し、すべての操作を通常に戻します。ユーザーは、Red Hat Ceph Storage 5.1 にアップグレードする前に、Ceph Object Gateway の問題を認識していることを認める必要があります。
フラグが渡されていない場合は、マルチサイトのリグレッションに関するメッセージと、問題のナレッジベースアーティクルへのリンクが表示されます。
第8章 ドキュメント
このセクションでは、Red Hat Ceph Storage のこのリリースでのドキュメントの機能強化について説明します。
8.1. アップグレードガイド
アップグレード手順は、別のガイドで利用できるようになりました。
アップグレード手順は、インストールガイド では提供されなくなり、別のガイドとして利用できるようになりました。Red Hat Ceph Storage クラスターをアップグレードする方法の詳細については、Red Hat Ceph Storage Upgrade Guide を参照してください。
第9章 ソース
更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。
- Red Hat Enterprise Linux 8 の場合: http://ftp.redhat.com/redhat/linux/enterprise/8Base/en/RHCEPH/SRPMS/