第3章 新機能
本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
本リリースで追加された主な機能は以下のとおりです。
コンテナー化されたクラスター
Red Hat Ceph Storage 5 は、コンテナー化されたデーモンのみをサポートします。コンテナーされていないストレージクラスターはサポートされません。コンテナー化されていないストレージクラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードする場合、アップグレードプロセスには、コンテナー化されたデプロイメントへの変換が含まれます。
詳細は、Red Hat Ceph Storage Installation Guideの Upgrading a Red Hat Ceph Storage cluster from RHCS 4 to RHCS 5 セクションを参照してください。
Cephadm
Cephadm は、manager デーモンからホストに接続して Red Hat Ceph Storage 5.0 クラスターをデプロイし、管理する新しいコンテナー化されたデプロイメントツールです。
cephadm
ユーティリティーは、Red Hat Ceph Storage デプロイメントのceph-ansible
に代わるものです。Cephadm の目的は、Red Hat Ceph Storage をための、フル機能を備え、堅牢で、適切にインストールされた管理レイヤーを提供することです。cephadm
コマンドは、Red Hat Ceph Storage クラスターの完全なライフサイクルを管理します。Red Hat Ceph Storage 5.0 以降、
ceph-ansible
はサポートされなくなり、製品と互換性がなくなりました。Red Hat Ceph Storage 5.0 に移行したら、cephadm
およびcephadm-ansible
を使用して更新を実行する必要があります。cephadm
コマンドは、以下の操作を行うことができます。- 新しい Ceph Storage クラスターをブートストラップします。
- Ceph コマンドラインインターフェイス (CLI) と連携するコンテナー化されたシェルを起動します。
コンテナー化されたデーモンのデバッグを支援します。
cephadm
コマンドはssh
を使用してストレージクラスターのノードと通信し、Ceph デーモンコンテナーを追加、削除、または更新します。これにより、外部ツールを使用せずに Red Hat Ceph Storage コンテナーを追加、削除、または更新できます。cephadm
コマンドには、2 つの主要コンポーネントがあります。-
cephadm
シェルは、コンテナー内のbash
シェルを起動します。これにより、ストレージクラスターのインストールと設定タスクを実行し、コンテナーでceph
コマンドを実行できます。 cephadm
オーケストレーターコマンドにより、Ceph デーモンおよびサービスをプロビジョニングし、ストレージクラスターを拡張できます。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
管理 API
管理 API は、Red Hat Ceph Storage 5.0 に適用される管理スクリプトを作成し、バージョンのライフサイクルには変更されない動作を維持します。互換性のないバージョンの API は、メジャーリリースの行ごとにのみ発生します。
詳細は、Red Hat Ceph Storage 開発者ガイド を参照してください。
Red Hat Ceph Storage の非接続インストール
Red Hat Ceph Storage 5.0 は、プライベートネットワークでのストレージクラスターの非接続インストールおよびブートストラップをサポートします。非接続インストールでは、ネットワークからファイルをダウンロードするのではなく、カスタムイメージ、設定ファイル、およびローカルホストが使用されます。
Red Hat レジストリーにアクセスできるプロキシーホストからダウンロードしたコンテナーイメージをインストールするか、ローカルレジストリーにコンテナーイメージをコピーします。ブートストラッププロセスでは、名前および IP アドレスで追加されるホストを識別する仕様ファイルが必要です。初回のモニターホストがブートストラップされたら、Ceph Orchestrator コマンドを使用してストレージクラスターを拡張し、設定できます。
詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
Ceph File System のジオレプリケーション
Red Hat Ceph Storage 5 リリース以降、Ceph File Systems (CephFS) は、地理的な場所または異なるサイト間で複製することができます。新しい
cephfs-mirror
デーモンは、スナップショットのリモートの CephFS への非同期レプリケーションを実行します。詳細は、Red Hat Ceph Storage ファイルシステムガイドの Ceph File System ミラー セクションを参照してください。
新しい Ceph File System クライアントパフォーマンスツール
Red Hat Ceph Storage 5 リリース以降、Ceph ファイルシステム (CephFS) は、Ceph ファイルシステムのメトリックをリアルタイムで表示するための
top
のようなユーティリティーを提供します。cephfs-top
ユーティリティーは、Ceph Manager のstats
モジュールを使用してクライアントパフォーマンスメトリックを取得して表示するcurses
ベースの Python スクリプトです。詳細は、Red Hat Ceph Storage ファイルシステムガイドの
cephfs-top
ユーティリティーの使用 セクションを参照してください。Red Hat Ceph Storage Dashboard を使用した Ceph オブジェクトゲートウェイのマルチサイトの監視
Red Hat Ceph Storage ダッシュボードを使用して、Ceph オブジェクトゲートウェイのマルチサイト設定をモニタリングできるようになりました。
cephadm
ユーティリティーを使用してマルチゾーンが設定されたら、あるゾーンのバケットが他のゾーンおよびその他のサイトに表示されます。ダッシュボードでバケットを作成、編集、削除することも可能です。詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードのマルチサイトオブジェクト設定のバケットの管理 の章を参照してください。
BlueStore スペースの使用状況を向上
Ceph Object Gateway および Ceph ファイルシステム (CephFS) は、小規模なオブジェクトおよびファイルを RADOS に個別のオブジェクトとして格納します。このリリースでは、SSD の場合は BlueStore の
min_alloc_size
のデフォルト値が、4 KB になりました。これにより、パフォーマンスに影響を及ぼさずに領域の使用が改善されます。詳細は、Red Hat Ceph Storage 管理ガイドの OSD BlueStore の章を参照してください。
3.1. Cephadm ユーティリティー
Red Hat Ceph Storage が Ceph OSD メモリーターゲットを自動的にチューニングできるようになりました。
このリリースでは、osd_memory_target_autotune
オプションが修正され、期待どおりに機能するようになりました。ユーザーは、Red Hat Ceph Storage を有効にして、Ceph OSD のメモリーターゲットを明示的に設定しなくても、ストレージクラスター内の Ceph OSD の Ceph OSD メモリーターゲットを自動的に調整してパフォーマンスを向上させることができます。Red Hat Ceph Storage は、利用可能な合計メモリーとノードで実行しているデーモンを評価することで、Ceph OSD メモリーターゲットをノードごとに設定します。
以下のコマンドを実行すると、Ceph OSD のメモリー自動チューニング機能を有効にできます。
ceph config set osd osd_memory_target_autotune true