第3章 新機能
本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
本リリースで追加された主な機能は以下のとおりです。
コンテナー化されたクラスター
Red Hat Ceph Storage 5 は、コンテナー化されたデーモンのみをサポートします。コンテナーされていないストレージクラスターはサポートされません。コンテナー化されていないストレージクラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードする場合、アップグレードプロセスには、コンテナー化されたデプロイメントへの変換が含まれます。
詳細は、Red Hat Ceph Storage Installation Guideの Upgrading a Red Hat Ceph Storage cluster from RHCS 4 to RHCS 5 セクションを参照してください。
Cephadm
Cephadm は、manager デーモンからホストに接続して Red Hat Ceph Storage 5 クラスターをデプロイし、管理する新しいコンテナー化されたデプロイメントツールです。
cephadm
ユーティリティーは、Red Hat Ceph Storage デプロイメントのceph-ansible
に代わるものです。Cephadm の目的は、Red Hat Ceph Storage をための、フル機能を備え、堅牢で、適切にインストールされた管理レイヤーを提供することです。cephadm
コマンドは、Red Hat Ceph Storage クラスターの完全なライフサイクルを管理します。cephadm
コマンドは、以下の操作を行うことができます。- 新しい Ceph Storage クラスターをブートストラップします。
- Ceph コマンドラインインターフェイス (CLI) と連携するコンテナー化されたシェルを起動します。
コンテナー化されたデーモンのデバッグを支援します。
cephadm
コマンドはssh
を使用してストレージクラスターのノードと通信し、Ceph デーモンコンテナーを追加、削除、または更新します。これにより、外部ツールを使用せずに Red Hat Ceph Storage コンテナーを追加、削除、または更新できます。cephadm
コマンドには、2 つの主要コンポーネントがあります。-
cephadm
シェルは、コンテナー内のbash
シェルを起動します。これにより、ストレージクラスターのインストールと設定タスクを実行し、コンテナーでceph
コマンドを実行できます。 cephadm
オーケストレーターコマンドにより、Ceph デーモンおよびサービスをプロビジョニングし、ストレージクラスターを拡張できます。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
管理 API
管理 API は、Red Hat Ceph Storage 5 に適用される管理スクリプトを作成し、バージョンのライフサイクルには変更されない動作を維持します。互換性のないバージョンの API は、メジャーリリースの行ごとにのみ発生します。
詳細は、Red Hat Ceph Storage 開発者ガイド を参照してください。
Red Hat Ceph Storage の非接続インストール
Red Hat Ceph Storage 5 は、プライベートネットワークでのストレージクラスターの非接続インストールおよびブートストラップをサポートします。非接続インストールでは、ネットワークからファイルをダウンロードするのではなく、カスタムイメージ、設定ファイル、およびローカルホストが使用されます。
Red Hat レジストリーにアクセスできるプロキシーホストからダウンロードしたコンテナーイメージをインストールするか、ローカルレジストリーにコンテナーイメージをコピーします。ブートストラッププロセスでは、名前および IP アドレスで追加されるホストを識別する仕様ファイルが必要です。初回のモニターホストがブートストラップされたら、Ceph Orchestrator コマンドを使用してストレージクラスターを拡張し、設定できます。
詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
Ceph File System のジオレプリケーション
Red Hat Ceph Storage 5 リリース以降、Ceph File Systems (CephFS) は、地理的な場所または異なるサイト間で複製することができます。新しい
cephfs-mirror
デーモンは、スナップショットのリモートの CephFS への非同期レプリケーションを実行します。詳細は、Red Hat Ceph Storage ファイルシステムガイドの Ceph File System ミラー セクションを参照してください。
新しい Ceph File System クライアントパフォーマンスツール
Red Hat Ceph Storage 5 リリース以降、Ceph ファイルシステム (CephFS) は、Ceph ファイルシステムのメトリックをリアルタイムで表示するための
top
のようなユーティリティーを提供します。cephfs-top
ユーティリティーは、Ceph Manager のstats
モジュールを使用してクライアントパフォーマンスメトリックを取得して表示するcurses
ベースの Python スクリプトです。詳細は、Red Hat Ceph Storage ファイルシステムガイドの
cephfs-top
ユーティリティーの使用 セクションを参照してください。Red Hat Ceph Storage Dashboard を使用した Ceph オブジェクトゲートウェイのマルチサイトの監視
Red Hat Ceph Storage ダッシュボードを使用して、Ceph オブジェクトゲートウェイのマルチサイト設定をモニタリングできるようになりました。
cephadm
ユーティリティーを使用してマルチゾーンが設定されたら、あるゾーンのバケットが他のゾーンおよびその他のサイトに表示されます。ダッシュボードでバケットを作成、編集、削除することも可能です。詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードのマルチサイトオブジェクト設定のバケットの管理 の章を参照してください。
BlueStore スペースの使用状況を向上
Ceph Object Gateway および Ceph ファイルシステム (CephFS) は、小規模なオブジェクトおよびファイルを RADOS に個別のオブジェクトとして格納します。このリリースでは、SSD の場合は BlueStore の
min_alloc_size
のデフォルト値が、4 KB になりました。これにより、パフォーマンスに影響を及ぼさずに領域の使用が改善されます。詳細は、Red Hat Ceph Storage 管理ガイドの OSD BlueStore の章を参照してください。
3.1. Cephadm ユーティリティー
cephadm
は、同じホスト上で複数のデーモンのコロケーションをサポートします。
今回のリリースで、Ceph Object Gateway や Ceph Metadata Server(MDS) などの複数のデーモンを同じホストにデプロイできるようになり、パフォーマンスがさらに向上します。
例
service_type: rgw placement: label: rgw count-per-host: 2
単一ノードのデプロイメントの場合、cephadm
には、アップグレードシナリオで少なくとも実行中の Ceph Manager デーモンが 2 つ必要です。アップグレードシナリオ以外でも強く推奨しますが、これがない場合でもストレージクラスターは機能します。
Cephadm を使用した NFS-RGW の設定がサポートされるようになる
Red Hat Ceph Storage 5.0 設定では、回避策として NFS-RGW を使用するためにダッシュボードを使用する必要があり、そのようなユーザーには Red Hat Ceph Storage 5.1 までアップグレードを遅らせることが推奨されていました。
このリリースでは、NFS-RGW 設定がサポートされており、この設定を持つユーザーはストレージクラスターをアップグレードでき、期待どおりに機能します。
カスタムモニタリングスタックイメージを使用してストレージクラスターをブートストラップできるように
以前のバージョンでは、クラスターのブートストラップ後に、モニタリングスタックデーモンに使用されるイメージを手動で調整する必要がありました。
今回のリリースにより、以下のようにフォーマットされた設定ファイルを渡して、ブートストラップ時にモニタリングスタックデーモンのカスタムイメージを指定できるようになりました。
Syntax
[mgr] mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME
コマンドで --config CONFIGURATION_FILE_NAME
オプションを使用してブートストラップを実行できます。その他の設定オプションがある場合は、ストレージクラスターをブートストラップする前に、設定ファイルの上記の行を追加するだけです。
cephadm
で osd_memory_target
の自動調整が可能になる。
今回のリリースでは、cephadm
を使用するとデフォルトで osd_memory_target
設定パラメーターを自動調整できるようになっています。
サービスごとにデーモンの CPU 制限を指定できるように。
今回のリリースでは、extra_container_args フィールドで CPU 制限をサービス仕様ファイルに追加することで、指定のサービス内のすべてのデーモンの CPU 制限をカスタマイズできるようになりました。
例
service_type: mon service_name: mon placement: hosts: - host01 - host02 - host03 extra_container_args: - "--cpus=2" service_type: osd service_id: osd_example placement: hosts: - host01 extra_container_args: - "--cpus=2" spec: data_devices: paths: - /dev/sdb
cephadm
が Ceph Object Gateway デプロイメントの IPv6 ネットワークに対応
今回のリリースで、cephadm
は Ceph Object Gateway 仕様に IPv6 ネットワークを指定できるようになりました。Ceph Object Gateway をデプロイするサービス設定ファイルの例を以下に示します。
例
service_type: rgw service_id: rgw placement: count: 3 networks: - fd00:fd00:3000::/64
ceph nfs export create rgw
コマンドが、Ceph Object Gateway ユーザーのエクスポートに対応するようになりました。
以前のリリースでは、ceph nfs export create rgw
コマンドは、バケットレベルで Ceph Object Gateway エクスポートを作成していました。
今回のリリースでは、このコマンドはユーザーとバケットレベルの両方で Ceph Object Gateway エクスポートを作成するようになりました。
Syntax
ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]
例
[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24