3.4. Ceph ファイルシステムへのイレイジャーコーディングされたプールの追加
デフォルトでは、Ceph はデータプールにレプリケートされたプールを使用します。必要に応じて、Ceph File System に新たなイレイジャーコーディングデータプールを追加することもできます。イレイジャーコーディングプールが対応する Ceph File Systems (CephFS) は、複製されたプールでサポートされる Ceph File Systems と比較して、全体的なストレージの使用量を使用します。イレイジャーコーディングされたプールは、全体的なストレージを使用しますが、レプリケートされたプールよりも多くのメモリーおよびプロセッサーリソースを使用します。
CephFS EC プールはアーカイブのみを目的としています。
実稼働環境では、CephFS にデフォルトのレプリケートデータプールを使用することを推奨します。CephFS で inode を作成すると、デフォルトのデータプールに少なくとも 1 つのオブジェクトが作成されます。デフォルトのデータにレプリケートされたプールを使用すると、小規模なオブジェクト書き込みパフォーマンスを向上し、バックトレースを更新する読み取りパフォーマンスが向上します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- 既存の Ceph File System。
- BlueStore OSD を使用するプール。
- Ceph Monitor ノードへの root レベルのアクセス。
-
attr
パッケージのインストール。
手順
CephFS 用のイレイジャーコーディングデータプールを作成します。
構文
ceph osd pool create DATA_POOL_NAME erasure
例
[root@mon ~]# ceph osd pool create cephfs-data-ec01 erasure pool 'cephfs-data-ec01' created
プールが追加されたことを確認します。
例
[root@mon ~]# ceph osd lspools
消去コード化されたプールでのオーバーライトを有効にします。
構文
ceph osd pool set DATA_POOL_NAME allow_ec_overwrites true
例
[root@mon ~]# ceph osd pool set cephfs-data-ec01 allow_ec_overwrites true set pool 15 allow_ec_overwrites to true
Ceph File System のステータスを確認します。
構文
ceph fs status FILE_SYSTEM_NAME
例
[root@mon ~]# ceph fs status cephfs-ec cephfs-ec - 14 clients ========= RANK STATE MDS ACTIVITY DNS INOS DIRS CAPS 0 active cephfs-ec.example.ooymyq Reqs: 0 /s 8231 8233 891 921 POOL TYPE USED AVAIL cephfs-metadata-ec metadata 787M 8274G cephfs-data-ec data 2360G 12.1T STANDBY MDS cephfs-ec.example.irsrql cephfs-ec.example.cauuaj
既存の CephFS にイレイジャーコーディングのデータプールを追加します。
構文
ceph fs add_data_pool FILE_SYSTEM_NAME DATA_POOL_NAME
例
[root@mon ~]# ceph fs add_data_pool cephfs-ec cephfs-data-ec01
この例では、新しいデータプール
cephfs-data-ec01
を、既存のイレイジャーコーディングのファイルシステムcephfs-ec
に追加します。イレイジャーコーディングされたプールが Ceph File System に追加されていることを確認します。
構文
ceph fs status FILE_SYSTEM_NAME
例
[root@mon ~]# ceph fs status cephfs-ec cephfs-ec - 14 clients ========= RANK STATE MDS ACTIVITY DNS INOS DIRS CAPS 0 active cephfs-ec.example.ooymyq Reqs: 0 /s 8231 8233 891 921 POOL TYPE USED AVAIL cephfs-metadata-ec metadata 787M 8274G cephfs-data-ec data 2360G 12.1T cephfs-data-ec01 data 0 12.1T STANDBY MDS cephfs-ec.example.irsrql cephfs-ec.example.cauuaj
新しいディレクトリーにファイルレイアウトを設定します。
構文
mkdir PATH_TO_DIRECTORY setfattr -n ceph.dir.layout.pool -v DATA_POOL_NAME PATH_TO_DIRECTORY
例:
[root@mon ~]# mkdir /mnt/cephfs/newdir [root@mon ~]# setfattr -n ceph.dir.layout.pool -v cephfs-data-ec01 /mnt/cephfs/newdir
この例では、
/mnt/cephfs/newdir
ディレクトリーで作成されるすべての新しいファイルは、ディレクトリーレイアウトを継承して、新たに追加したレイジャーコーディングプールにデータを配置します。
関連情報
- CephFS MDS の詳細は、Red Hat Ceph Storage File System Guide の The Ceph File System Metadata Server を参照してください。
- 詳細は、Red Hat Ceph Storage File System Guide の Creating Ceph File Systems セクションを参照してください。
- 詳細は、Red Hat Ceph Storage Storage Strategies Guide の Erasure Code Pools を参照してください。
- 詳細は、Red Hat Ceph Storage Storage Strategies Guideの Erasure Coding with Overwrites セクションを参照してください。