第2章 本リリースで変更された内容
2.1. 本リリースにおける最新情報
本セクションでは、Red Hat Gluster Storage 3.5 リリースの主要機能および機能拡張を説明します。
- Red Hat Gluster Storage がアップストリーム glusterfs バージョン 6 に更新されました。
- Samba がアップストリームバージョン 4.9.8 に更新されました。
- NFS-Ganesha がアップストリームバージョン 2.7.3 にアップデートされました。
- NFSのバージョン4.1に対応しました。
- ディレクトリのコンテンツが設定可能なチャンクで読み込まれるようになったため、非常に大きなディレクトリリストでも、NFS-Ganeshaクライアントに提供する前にディレクトリ全体が読み込まれるのを待つ必要がなくなり、より高速に提供されるようになりました。
- Red Hat Gluster Storage では、レプリケートされたサブボリューム間の拡張属性として独自の ctime 属性のオプションが提供されるようになり、自己修復が発生した後など、ファイルシステムベースの ctime を使用した場合に発生していたレプリケートされたブリックと配布されたブリック間の一貫性の問題が回避されるようになりました。
- 異なるサブボリューム内のブリックを異なるサイズにすることができ、 Glusterのアルゴリズムはファイルの配置範囲を決定する際に これを考慮するようになりました。利用可能なスペースのアルゴリズムが更新され、異なるブリックサイズに対してより良く機能するようになりました。同じレプリカセットや分散セットに属するブリックは、これまでどおり同じサイズでなければなりません。
- ブリックのデフォルトの最大ポート番号は、65535ではなく60999になりました。
- 管理者は、禁止されたノードの証明書をCertificate Revocation Listファイルに追加し、そのファイルのパスを新しいssl.crl-pathボリュームオプションに指定することで、証明書が失効したノードがクラスタにアクセスしないようにできるようになりました。
- Gluster-ansible が Red Hat Gluster Storage の IPv6 ネットワーキングを設定できるようになりました。
- op-versionが70000以上のクラスター上の新しいボリュームに対して、storage.fips-mode-rchecksumボリュームオプションがデフォルトで有効になりました。
- Geo レプリケーションの設定は、時間がかかり、エラーが発生しやすいプロセスでした。Geo レプリケーションのサポートがgdeployによって提供されるようになり、設定の自動化とこのプロセスにおけるエラーの削減が可能になりました。
- 新しい API である glfs_set_statedump_path により、ユーザーは statedump 出力を保存するディレクトリを設定することができます。例えば、以下のコールでは、/tmpディレクトリをstatumpパスとして設定します。
glfs_set_statedump_path(fs2, "/tmp");
- umaskのオーバーライドを可能にする新しい設定オプションが追加されました。
storage.create-directory-mask
およびstorage.create-mask
オプションは、ディレクトリおよびその他のファイルのファイルモードをそれぞれ指定されたマスクに制限します。storage.force-directory-mode
およびstorage.force-create-mode
オプションは、ディレクトリおよびその他のファイルに対して、それぞれ指定されたモードビットの存在を強制します。なお、これらのモード制約は、与えられたオプション値が有効である限り維持され、ファイル作成時にのみ適用されるわけではありません。 - NFS-Ganeshaは、アクティブ-アクティブの高可用性構成を維持するために必要なアップコール通知を、非同期コールバックで受け取るようになりました。これにより、継続的なポーリングが不要になり、CPUとメモリの使用量が削減されます。
- NFS-Ganeshaサーバーからアクセス制御リストやその他のエクスポート情報を取得するためのdbusコマンドが新たに追加されました。
- storage.reserveオプションは、利用可能なスペースをパーセンテージだけでなく、サイズで確保できるようになりました。
- 非同期のI/O操作は、正常終了の通知を受ける時点で、ワークフローのボトルネックにより、遅延していました。ボトルネックが解消され、非同期のI/O操作のパフォーマンスが向上しました。
- Red Hat Gluster Storage 3.4 と比較して、パフォーマンスが向上しました。
NFS-Ganesha v4.1のマウント
- レプリカ3およびarbiterボリューム上の小さなファイルに対するls -l/stat/chmodの動作が6-10倍向上しました。
- メタデータを多用する操作が改善され、分散したボリュームの小さなファイルのパフォーマンスを向上しました。
- chmod - 106%
- creates - 27%
- stat - 808%
- reads - 130%
- appends - 52%
- rename -36%
- delete-renamed - 70%
- mkdir - 52%
- rmdir - 58%
- 分散されたボリュームでの大きなファイルの連続した書き込みパフォーマンスが47%向上しました。
- レプリカ3ボリュームでの大きなファイルの連続した読み取り/書き込みパフォーマンスが向上しました(それぞれ20%と60%)。
Gluster-FUSEマウント
- arbiterボリュームにでの大きなファイルの連続した読み取りパフォーマンスが20%向上しました。
- 分散されたボリュームでの小さなファイルのmkdir/rmdir/rename操作が向上しました(それぞれ24/25/10 %)。