11.3. サポートされるボリュームオプション
以下の表は、利用可能なボリュームオプションとその説明およびデフォルト値を一覧表示しています。
重要
デフォルト値は変更される可能性がありますが、Red Hat Gluster Storage のすべてのバージョンで同じとは限りません。
オプション | 値の説明 | 許可される値 | デフォルト値 |
---|---|---|---|
auth.allow | ボリュームにアクセスできるクライアントの IP アドレスまたはホスト名。 | * を含むワイルドカードパターンを含む、有効なホスト名または IP アドレス。例: 192.168.1.* コンマで区切ったアドレスのリストは受け入れ可能ですが、1 つのホスト名を 256 文字を超えることはできません。 | * (すべて許可) |
auth.reject |
ボリュームへのアクセスが拒否された FUSE クライアントの IP アドレスまたはホスト名。NFS アクセス制御の場合は、代わりに
nfs.rpc-auth-* オプションを使用します。
auth.reject が優先され、auth.allow を上書きします。auth.allow と auth.reject に同じ IP アドレスが含まれる場合は、auth.reject を考慮します。
| * を含むワイルドカードパターンを含む、有効なホスト名または IP アドレス。例: 192.168.1.* コンマで区切ったアドレスのリストは受け入れ可能ですが、1 つのホスト名を 256 文字を超えることはできません。 | none (拒否なし) |
changelog | changelog トランスレーターがすべてのファイル操作を記録できるようにします。 | on | off | off |
client.event-threads | Red Hat Gluster Storage ノードにアクセスするクライアントプロセスで同時に処理されるネットワーク接続の数を指定します。 | 1 - 32 | 2 |
client.strict-locks | このオプションを有効にすると、POSIX ロックが保持されていれば、再接続後に保存された fds を再度開きません。したがって、これらの fds での後続の操作は失敗します。これは、クライアントが切断されたときに、許可されたロックのブリック消去としてより厳格なロックコンプライアンスに必要です。 | on | off | off |
重要 client.strict-locks オプションを有効にする前に、すべてのサーバーとクライアントを RHGS-3.5.5 にアップグレードします。
| |||
cluster.background-self-heal-count | 同時に発生する可能性がある最大の修復操作数。この数の過半数を超える要求は、cluster.heal-wait-queue-leng によって定義される長さがキューに保存されます。 | 0–256 | 8 |
cluster.brick-multiplex |
Red Hat Gluster Storage 3.3 以降で利用可能です。すべてのボリュームでブリック多重化を使用するかどうかを制御します。Red Hat は、ブリックマルチプレッシングを有効または無効にすると、ボリュームを再起動することを推奨します。
off (デフォルト) に設定すると、各ブリックには独自のプロセスがあり、独自のポートを使用します。on に設定すると、相互に互換性のあるブリックは同じプロセスとポートを使用します。これにより、ブリックメモリーごとの使用量とポートの消費が減ります。
ブリック互換性は、ボリュームの開始時に決定され、ブリック間で共有されるボリュームオプションにより異なります。多重化が有効な場合は、1 つのプロセスでグループ化されたブリックの互換性を維持するために、ボリューム設定が変更されるたびに再起動します。
| on | off | off |
cluster.consistent-metadata | on に設定すると、Automatic File Replication 機能の readdirp 関数は、ファイル/ディレクトリーの適切なコピー (修復しないコピー) を保持している限り、それぞれの読み取り子からメタデータを常にフェッチします。ただし、これにより、readdirps が関与するパフォーマンスが低下する可能性があります。
このオプションでは、ボリュームがクライアントに再マウントされる必要があります。
| on | off | off |
cluster.granular-entry-heal |
有効にすると、レプリカのブリックがダウンされている間に、ディレクトリーから作成、または削除されたエントリーに関するより詳細な情報を保存します。これは、特に多数のエントリーを持つディレクトリーがエントリーの作成または削除によって変更される場合に、ディレクトリーの自己修復に役立ちます。disable に設定すると、ディレクトリー内のどのエントリーを修復する必要があるかについての情報なしに、ディレクトリー修復の必要性情報を保存するため、変更を特定するにはディレクトリー全体が必要になります。
| enable | disable | enable |
重要
gluster volume set VOLNAME cluster.granular-entry-heal [enable | disable] コマンドは、ボリュームが Created 状態にある場合にのみ実行します。ボリュームが Created 以外の状態にある場合(例: Started 、Stopped など)、gluster volume heal VOLNAME granular-entry-heal [enable | disable] コマンドを実行して、granular-entry-heal オプションを有効または無効にします。
重要
新規デプロイメントおよび Red Hat Gluster Storage 3.5.4 にアップグレードする既存デプロイメントの場合、 cluster.granular-entry-heal オプションはデフォルトで複製ボリュームに対して有効になります。
| |||
cluster.heal-wait-queue-leng | cluster.background-self-heal-count と同等の修復操作がすでに進行中である heal 操作の最大要求数。このキューが満杯になると、それら修復リクエストは無視されます。 | 0-10000 | 128 |
cluster.lookup-optimize |
このオプションを
on に設定すると、ハッシュされたサブボリュームがルックアップの結果が返されない場合は、ハッシュのないサブボリュームを検索し、ネガティブルックアップが最適化されます。
既存のボリュームでは、アップグレード後に作成されたディレクトリーでルックアップの最適な動作が有効になります。リバランス操作は、ルックアップの最適化を使用するには、既存のすべてのディレクトリーで実行する必要があります。
新規ボリュームでは、ボリュームのルートを除き、lookup-optimize 動作がデフォルトで有効になります。ボリュームのルートの lookup-optimize を有効にするには、リバランス操作を実行します。
| on|off | on (Red Hat Gluster Storage 3.4 以降) |
cluster.max-bricks-per-process |
glusterfsd プロセスの 1 つのインスタンスで実行可能なブリックの最大数。
Red Hat Gluster Storage 3.4 Batch 2 Update の時点で、このオプションのデフォルト値が
250 に設定されます。これにより、コンテナーベースのワークロードのリソース使用状況をより適切に制御できます。以前のバージョンでは、デフォルト値は 0 で、ノード上のすべてのブリックに単一のプロセスを使用していました。
このオプションの値を更新しても、現在実行中のブリックには影響しません。ボリュームを再起動して、既存のブリックのこの設定を変更します。
| 0 からシステムの最大値 (1 以上の正の整数) | 250 |
cluster.min-free-disk | 空き領域を解放する必要があるディスク領域の割合を指定します。これは、単項以外のブリックに役立ちます。 | 必要な最小ディスクの空き容量の割合。 | 10% |
cluster.op-version | クラスターのオペレーティングバージョンを設定できます。op-version 番号はダウングレードできず、クラスター内のすべてのボリュームに設定されます。op-version は、gluster volume info コマンドの出力の一部として一覧表示されません。 | 30708 | 30712 | 31001 | 31101 | 31302 | 31303 | 31304 | 31305 | 31306 | 70200 | デフォルト値は、最初にインストールした Red Hat Gluster Storage バージョンによって異なります。Red Hat Gluster Storage 3.5 では、新しいデプロイメント用に値は 70200 に設定されます。 |
cluster.read-freq-threshold | 昇格/降格サイクルで読み取りの数を指定します。これは、昇格のために HOT をマークします。ヒット数がこの値よりも小さいファイルは COLD として考慮され、降格されます。 | 0-20 | 0 |
cluster.self-heal-daemon | レプリケートしたボリュームに対するプロアクティブな自己修復がアクティベートするかどうかを指定します。 | on | off | on |
cluster.server-quorum-ratio | 信頼できるストレージプールのクォーラムパーセンテージを設定します。 | 0 - 100 | >50% |
cluster.server-quorum-type | server に設定すると、指定したボリュームがサーバー側のクォーラムに参加できるようになります。server-side quorum を設定する方法は、「サーバー側のクォーラムの設定」を参照 | none | server | none |
cluster.quorum-count | 書き込みを許可するために使用できる必要があるブリックの最小数を指定します。これはボリュームごとに設定されます。このオプションは、書き込み動作を決定するために cluster.quorum-type オプションによって使用されます。 | 有効な値は、1 からレプリカセットのからブリックの数になります。 | null |
cluster.quorum-type | クライアントがボリュームへの書き込みを許可されるタイミングを決定します。client-side quorum を設定する方法は、「クライアント側クォーラムの設定」を参照 | none | fixed | auto | auto |
cluster.shd-max-threads | self-heal デーモンにより、各レプリカで並行して自己修復できるエントリーの数を指定します。 | 1 - 64 | 1 |
cluster.shd-max-threads | self-heal デーモンにより、各レプリカで並行して自己修復できるエントリーの数を指定します。 | 1 - 64 | 1 |
cluster.shd-wait-qlength | スレッドのいずれかが解放されるとすぐに起動するように、自己修復デーモンスレッドがキューに保持する必要のあるエントリーの数を指定します。この値は、次のエントリーセットを修復するために必要なメモリー自己修復デーモンプロセスのサイズに応じて変更する必要があります。 | 1 - 655536 | 1024 |
cluster.shd-wait-qlength | スレッドのいずれかが解放されるとすぐに起動するように、自己修復デーモンスレッドが分散サブボリュームのキューに保持する必要のあるエントリーの数を指定します。この値は、次のエントリーセットを修復するために必要なメモリー自己修復デーモンプロセスのサイズに応じて変更する必要があります。 | 1 - 655536 | 1024 |
cluster.tier-demote-frequency | tier デーモンが降格するファイルを確認する頻度を指定します。 | 1 - 172800 秒 | 3600 秒 |
cluster.tier-max-files | 特定のサイクルの任意の方向の移行が可能なファイルの最大数を指定します。 | 1-100000 ファイル | 10000 |
cluster.tier-max-mb | 特定のサイクルの任意の方向の移行が可能な最大 MB 数を指定します。 | 1 -100000 (100 GB) | 4000 MB |
cluster.tier-mode | cache モードに設定すると、ウォーターマークで指定されたとおりに、キャッシュが満杯かどうかに基づいてファイルをプロモートまたは降格します。test モードに設定すると、アクセスに基づいて定期的にファイルを降格またはプロモートします。 | test | cache | キャッシュ |
cluster.tier-promote-frequency | tier デーモンがファイルをプロモートする頻度を指定します。 | 1- 172800 秒 | 120 秒 |
cluster.use-anonymous-inode | 有効にすると、エントリー修復関連の問題を処理し、ディレクトリーの名前を効率的に修復します。 | on|off | on(Red Hat Gluster Storage 3.5.4 以降) |
cluster.use-compound-fops | 有効にすると、自動ファイルレプリケーションの一部として発生するトランザクションを書き込み、ネットワークラウンドトリップを削減し、パフォーマンスが向上します。 | on | off | off |
cluster.watermark-hi | プロモーションの上限ウォーターマーク。ホット層がこのパーセンテージを超える場合、昇格は発生せず、高い可能性で降格が発生します。 | 1- 99 % | 90% |
cluster.watermark-low | 基準の割合が低いhot layer が満杯でない場合は、昇格が発生し、降格は発生しません。これよりも大きい場合は、hot layer がどの程度完全なかに対比して昇格/降格が発生します。 | 1- 99 % | 75% |
cluster.write-freq-threshold | 昇格/降格サイクルにおいて、昇格のためにファイル HOT をマークする書き込みの数を指定します。この値よりも小さい書き込みヒットは COLD として考慮され、降格されます。 | 0-20 | 0 |
config.transport | ボリュームが通信をサポートするトランスポートのタイプを指定します。 | tcp OR rdma OR tcp,rdma | tcp |
diagnostics.brick-log-buf-size | タイムアウトまたはバッファーオーバーフローのいずれかがブリックで最初に発生するまで抑制できる一意のログメッセージの最大数。 | 0 および 20 (0 と 20 を含む) | 5 |
diagnostics.brick-log-flush-timeout | ログメッセージがバッファーされる期間。この期間。この間、ブリック上のロギングインフラストラクチャー (gluster または syslog ファイル) にフラッシュされます。 | 30 - 300 秒 (30 および 300 が含まれる) | 120 秒 |
diagnostics.brick-log-format | ログ形式を、メッセージ ID あり、またはブリックにメッセージなしでログを記録するように設定できます。 | no-msg-id | with-msg-id | with-msg-id |
diagnostics.brick-log-level | ブリックのログレベルを変更します。 | INFO | DEBUG | WARNING | ERROR | CRITICAL | NONE | TRACE | info |
diagnostics.brick-sys-log-level | このオプションに定義された値に応じて、定義されたレベルのログメッセージが syslog と brick ログファイルで生成されます。 | INFO | WARNING | ERROR | CRITICAL | CRITICAL |
diagnostics.client-log-buf-size | タイムアウトまたはバッファーオーバーフローのいずれかがクライアントで最初に発生するまで抑制できる一意のログメッセージの最大数。 | 0 および 20 (0 と 20 を含む) | 5 |
diagnostics.client-log-flush-timeout | ログメッセージがバッファーされる期間。この期間。この間、クライアント上のロギングインフラストラクチャー (gluster または syslog ファイル) にフラッシュされます。 | 30 - 300 秒 (30 および 300 が含まれる) | 120 秒 |
diagnostics.client-log-format | メッセージ ID またはクライアント上のメッセージなしでログに記録するようにログ形式を設定できます。 | no-msg-id | with-msg-id | with-msg-id |
diagnostics.client-log-level | クライアントのログレベルを変更します。 | INFO | DEBUG | WARNING | ERROR | CRITICAL | NONE | TRACE | info |
diagnostics.client-sys-log-level | このオプションに定義された値に応じて、定義されたレベルのログメッセージが syslog とクライアントログファイルで生成されます。 | INFO | WARNING | ERROR | CRITICAL | CRITICAL |
disperse.eager-lock | ファイルの操作を開始する前に、ロックがファイルに配置されます。ロックは、ファイル操作が完了するまでそのまま有効になります。ファイル操作が完了したら、eager-lock がオンになっても、ロック競合が検出されるまで、または 1 秒間同じクライアントからそのファイルに別の要求があるかどうかを確認するためにロックが残ります。eager-lock がオフになっていると、ファイル操作の完了直後にロックがリリースされ、一部の操作のパフォーマンスが改善されますが、アクセス効率が低下します。 | on | off | on |
disperse.other-eager-lock | このオプションは disperse.eager-lock オプションと同じですが、通常のファイルにのみ適用されます。複数のクライアントが特定のディレクトリーにアクセスする場合は、ボリュームに disperse.other-eager-lockoption を無効にすると、通常のファイルに対する I/O のパフォーマンス低下することなく、ディレクトリーアクセスのパフォーマンスを改善できます。 | on | off | on |
disperse.other-eager-lock-timeout | エントリーの新しい操作が受信されない場合、通常のエントリーのロックが保持される最大時間 (秒単位)。 | 0-60 | 1 |
disperse.shd-max-threads | self-heal デーモンによって、分散された各サブボリュームで並行して自己修復できるエントリーの数を指定します。 | 1 - 64 | 1 |
disperse.shd-wait-qlength | スレッドのいずれかが解放されるとすぐに起動するように、自己修復デーモンスレッドが分散サブボリュームのキューに保持する必要のあるエントリーの数を指定します。この値は、次のエントリーセットを修復するために必要なメモリー自己修復デーモンプロセスのサイズに応じて変更する必要があります。 | 1 - 655536 | 1024 |
features.ctr_link_consistency | Change Time Recorder トランスレーターにより、ハードリンクの更新を記録するクラッシュの一貫した方法を有効にします。データ操作によってレイテンシーが高まるように、クラッシュで録画すると、より多くのレイテンシーが発生します。 | on | off | off |
features.ctr-enabled | 階層化されたボリュームで Time Recorder (CTR) トランスレーターの変更を有効にします。このオプションは features.record-counters オプションと併用して、書き込みと読み取りの heat カウンターを記録します。 | on | off | on |
features.locks-notify-contention | このオプションを有効にすると、ロック要求が現在の許可されたロックと競合すると、即座にリリースするよう、ロックの現在の所有者に upcall 通知が送信されます。 | yes | no | はい |
features.locks-notify-contention-delay | この値は、同じ inode 上の upcall 競合通知間の最小時間 (秒単位) を指定します。この期間に複数のロックリクエストを受け取ると、upcall は 1 つだけ送信されます。 | 0-60 | 5 |
features.quota-deem-statfs (非推奨)
詳細は、9章ディレクトリークォータの管理 を参照してください。
| このオプションを on に設定すると、ファイルシステムのサイズを見積もる間にクォータ制限が考慮されます。この制限は、ファイルシステムの実際のサイズではなく合計サイズとして処理されます。 | on | off | on |
features.read-only | ボリューム全体を、そのボリュームにアクセスするすべてのクライアントに対して読み取り専用としてマウントするかどうかを指定します。 | on | off | off |
features.record-counters | enabled に設定すると、cluster.write-freq-thresholdand cluster.read-freq-thresholdoptions は、移行をトリガーする前に必要な特定のファイルへの書き込みおよび読み取り数を定義します。 | on | off | on |
features.shard | ボリュームでのシャード化を有効または無効にします。ボリュームの設定後に作成されたファイルに影響します。 | enable | disable | disable |
features.shard-block-size | シャードが有効な場合にファイルの部分の最大サイズを指定します。ボリュームの設定後に作成されたファイルに影響します。 | 512MB | 512MB |
geo-replication.indexing | マーカートランスレーターがボリュームの変更を追跡できるようにします。 | on | off | off |
network.ping-timeout | クライアントがサーバーからの応答を待つ時間。タイムアウトが発生すると、クライアントの代わりにサーバーによって保持されるすべてのリソースがクリーンアップされます。接続が再確立されたら、クライアントがサーバー上で操作を再開する前に、すべてのリソースを再実行する必要があります。また、ロックを取得し、ロックテーブルが更新されます。再接続は非常にコストのかかる操作なので、回避する必要があります。 | 42 秒 | 42 秒 |
nfs.acl | nfs.acl を無効にすると、NFSACL サイド帯域幅プロトコルのサポートが削除されます。これはデフォルトで有効になります。 | enable | disable | enable |
nfs.addr-namelookup | 受信クライアント接続の名前を検索するかどうかを指定します。一部の設定では、ネームサーバーが DNS クエリーに応答するために時間がかかりすぎる可能性があり、これによりマウント要求のタイムアウトが発生する可能性があります。このオプションを使用すると、アドレス認証中に名前の検索を無効にできます。名前検索を無効にすると、nfs.rpc-auth-*options でホスト名を使用できないことに注意してください。 | on | off | off |
nfs.disable | 個々のボリュームの NFS エクスポートを無効にするかどうかを指定します。 | on | off | off |
nfs.enable-ino32 | 64 ビットの inode 番号に対応していない nfs クライアントまたはアプリの場合は、このオプションを使用して、代わりに NFS が 32 ビットの inode 番号を返すようにします。デフォルトでは無効になっているため、NFS は 64 ビットの inode 番号を返します。この値はグローバルで、信頼できるストレージプール内のすべてのボリュームに適用されます。 | enable | disable | disable |
nfs.export-volumes | ボリューム全体のエクスポートを有効または無効にします。このオプションが無効で、nfs.export-diroption が有効になっている場合は、サブディレクトリーをエクスポートのみとして設定できます。 | on | off | on |
nfs.mount-rmtab | NFS クライアントの一覧およびマウントしたボリュームが含まれるキャッシュファイルへのパス。このファイルの場所をマウントした (すべてのストレージプールの glusterfs-fuse を使用)、ボリュームを使用するすべての NFS クライアントを、信頼済みプール全体に表示させます。このファイルのコンテンツは、showmount コマンドで取得できる情報を提供します。 | ディレクトリーへのパス | /var/lib/glusterd/nfs/rmtab |
nfs.mount-udp | MOUNT サイド帯域幅プロトコルの UDP トランスポートを有効にします。デフォルトでは UDP は有効ではなく、MOUNT は TCP 上でのみ使用できます。一部の NFS クライアント (Solaris、HP-UX など) は TCP 上の MOUNT に対応しておらず、nfs.mount-udpmakes を有効にすることで、Red Hat Gluster Storage が提供する NFS エクスポートを使用できます。 | disable | enable | disable |
nfs.nlm | デフォルトでは、Network Lock Manager (NLMv4) が有効になっています。このオプションは、NLM を無効にします。Red Hat では、このオプションを無効にすることは推奨していません。 | on|off | on |
nfs.port | glusterFS NFS をデフォルト以外のポートに関連付けます。 | 1025-60999 | 38465- 38467 |
nfs.ports-insecure | 非特権ポートからのクライアント接続を許可します。デフォルトでは、特権ポートのみが許可されます。これは、1 つのオプションを使用してすべてのエクスポートでセキュアでないポートを許可するためのグローバル設定です。 | on | off | off |
nfs.rdirplus | デフォルト値は、on です。このオプションをオフにすると、NFS は readdirp ではなく標準の readdir にフォールバックします。これを無効にすると、クライアントからルックアップおよび stat 要求が送信され、パフォーマンスに影響する可能性があります。 | on|off | on |
nfs.rpc-auth-allow IP_ADRESSES | サーバーへの接続を許可する IP アドレスのコンマ区切りリスト。デフォルトでは、すべてのクライアントが許可されます。 | IP アドレスのコンマ区切りリスト | accept all |
nfs.rpc-auth-reject IP_ADRESSES | サーバーへの接続が許可されていないアドレスのコンマ区切りリスト。デフォルトでは、すべての接続が許可されます。 | IP アドレスのコンマ区切りリスト | reject none |
nfs.server-aux-gids | これを有効にすると、NFS-server はボリュームにアクセスするユーザーのグループを解決します。NFSv3 は、RPC プロトコル (AUTH_UNIX/AUTH_SYS ヘッダー) によって 16 グループに制限されています。NFS- サーバーのグループを解決することで、この制限をバイパスできます。 | on|off | off |
nfs.transport-type | ブリックとの通信に GlusterFS NFS サーバーが使用するトランスポートを指定します。 | tcp OR rdma | tcp |
open-behind | オープン呼び出しを受信するたびに、正常な通知をアプリケーションに送信して、アプリケーションのデータを読み取る機能が改善されます。 | on | off | on |
performance.cache-max-file-size | io-cache トランスレーターによってキャッシュされる最大ファイルサイズを設定します。KB、MB、GB、TB、または PB の通常のサイズ記述子を使用して指定できます (例: 6 GB)。 | サイズ (バイト単位)、またはサイズ記述子を使用して指定します。 | 2 ^ 64-1 バイト |
performance.cache-min-file-size | io-cache トランスレーターによってキャッシュされる最小のファイルサイズを設定します。KB、MB、GB、TB、または PB の通常のサイズ記述子を使用して指定できます (例: 6 GB)。 | サイズ (バイト単位)、またはサイズ記述子を使用して指定します。 | 0 |
performance.cache-refresh-timeout | ファイルのキャッシュされたデータを保持する秒数。このタイムアウト後、データの再検証が実行されます。 | 0 - 61 秒 | 1 秒 |
performance.cache-size | 読み取りキャッシュのサイズ。 | サイズ (バイト単位)、またはサイズ記述子を使用して指定します。 | 32 MB |
performance.client-io-threads | 最大 16 個のスレッドを並行して使用できるようにすることで、分散 (erasure-coded) ボリュームの単一マウントポイントからの並列 I/O のパフォーマンスを向上させます。これを有効にすると、デフォルトで 1 スレッドが使用され、最大 16 までのスレッドがクライアントのワークロードで必要なとおりに作成されます。これは、分散されて分散されるボリュームに便利です。この機能は、分散、複製または分散されたボリュームには推奨されません。これは、複製されたボリューム種別および分散レプリケーションのボリューム種別でデフォルトで無効にされます。 | on | off | on (複製および分散されたボリュームを除く) |
performance.flush-behind | フラッシュファイルの操作がバックエンドファイルシステムに送信される前に、Write-behind トランスレーターがアプリケーションに成功を返して、バックグラウンドでフラッシュ操作を実行するかどうかを指定します。 | on | off | on |
performance.io-thread-count | I/O スレッドトランスレーターのスレッド数。 | 1 - 64 | 16 |
performance.lazy-open | このオプションを使用するには、open-behind を有効化する必要があります。必要なファイル操作が到達した場合にのみ、バックエンドでオープンを実行します (ファイル記述子への書き込み、ファイルのリンクの切断など)。このオプションが無効になっている場合は、アンワインドオープンの直後にバックエンドを開きます。 | Yes/No | はい |
performance.md-cache-timeout | メタデータキャッシュの更新時を制御する期間 (秒単位)。キャッシュの経過時間がこの期間を超える場合は、更新されます。キャッシュが更新されるたびに、その経過時間は 0 にリセットされます。 | 0-600 秒 | 1 秒 |
performance.nfs-strict-write-ordering | 書き込みが同じファイルまたは場所に関連しない場合でも、後で NFS の書き込みをオーバーラップしないようにするかどうかを指定します。 | on | off | off |
performance.nfs.flush-behind | フラッシュファイルの操作がバックエンドファイルシステムに送信される前に、(false) の成功をアプリケーションに返して、NFS の背景で write-behind トランスレーターがフラッシュ操作を実行するかどうかを指定します。 | on | off | on |
performance.nfs.strict-o-direct | NFS 上のファイルに対する I/O のキャッシュの影響を最小限に抑えるかどうかを指定します。このオプションが有効になり、O_DIRECT フラグを使用してファイル記述子が開かれると、そのファイル記述子に影響する書き込みでは、書き込みバックキャッシュが無効になります。このオプションが無効になっていると、O_DIRECT はキャッシュには影響しません。このオプションは、performance.write-behind が無効になっている場合は無視されます。 | on | off | off |
performance.nfs.write-behind-trickling-writes | NFS クライアントの write-behind トランスレーターの hardling-write ストラテジーを有効および無効にします。 | on | off | on |
performance.nfs.write-behind-window-size | 1 つのファイル、または NFS の場合は inode のサイズを指定します。 | 512 KB - 1 GB | 1 MB |
performance.quick-read | ボリュームでクイック読み取りトランスレーターを有効または無効にするには、以下を行います。 | on | off | on |
performance.rda-cache-limit | このオプションに指定された値は、readdir-ahead トランスレーターによって使用されるキャッシュの最大サイズです。この値はグローバルで、readdir-ahead によるメモリー消費の合計はこの値で制限されます (キャッシュされたディレクトリーの数/サイズに関係なく)。 | 0-1GB | 10MB |
performance.rda-request-size | このオプションに指定された値は、readdirp 応答でディレクトリーエントリーを保持するバッファーのサイズになります。 | 4KB-128KB | 128KB |
performance.resync-failed-syncs-after-fsync | fsync 操作が失敗する前に発行されたキャッシュ書き込みを同期した場合、このオプションで失敗した同期操作を再開するかどうかを設定します。 | on | off | off |
performance.strict-o-direct | ファイルに対する I/O のキャッシュの影響を最小限に抑えるかどうかを指定します。このオプションが有効になり、O_DIRECT フラグを使用してファイル記述子が開かれると、そのファイル記述子に影響する書き込みでは、書き込みバックキャッシュが無効になります。このオプションが無効になっていると、O_DIRECT はキャッシュには影響しません。このオプションは、performance.write-behind が無効になっている場合は無視されます。 | on | off | off |
performance.strict-write-ordering | 書き込みが同じファイルまたは場所に関連しない場合でも、後で書き込みをオーバーラップしないようにするかどうかを指定します。 | on | off | off |
performance.use-anonymous-fd | このオプションを使用するには、open-behind を有効化する必要があります。読み取り操作では、元のファイル記述子がオープンで、バックエンドで開かれていないときに匿名ファイル記述子を使用します。 | Yes | No | はい |
performance.write-behind | Write-behind トランスレーターを有効または無効にします。 | on | off | on |
performance.write-behind-trickling-writes | FUSE クライアントの write-behind トランスレーターの hardling-write ストラテジーを有効および無効にします。 | on | off | on |
performance.write-behind-window-size | 1 つのファイルまたは inode の書き込み動作バッファーのサイズを指定します。 | 512 KB - 1 GB | 1 MB |
rebal-throttle | リバランスプロセスは、パフォーマンスを向上させるために複数のファイル移行を処理するためにマルチスレッドで実行されます。複数のファイルシステムの移行では、ストレージシステムのパフォーマンスに重大な影響を与える可能性があります。スロットリングメカニズムは、管理するために提供されます。 | lazy、normal、ggressive | normal |
server.allow-insecure | 特権のないポートからの FUSE ベースのクライアント接続を許可します。デフォルトでは、ポートはセキュアでないポートからのメッセージを許可および拒否できることを意味します。無効にすると、特権ポートのみが許可されます。これは、1 つのオプションを使用してすべての FUSE ベースのエクスポートでセキュアでないポートを有効にするためのグローバル設定です。NFS アクセス制御に nfs.rpc-auth-* オプションを使用します。 | on | off | on |
server.anongid | root-squash が有効な場合に匿名ユーザーに使用される GID の値。root-squash を有効にすると、root GID (0) から受信したすべてのリクエストが匿名ユーザーの GID を持つように変更されます。 | 0 - 4294967295 | 65534 (この UID は nfsnobody としても知られています) |
server.anonuid | root-squash が有効な場合に匿名ユーザーに使用される UID の値。root-squash を有効にすると、root UID (0) から受信したすべてのリクエストが匿名ユーザーの UID になるよう変更されます。 | 0 - 4294967295 | 65534 (この UID は nfsnobody としても知られています) |
server.event-threads | Red Hat Gluster Storage ノードをホストするサーバープロセスで同時に処理されるネットワーク接続の数を指定します。 | 1 - 32 | 1 |
server.gid-timeout | キャッシュグループの有効期限が切れる必要がある期間 (秒単位)。これは、指定のユーザー (UID) が属するグループ (GID) が含まれるキャッシュです。このオプションは、server.manage-gids が有効な場合にのみ使用されます。 | 0-4294967295 秒 | 2 秒 |
server.manage-gids | サーバー側のグループを解決します。このオプションを有効にすると、クライアントによる RPC 呼び出しで送信されたグループを使用するのではなく、ユーザー (UID) がサーバー上で解決されます。このオプションを使用すると、プロトコルがサポートするものよりも大きなグループ一覧に所属するユーザーにパーミッションチェックを適用できます (約 93)。 | on|off | off |
server.root-squash | root ユーザーが root 権限を持たないようにするため、代わりに nfsnobody の特権を割り当てます。これにより、root ユーザーの権限が非表示になり、Red Hat Gluster Storage サーバー上の権限のないファイルを変更できません。このオプションは、glusterFS NFS プロトコルにのみ使用されます。 | on | off | off |
server.statedump-path | statedumpfiles を保存する必要のあるディレクトリーを指定します。 | /var/run/gluster (デフォルトインストール) | ディレクトリーへのパス |
ssl.crl-path | SSL 証明書失効リスト (CRL) を含むディレクトリーへのパスを指定します。このリストは、サーバーノードが、取り消された証明書のあるノードを停止し、クラスターにアクセスしないようにするのに役立ちます。 | CRL ファイルをホストするディレクトリーの絶対パス。 | null (デフォルト値なし。したがって、volume オプションを設定するまで空欄になります。) |
storage.fips-mode-rchecksum | 有効にすると、posix_rchecksum は FIPS 準拠の SHA256 チェックサムを使用し、それ以外の場合は MD5 を使用します。 | on | off | on |
警告
Red Hat Gluster Storage 3.4 以前を使用するクライアントを使用するボリュームで、 storage.fips-mode-rchecksum オプションを有効にしないでください。
| |||
storage.create-mask | 作成するファイルのパーミッションの最大セット (上限)。 | 0000 - 0777 | 0777 |
storage. create-directory-mask | 作成するディレクトリーに対するパーミッションの最大セット (上限) | 0000 - 0777 | 0777 |
storage.force-create-mode | 作成されるファイルのパーミッションの最小セット (下限)。 | 0000 - 0777 | 0000 |
storage.force-directory-mode | 作成されるディレクトリーのパーミッションの最小セット (下限)。 | 0000 - 0777 | 0000 |
重要
マスクと一致する強制モードの両方 ( create-directory-mask と force-directory-mode または create-mask と force-create-mode ) を同時に設定すると、計算されたファイルアクセスモードにおいて、動作は未定義になります。
| |||
storage.health-check-interval | ファイルシステムのヘルスチェックの時間間隔を秒単位で設定します。このパラメーターを 0 に設定すると無効にできます。ブリック上の POSIX トランスレーターは定期的なヘルスチェックを実行します。この確認に失敗すると、brick によりエクスポートされるファイルシステムは使用できず、ブリックプロセス (glusterfsd) が警告をログに記録して終了します。 | 0-4294967295 秒 | 30 秒 |
storage.health-check-timeout | aio_write がヘルスチェックに終了するまで待機する時間を秒単位で設定します。無効にするには 0 に設定します。 | 0-4294967295 秒 | 20 秒 |
storage.owner-gid | ボリュームのブリック用の GID を設定します。このオプションは、一部のアプリケーションが、ブリックを正しく機能させるのに特定の GID を持たせるのに場合に必要になる場合があります。例: QEMU 統合の場合、UID/GID は qemu:qemu である必要があります。つまり、107:107 (107 は qemu の UID および GID) です。 | -1 以上の整数。 | ブリックの GID は変更されません。これは -1 で表されます。 |
storage.owner-uid | ボリュームのブリック用の UID を設定します。このオプションは、一部のアプリケーションにブリックを正しく機能させるのに特定の UID を必要とする場合に必要になる場合があります。例: QEMU 統合の場合、UID/GID は qemu:qemu である必要があります。つまり、107:107 (107 は qemu の UID および GID) です。 | -1 以上の整数。 | ブリックの UID は変更されません。これは -1 で表されます。 |
storage.reserve |
POSIX トランスレーターには、ユーザーがブリックでディスク領域を予約できるオプションが含まれます。このオプションを使用すると、ブリックがほぼ満杯のときに、ユーザーがディスクまたはクラスターを拡張するのに十分な領域を確保できます。このオプションは、ディスクに
storage.reserve の割合/サイズまたはそれより少ない空き領域がある場合に、新規ファイル作成を防ぎます。
storage.reserve は、パーセンテージまたはMB/GB 形式のいずれかの値を受け入れます。このボリュームオプションを MB/GB から MB/GB に再設定するには、同じボリュームオプションを指定します。また、最新のセット値も考慮されます。
0 に設定すると、
storage.reserve が無効になります
|
0〜100% (パラメーターがパーセンテージの場合に適用可能)
または
nKB/MB/GB (サイズがパラメーターとして使用する場合は適用可能)、「n」は予約する必要がある正の整数です。
それぞれの例:
gluster volume set <vol-name> storage.reserve 15%
または
gluster volume set <vol-name> storage.reserve 100GB
| 1% (ブリックサイズの 1%) |
注記
storage.reserve オプションを MB/GB に設定する際には、ブリックサイズに注意してください。たとえば、volume オプションの値が >= ブリックのサイズである場合、ブリック全体が予約されます。
このオプションは、サブボリュームレベルで機能します。
| |||
transport.listen-backlog | キューに格納され、常に受け入れられるよう待機している、確立された TCP ソケット要求の最大数。 | 0 からシステムの最大値 | 1024 |