6.6.2. 連続するノードが停止
前のセクションで説明したように、Red Hat Data Grid はプロセス/マシンがクラッシュしたためにノードが JGroups ビューを残すか、ネットワーク障害の原因かを検出することができません。ノードが JGroups クラスターを突然残す場合は、ネットワークの問題が原因であることが想定されます。
設定したコピー数(numOwners)が 1 よりも大きい場合、クラスターは利用可能なままになり、クラッシュしたノードでデータの新しいレプリカを作成しようとします。ただし、リバランスプロセス中にその他のノードがクラッシュする可能性があります。短期間に numOwners ノードがクラッシュすると、一部のキャッシュエントリーがクラスターから完全に消える可能性があります。この場合、DENY_READ_WRITES または ALLOW_READS ストラテジーを有効にすると、スプリットブレインがあると仮定し、スプリットブレインセクションで説明されているように DEGRADED モードを入力します。
管理者は、numOwners を超えるノードを急速にシャットダウンして、それらのノードにのみ保存したデータが失われないようにすることもできます。管理者がノードを正常にシャットダウンすると、Red Hat Data Grid はノードが戻らないことを認識します。ただし、クラスターは各ノードの残状況を追跡せず、それらのノードがクラッシュしたかのように、キャッシュが DEGRADED モードに入ります。
この段階では、クラスターが停止し、外部ソースからのデータを使用して再起動時にその状態を回復する方法はありません。クラスターは、numOwners の連続するノードの失敗を回避するために、適切な numOwners で構成されることが予想されます。したがって、この状況は非常に稀なはずです。アプリケーションがキャッシュ内の一部のデータを失うことが可能な場合、管理者は JMX 経由で可用性モードを AVAILABLE に戻すことができます。