開発者ガイド
Red Hat JBoss Data Grid 7.2 向け
概要
パート I. プログラミング可能な API リンクのコピーリンクがクリップボードにコピーされました!
第1章 プログラミング可能な API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は以下のプログラム可能な API を提供します。
- Cache
- AdvancedCache
- MultimapCache
- Asynchronous
- Batching
- Grouping
- Persistence (以前は CacheStore)
- ConfigurationBuilder
- Externalizable
- Notification (通知とリスナーを処理するため、Listener API とも呼ばれます)
- JSR-107 (JCache)
- Health Check
- REST
第2章 Cache API リンクのコピーリンクがクリップボードにコピーされました!
2.1. Cache API リンクのコピーリンクがクリップボードにコピーされました!
Cache インターフェースは、エントリーを追加、読み出し、および削除するために簡単なメソッドを提供します。これには JDK の ConcurrentMap インターフェースによって公開されるアトミックメカニズムが含まれます。エントリーが格納される方法は、使用されるキャッシュモードによって異なります。たとえば、エントリーがリモートノードへレプリケートされたり、キャッシュストアで検索されたりします。
基本的な作業では、キャッシュ API は JDK マップ API と同様に使用されます。そのため、マップベースの簡単なインメモリーキャッシュを Red Hat JBoss Data Grid のキャッシュへ移行する処理が容易になります。
この API は JBoss Data Grid のリモートクライアントサーバーモードでは使用できません。
2.2. ConfigurationBuilder API を使用したキャッシュ API の設定 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は ConfigurationBuilder API を使用してキャッシュを設定します。
キャッシュは ConfigurationBuilder ヘルパーオブジェクトを使用してプログラミングによって設定されます。
以下は、ConfigurationBuilder API を使用してプログラミングにより設定され、同期的にレプリケートされたキャッシュの例になります。
プログラミングによるキャッシュの設定
Configuration c = new ConfigurationBuilder().clustering().cacheMode(CacheMode.REPL_SYNC).build(); String newCacheName = "repl"; manager.defineConfiguration(newCacheName, c); Cache<String, String> cache = manager.getCache(newCacheName);
Configuration c = new ConfigurationBuilder().clustering().cacheMode(CacheMode.REPL_SYNC).build();
String newCacheName = "repl";
manager.defineConfiguration(newCacheName, c);
Cache<String, String> cache = manager.getCache(newCacheName);
-
設定の最初の行で、
ConfigurationBuilderを使用して新しいキャッシュ設定オブジェクト (c) が作成されます。設定cには、キャッシュモードを除くすべてのキャッシュ設定オプションのデフォルト値が割り当てられ、この値は上書きされ、同期レプリケーション (REPL_SYNC) に設定されます。 -
設定の 2 行目で、新しい変数 (タイプが
String) が作成され、値replが割り当てられます。 -
設定の 3 行目で、キャッシュマネージャーは名前付きキャッシュ設定を定義するために使用されます。この名前付きキャッシュ設定は
replと呼ばれ、設定は最初の行のキャッシュ設定cに提供された設定に基づきます。 -
設定の 4 行目で、キャッシュマネージャーで保持された
replの一意のインスタンスに対する参照を取得するために、キャッシュマネージャーが使用されます。このキャッシュインスタンスはデータを格納および取得する操作を実行するために使用できます。
JBoss EAP には独自の基礎となる JMX が含まれています。そのため、JBoss EAP でサンプルコードを使用するときに競合が発生し、org.infinispan.jmx.JmxDomainConflictException: Domain already registered org.infinispan などのエラーが表示されることがあります。
この問題を回避するには、以下のようにグローバル設定を指定します。
2.3. 呼び出しごとのフラグ リンクのコピーリンクがクリップボードにコピーされました!
2.3.1. 呼び出しごとのフラグ リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では呼び出しごとのフラグを使用して各キャッシュコールの動作を指定できます。呼び出しごとのフラグは、時間を節約できる最適化の実装を容易にします。
2.3.2. 呼び出しごとのフラグ機能 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のキャッシュ API の putForExternalRead() メソッドは内部的にフラグを使用します。このメソッドは、外部リソースからロードされたデータが含まれる JBoss Data Grid キャッシュをロードできます。この呼び出しの効率性を改善するために、JBoss Data Grid は通常の put 操作を呼び出して以下のフラグを渡します。
-
ZERO_LOCK_ACQUISITION_TIMEOUTフラグ: 外部ソースからキャッシュへデータをロードするときに JBoss Data Grid のロック取得時間がほぼゼロになります。 -
FAIL_SILENTLYフラグ: ロックを取得できない場合に、JBoss Data Grid はロック取得例外を発生せずに失敗します。 -
FORCE_ASYNCHRONOUSフラグ: クラスター化された場合に、設定されたキャッシュモードに関係なくキャッシュが非同期にレプリケートされます。結果として、他のノードからの応答は必要ありません。
上記のフラグを組み合わせると、操作の効率性が大幅に向上します。この効率性の基礎として、データがメモリーにない場合にクライアントは永続ストアから必要なデータを取得できるため、このタイプの putForExternalRead コールが使用されます。クライアントはキャッシュミスを検出すると操作を再試行します。
JBoss Data Grid で使用できる全フラグの詳細リストは、JBoss Data Grid API ドキュメントの Flag クラスを参照してください。
2.3.3. 呼び出しごとのフラグの設定 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid で呼び出しごとのフラグを使用するには、withFlags() メソッド呼び出しを使用して必要なフラグを高度なキャッシュに追加します。
呼び出しごとのフラグの設定
Cache cache = ...
cache.getAdvancedCache()
.withFlags(Flag.SKIP_CACHE_STORE, Flag.CACHE_MODE_LOCAL)
.put("local", "only");
Cache cache = ...
cache.getAdvancedCache()
.withFlags(Flag.SKIP_CACHE_STORE, Flag.CACHE_MODE_LOCAL)
.put("local", "only");
呼び出されたフラグは、キャッシュ操作の間のみアクティブになります。同じトランザクション内の複数の呼び出しで同じフラグを使用するには、各呼び出しに withFlags() メソッドを使用します。キャッシュ操作を別のノードにレプリケートする必要がある場合は、フラグがリモートノードにも使用されます。
2.3.4. 呼び出しごとのフラグの例 リンクのコピーリンクがクリップボードにコピーされました!
put() などの書き込み操作が以前の値を返してはならない JBoss Data Grid のユースケースでは、 IGNORE_RETURN_VALUES フラグが使用されます。このフラグにより分散環境で (以前の値を取得するための) リモート検索が実行されないようにし、不必要な以前の値が取得されないようにします。さらに、キャッシュがキャッシュローダーで設定された場合、このフラグによって以前の値がキャッシュストアからロードされないようにします。
IGNORE_RETURN_VALUES フラグの使用
Cache cache = ...
cache.getAdvancedCache()
.withFlags(Flag.IGNORE_RETURN_VALUES)
.put("local", "only")
Cache cache = ...
cache.getAdvancedCache()
.withFlags(Flag.IGNORE_RETURN_VALUES)
.put("local", "only")
2.4. AdvancedCache インターフェース リンクのコピーリンクがクリップボードにコピーされました!
2.4.1. AdvancedCache インターフェース リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は AdvancedCache インターフェースを提供し、単純な Cache インターフェース以外に JBoss Data Grid を拡張します。 AdvancedCache インターフェースは以下を実行できます。
- カスタマーインターセプターのインジェクト
- 特定の内部コンポーネントへのアクセス
- フラグを適用して特定のキャッシュメソッドの動作を変更
以下のコード例は AdvancedCache の取得方法の例を示しています。
AdvancedCache advancedCache = cache.getAdvancedCache();
AdvancedCache advancedCache = cache.getAdvancedCache();
2.4.2. AdvancedCache インターフェースでのフラグの使用 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid の特定のキャッシュメソッドにフラグが適用されると、ターゲットメソッドの動作が変更されます。キャッシュ呼び出しに任意の数のフラグを適用するには、AdvancedCache.withFlags() を使用します。
フラッグのキャッシュ呼び出しへの適用
advancedCache.withFlags(Flag.CACHE_MODE_LOCAL, Flag.SKIP_LOCKING)
.withFlags(Flag.FORCE_SYNCHRONOUS)
.put("hello", "world");
advancedCache.withFlags(Flag.CACHE_MODE_LOCAL, Flag.SKIP_LOCKING)
.withFlags(Flag.FORCE_SYNCHRONOUS)
.put("hello", "world");
2.4.3. ディストリビューションでの GET および PUT の使用 リンクのコピーリンクがクリップボードにコピーされました!
2.4.3.1. ディストリビューションでの GET および PUT の使用 リンクのコピーリンクがクリップボードにコピーされました!
ディストリビューションモードでは、キャッシュは write コマンドの前にリモートで GET コマンドを実行します。これは、Cache.put() などの一部のメソッドは、java.util.Map コントラクトにしたがって指定されたキーに関連する以前の値を返すためです。これがキーを所有しないインスタンスで実行され、エントリーが L1 キャッシュにない場合、PUT の前にリモートで GET を実行することが唯一信頼できる戻り値の取得方法になります。
Red Hat JBoss Data Grid は戻り値を待たなければならないため、キャッシュが同期または非同期であるかに関わらず、 PUT 操作の前に発生する GET 操作は常に同期になります。
2.4.3.2. 分散された GET および PUT 操作のリソース使用 リンクのコピーリンクがクリップボードにコピーされました!
ディストリビューションモードでは、キャッシュが GET 操作を実行してから PUT 操作を実行することがあります。
この操作は、リソースの面では非常にコストのかかる操作になります。リモートの GET 操作は同期であるにも関わらず、すべての応答を待たないため、無駄になるリソースが発生します。 GET 処理は最初に受信する有効な応答を許可するため、パフォーマンスとクラスターの大きさとの関連性はありません。
実装に戻り値が必要でない場合、Flag.SKIP_REMOTE_LOOKUP フラグを呼び出しごとの設定に使用します。
このような動作は、キャッシュの操作やパブリックメソッドの正確な機能に悪影響を与えるものではありませんが、java.util.Map インターフェースコントラクトに違反します。これは、信頼できない不正確な戻り値が特定のメソッドに提供されるためコントラクトに違反します。そのため、必ずこれらの戻り値が設定上重要な目的に使用されないようにしてください。
2.4.4. Map メソッドの制限 リンクのコピーリンクがクリップボードにコピーされました!
size()、values()、keySet()、entrySet() などの特定の Map メソッドは不安定であるため、Red Hat JBoss Data Grid では一定の制限付きで使用することができます。これらのメソッドはロック (グローバルまたはローカル) を取得せず、同時編集、追加、および削除はこれらの呼び出しでは考慮されません。
一覧表示されるメソッドはパフォーマンスに大きく影響します。そのため、情報収集やデバッグの目的でのみこれらのメソッドを使用することが推奨されます。
パフォーマンスの問題
JBoss Data Grid 7.2 では、map メソッド size()、values(), keySet()、および entrySet() にデフォルトでキャッシュローダーのエントリーが含まれます。これらのコマンドのパフォーマンスは、使用するキャッシュローダーによって決まります。たとえば、データベースを使用している場合、これらのメソッドはデータが格納されるテーブルの完全なスキャンを実行し、処理が遅くなることがあります。キャッシュローダーからエントリーをロードしないようにし、パフォーマンスヒットを避けるには、必要なメソッドを実行する前に Cache.getAdvancedCache().withFlags(Flag.SKIP_CACHE_LOAD) を使用します。
size() メソッドの概要 (埋め込みキャッシュ)
JBoss Data Grid 7.2 では、Cache.size() メソッドは、クラスター全体で、このキャッシュとキャッシュローダーの両方にあるすべての要素の数を提示します。ローダーまたはリモートエントリーを使用している場合、メモリー関連の問題の発生を防げるようにエントリーのサブセットのみが指定時にメモリーに保持されます。すべてのエントリーをロードする場合、その速度が遅くなる場合があります。
この操作モードでは、size() メソッドで返される結果は、ローカルノードにあるエントリー数を返すよう強制実行する org.infinispan.context.Flag#CACHE_MODE_LOCAL フラグと、パッシべートされたエントリーを無視する org.infinispan.context.Flag#SKIP_CACHE_LOAD フラグの影響を受けます。これらのフラグのいずれかを使用すると、クラスター全体ですべての要素の数を返さない代わりにこのメソッドのパフォーマンスを上げることができます。
size() メソッドの概要 (リモートキャッシュ)
JBoss Data Grid 7.1 では、Hot Rod プロトコルには専用の SIZE 操作が含まれ、クライアントはこの操作を使用してすべてのエントリーのサイズを計算します。
第3章 マルチマップキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
3.1. マルチマップキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
MultimapCache は、キーを値にマップするキャッシュで、各キーには複数の値を含めることができます。現在、ライブラリーモードでのみ機能します。
3.2. Maven を使用した MultimapCache のインストール リンクのコピーリンクがクリップボードにコピーされました!
Maven プロジェクトで MultimapCache を利用できるようにするには、pom.xml を以下のように設定します。
pom.xml
<dependency> <groupId>org.infinispan</groupId> <artifactId>infinispan-multimap</artifactId> <version>...</version> <!-- 7.2.0 or later --> </dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-multimap</artifactId>
<version>...</version> <!-- 7.2.0 or later -->
</dependency>
3.3. マルチマップキャッシュの作成 リンクのコピーリンクがクリップボードにコピーされました!
以下のようにコードを使用して、MultimapCache を作成します。
3.4. MultimapCache の使用例 リンクのコピーリンクがクリップボードにコピーされました!
MultimapCache の使用方法を表すコードは次のとおりです。
第4章 非同期 API リンクのコピーリンクがクリップボードにコピーされました!
4.1. 非同期 API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は同期 API メソッドの他に、非ブロッキング方式で同じ機能を実現する非同期 API も提供します。
非同期メソッドの命名規則は、同期メソッドの命名規則と似ていますが、各メソッド名の初めに Async が追加されます。非同期メソッドは、操作の結果が含まれる Future を返します。
たとえば、Cache<String, String> とパラメーター化されたキャッシュでは、Cache.put(String key, String value) は String を返します。また、Cache.putAsync(String key, String value) は FutureString を返します。
4.2. 非同期 API の利点 リンクのコピーリンクがクリップボードにコピーされました!
非同期 API はブロックしないため、以下のような複数の利点があります。
- 同期通信が保証される (エラーと例外を処理する機能が追加される)。
- 呼び出しが完了するまでスレッドの操作をブロックする必要がない。
これらの利点により、以下のようにシステムで並列処理を向上させることができます。
非同期 API の使用
Set<Future<?>> futures = new HashSet<Future<?>>();
futures.add(cache.putAsync("key1", "value1"));
futures.add(cache.putAsync("key2", "value2"));
futures.add(cache.putAsync("key3", "value3"));
Set<Future<?>> futures = new HashSet<Future<?>>();
futures.add(cache.putAsync("key1", "value1"));
futures.add(cache.putAsync("key2", "value2"));
futures.add(cache.putAsync("key3", "value3"));
たとえば、以下の行は実行時にスレッドをブロックしません。
-
futures.add(cache.putAsync(key1,value1)); -
futures.add(cache.putAsync(key2,value2)); -
futures.add(cache.putAsync(key3,value3));
これら 3 つの put 操作からのリモートコールは同時に実行されます。これは、分散モードで実行する場合に特に役に立ちます。
4.3. 非同期プロセス リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid の一般的な書き込み操作では、以下のプロセスがクリティカルパスで失敗し、リソースが最も必要なものから必要でないものに順序付けされます。
- ネットワークコール
- マーシャリング
- キャッシュストアへの書き込み (オプション)
- ロック
Red Hat JBoss Data Grid では、非同期メソッドを使用すると、クリティカルパスからネットワークコールとマーシャリングが削除されます。
4.4. 戻り値と非同期 API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid で非同期 API が使用された場合、クライアントコードでは以前の値を問い合わせるために非同期操作が Future または CompletableFuture を返す必要があります。
非同期操作の結果を取得するには、次の操作を呼び出します。この操作は呼び出されたときにスレッドをブロックします。
Future.get()
Future.get()
第5章 バッチ化 API リンクのコピーリンクがクリップボードにコピーされました!
5.1. バッチ化 API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid クラスターがトランザクションの唯一の参加者である場合、バッチ化 API が使用されます。複数のシステムがトランザクションの参加者である場合は、トランザクションマネージャーを使用する Java トランザクション API (JTA) のトランザクションが使用されます。
バッチ化 API は Red Hat JBoss Data Grid のライブラリーモードでのみ使用できます。
5.2. Java トランザクション API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、Java トランザクション API (JTA) に対応するトランザクションの設定、使用、および参加がサポートされます。
JBoss Data Grid は各キャッシュ操作に対して以下を実行します。
- 最初に、現在スレッドに関連付けされているトランザクションを読み出します。
- XAResource が登録されていない場合は、トランザクションマネージャーに登録し、トランザクションがコミットまたはロールバックされたときに通知を受け取るようにします。
5.3. バッチ化および Java トランザクション API (JTA) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、バッチ化機能により、JTA トランザクションがバックエンドで開始され、スコープ内のすべての呼び出しがそれに関連付けられます。このため、バッチ化機能は単純なトランザクションマネージャー実装をバックエンドで使用します。結果として、次の動作が行われます。
- 呼び出し中に取得されたロックは、トランザクションがコミットまたはロールバックするまで保持されます。
- すべての変更は、クラスター内のすべてのノード上にあるバッチでトランザクションコミットプロセスの一部としてレプリケートされます。複数の変更が単一のトランザクション内で確実に行われるようにするため、レプリケーショントラフィックがより少ない状態になり、パフォーマンスが向上します。
- 同期のレプリケーションまたはインバリデーションを使用する場合、レプリケーションまたはインバリデーションに失敗するとトランザクションはロールバックされます。
- キャッシュがトランザクションで、キャッシュローダーが存在する場合、キャッシュローダーはキャッシュのトランザクションに登録されません。そのため、トランザクションがインメモリー状態を適用し、変更をストアに適用できないと (部分的に)、キャッシュローダーレベルで不整合が発生する可能性があります。
- トランザクションに関連するすべての設定はバッチ化にも適用されます。
5.4. バッチ化 API の使用 リンクのコピーリンクがクリップボードにコピーされました!
5.4.1. バッチ化 API の設定 リンクのコピーリンクがクリップボードにコピーされました!
バッチ化 API を使用するには、以下の例のようにキャッシュ設定で呼び出しのバッチ化を有効にします。
Configuration c = new ConfigurationBuilder().transaction().transactionMode(TransactionMode.TRANSACTIONAL).invocationBatching().enable().build();
Configuration c = new ConfigurationBuilder().transaction().transactionMode(TransactionMode.TRANSACTIONAL).invocationBatching().enable().build();
Red Hat JBoss Data Grid では、呼び出しバッチ化はデフォルトで無効になり、バッチ化は定義されたトランザクションマネージャーなしで使用できます。
5.4.2. バッチ化 API の使用 リンクのコピーリンクがクリップボードにコピーされました!
キャッシュがバッチ化を使用するよう設定された後に、キャッシュで次のように startBatch() および endBatch() を呼び出して、バッチ化を使用します。
Cache cache = cacheManager.getCache();
Cache cache = cacheManager.getCache();
バッチを使用しない場合
cache.put("key", "value");
cache.put("key", "value");
cache.put( 行が実行されると、値はすぐに置き換えられます。
key, value);
バッチを使用する場合
行 cache.endBatch( が実行されると、バッチの開始後に行われたすべての変更が適用されます。
true);
行 cache.endBatch( が実行されると、バッチで行われた変更は破棄されます。
false);
第6章 グループ化 API リンクのコピーリンクがクリップボードにコピーされました!
6.1. グループ化 API リンクのコピーリンクがクリップボードにコピーされました!
グループ化 API は、エントリーのグループを指定のノードやグループのハッシュを使用して選択されたノードに移動できます。
6.2. グループ化 API の操作 リンクのコピーリンクがクリップボードにコピーされました!
通常、Red Hat JBoss Data Grid は特定のキーのハッシュを使用してエントリーの宛先ノードを決定します。しかし、グループ化 API を使用する場合、キーのハッシュではなくキーに関連するグループのハッシュを使用して宛先ノードを決定します。
各ノードはアルゴリズムを使用して各キーの所有者を決定します。これにより、ノード間のエントリーの場所に関するメタデータ (およびメタデータの更新) を渡す必要がなくなります。これは、以下の理由で有用です。
- コストの高いノード全体のメタデータ更新を行わずに、すべてのノードは特定のキーを所有するノードを判断できます。
- ノードの障害時に所有権情報をレプリケートする必要がないため、冗長性が改善されます。
グループ化 API を使用する場合、各ノードはエントリーの所有者を判断できる必要があります。そのため、グループを手作業で指定することはできず、以下のいずれかである必要があります。
- エントリーへの組み込み。キークラスによって生成されたことを意味します。
- エントリーに対して外部的。外部機能によって生成されたことを意味します。
6.3. グループ化 API のユースケース リンクのコピーリンクがクリップボードにコピーされました!
この機能を使用すると、論理的に関連するデータを 1 つのノードで格納できます。たとえば、キャッシュにユーザー情報が含まれる場合、1 つの場所に存在するすべてのユーザーの情報を 1 つのノードで格納できます。
この方法の利点は、特定のデータ (論理的に関連する) が必要な場合に、分散エクゼキューター (Distributed Executor) のタスクがクラスターのすべてのノード全体ではなく関連するノードでのみ実行されるよう指示されることです。このように操作が指示されるため、パフォーマンスが最適化されます。
グループ化 API の例
Acme 社は世界中に 100 以上の支店を持つ家電販売会社です。支店によって多くの部門の社員が勤務する支店と1、2 部門の社員のみが勤務する支店があります。人事部所属の社員はバンコク、ロンドン、シカゴ、ニース、およびベネチアに勤務しています。
Acme 社は人事部用の社員記録をすべてキャッシュの単一のノード (ノード AB) に移動するため、Red Hat JBoss Data Grid のグループ化 API を使用します。そのため、人事部所属の社員が記録を読み出ししようとすると、DistributedExecutor はノード AB のみをチェックし、必要な社員記録を迅速かつ簡単に呼び出します。
説明どおりに 1 つのノードで関連するエントリーを格納した場合、クラスターのすべてのノードではなく 1 つのノード (またはノードの小さなサブセット) で情報を検索することで、データのアクセスを最適化し、無駄な時間やリソースの発生を防ぐことができます。
6.4. グループ化 API の設定 リンクのコピーリンクがクリップボードにコピーされました!
6.4.1. グループ化 API の設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがってグループ化 API を設定します。
- 宣言的またはプログラム的メソッドを使用してグループを有効にします。
- 組み込みグループまたは非組み込みグループのいずれかを指定します。これらのグループのタイプに関する詳細は、「組み込みグループの指定」および「非組み込みグループの指定」を参照してください。
- 指定した grouper をすべて登録します。
6.4.2. グループの有効化 リンクのコピーリンクがクリップボードにコピーされました!
グループ化 API を設定するための最初のステップは、グループの有効化です。以下の例は、グループを有効にする方法を示しています。
Configuration c = new ConfigurationBuilder().clustering().hash().groups().enabled().build();
Configuration c = new ConfigurationBuilder().clustering().hash().groups().enabled().build();
6.4.3. 埋め込みグループの指定 リンクのコピーリンクがクリップボードにコピーされました!
次の場合は、組み込みグループをグループ化 API で使用します。
- キークラスの定義を変更できる場合 (変更不可能なライブラリーの一部でない)。
- キークラスがキーバリューペアグループの判断を考慮しない場合。
関連するメソッドで @Group アノテーションを使用して組み込みグループを指定します。以下の例のように、グループは常に String である必要があります。
組み込みグループの指定例
6.4.4. 組み込みグループの指定 リンクのコピーリンクがクリップボードにコピーされました!
次の場合は、非組み込みグループをグループ化 API で使用します。
- キークラスの定義を変更できない場合 (変更不可能なライブラリーの一部である)。
- キークラスがキーバリューペアグループの判断を考慮する場合。
組み込みグループは、Grouper インターフェースの実装を使用して指定されます。このインターフェースは computeGroup メソッドを使用してグループを返します。
組み込みグループを指定するとき、 Grouper インターフェースは算出した値を computeGroup に渡してインターセプターとして動作します。@Group アノテーションが使用される場合、このアノテーションを使用するグループが最初の Grouper に渡されます。そのため、組み込みグループを使用するとより優れた制御が提供されます。
非組み込みグループの指定例
以下の例は、パターンを使用してキーからグループを抽出するためにキークラスを使用する簡単な Grouper で構成されます。このような場合、キークラスで指定されたグループ情報は無視されます。
6.4.5. Grouper の登録 リンクのコピーリンクがクリップボードにコピーされました!
作成後、各 grouper を使用するには登録する必要があります。
grouper のプログラムを使った登録
Configuration c = new ConfigurationBuilder().clustering().hash().groups().addGrouper(new KXGrouper()).enabled().build();
Configuration c = new ConfigurationBuilder().clustering().hash().groups().addGrouper(new KXGrouper()).enabled().build();
第7章 永続性 SPI リンクのコピーリンクがクリップボードにコピーされました!
7.1. 永続性 SPI リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、永続性によって外部 (永続) ストレージエンジンを設定できます。これらのストレージエンジンは Red Hat JBoss Data Grid のデフォルトのインメモリーストレージを補完します。
永続外部ストレージには以下のような利点があります。
- メモリーは揮発性で、キャッシュストアによってキャッシュの情報の存続期間を延長することが可能です。これにより、持続性が向上します。
- 永続外部ストアをアプリケーションとカスタムストレージエンジン間のキャッシングレイヤーとして使用すると、ライトスルー機能が向上します。
- エビクションとパッシベーションの組み合わせを使用すると、頻繁に必要な情報のみがメモリー内に保存され、他のデータは外部ストレージに保存されます。
Red Hat JBoss Data Grid のライブラリーモードでのみプログラムを使用して永続性を設定できます。
7.2. 永続性 SPI の利点 リンクのコピーリンクがクリップボードにコピーされました!
永続性 SPI の Red Hat JBoss Data Grid 実装には以下の利点があります。
-
JSR-107 (http://jcp.org/en/jsr/detail?id=107) とのアライメント。JBoss Data Grid の
CacheWriterおよびCacheLoaderインターフェースはJSR-107 ライターおよびリーダーと似ています。そのため、JSR-107 とのアライメントにより、JCache 対応ベンダー全体でストアの移植性が向上します。 - 簡易化されたトランザクション統合。JBoss Data Grid はロックを自動的に処理するため、実装はストアへの同時アクセスを調整する必要はありません。ロックモードによっては同じキーで同時書き込みされないことがあります。しかし、インプリメンターはストアの操作が複数のスレッドから開始され、実装コードが追加されることを想定します。
- シリアライズの減少により CPU の使用率が低下します。新しい SPI は保存されたエントリーをシリアライズされた形式で公開します。リモートで送信するためにエントリーが永続ストレージから取得された場合、デシリアライズ (ストアからの読み取り時) した後に再度シリアライズ (送信の書き込み時) する必要はありません。この代わりにエントリーはストレージから取得されるとシリアライズされた形式で書き込まれます。
7.3. 永続性 SPI のプログラムを使用した設定 リンクのコピーリンクがクリップボードにコピーされました!
以下は、永続性 SPI を使用した単一ファイルストアのプログラムを使用した設定の例になります。
永続性 SPI を使用した単一ファイルストアの設定
7.4. 永続性の例 リンクのコピーリンクがクリップボードにコピーされました!
7.4.1. 永続性の例 リンクのコピーリンクがクリップボードにコピーされました!
以下は、プログラムを使用してキャッシュストア実装を設定する方法を示す例になります。これらのストアの比較と追加情報については『Administration and Configuration Guide』を参照してください。
7.4.2. プログラムを使用したキャッシュストアの設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の例では、プログラムを使用してキャッシュストアを設定する方法を示します。
この設定は単一ファイルキャッシュストア用です。location などの一部の属性は単一ファイルキャッシュストアに固有であり、他の種類のキャッシュストアには使用されません。
プログラムを使用したキャッシュストアの設定
-
ConfigurationBuilderを使用して、新規の設定オブジェクトを作成します。 -
passivation要素は Red Hat JBoss Data Grid がストアと通信する方法に影響を与えます。パッシベーションは、インメモリーキャッシュからオブジェクトを削除し、システムやデータベースなどの 2 次データストアに書き込みます。2 次データストアがない場合、オブジェクトはインメモリーキャッシュから削除されるのみです。パッシベーションはデフォルトでfalseです。 -
addSingleFileStore()要素は、この設定用のキャッシュストアとして SingleFileStore を追加します。addStoreメソッドを使用して追加できる、JDBC キャッシュストアなどの他のストアを作成することができます。 -
sharedパラメーターは、キャッシュストアが異なるキャッシュインスタンスによって共有されていることを示します。たとえば、クラスター内のすべてのインスタンスが、同じリモートの共有データベースと通信するために同じ JDBC 設定を使用する場合があります。sharedは、デフォルトでfalseになります。trueに設定すると、異なるキャッシュインスタンスによって重複データがキャッシュストアに書き込まれないようにすることができます。 -
preload要素はデフォルトではfalseに設定されます。trueに設定されると、キャッシュストアに保存されたデータは、キャッシュの起動時にメモリーにプリロードされます。これにより、キャッシュストアのデータが起動後すぐに利用できるようになり、データをレイジーにロードしたことによるキャッシュ操作の遅延を防ぐことができます。プリロードされたデータは、ノード上でローカルのみに保存され、プリロードされたデータのレプリケーションや分散は行われません。JBoss Data Grid は、エビクションのエントリーの最大設定数までの数をプリロードします。 -
fetchPersistentState要素は、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュストアでこのプロパティーがtrueに設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentStateプロパティーはデフォルトではfalseです。 -
purgeOnStartup要素は、キャッシュストアの起動時にキャッシュストアをパージするかどうかを制御し、デフォルトではfalseになります。 -
location設定要素は、ストアが書き込みできるディスクの場所を設定します。 -
これらの属性は、それぞれのキャッシュストアに固有の内容を設定します。たとえば、
location属性は、SingleFileStore がデータが含まれるファイルを維持する場所を指します。他のストアには、さらに複雑な設定が必要な場合があります。 -
singleton要素を使用すると、クラスター内の 1 つのノードのみで変更を保存できます。このノードはコーディネーターと呼ばれます。コーディネーターは、インメモリー状態のキャッシュをディスクにプッシュします。この機能は、すべてのノードのenabled属性をtrueに設定することによりアクティベートされます。sharedパラメーターは、singletonを同時に有効にした状態で定義することはできません。enabled属性はデフォルトではfalseです。 -
pushStateWhenCoordinator要素はデフォルトではtrueに設定されます。trueの場合、このプロパティーにより、コーディネーターになったノードがインメモリー状態を基礎となるキャッシュストアに転送します。このパラメーターは、コーディネーターがクラッシュし、新規のコーディネーターが選択される場合に役に立ちます。
7.4.3. LevelDB キャッシュストアのプログラムを使用した設定 リンクのコピーリンクがクリップボードにコピーされました!
以下は、LevelDB キャッシュストアの、プログラムを使用した設定例です。
Configuration cacheConfig = new ConfigurationBuilder().persistence()
.addStore(LevelDBStoreConfigurationBuilder.class)
.location("/tmp/leveldb/data")
.expiredLocation("/tmp/leveldb/expired").build();
Configuration cacheConfig = new ConfigurationBuilder().persistence()
.addStore(LevelDBStoreConfigurationBuilder.class)
.location("/tmp/leveldb/data")
.expiredLocation("/tmp/leveldb/expired").build();
LevelDB キャッシュストアのプログラムを使用した設定
-
ConfigurationBuilderを使用して、新規の設定オブジェクトを作成します。 -
LevelDBCacheStoreConfigurationBuilderクラスを使用してストアを追加し、その設定を構築します。 - LevelDB キャッシュストアのロケーションパスを設定します。指定したパスは、主なキャッシュストアデータを保存します。ディレクトリーがない場合は自動的に作成されます。
-
LevelDB ストアの
expiredLocationパラメーターを使用して、期限切れデータの場所を指定します。指定されたパスは、パージされる前に期限切れデータを保存します。ディレクトリーがない場合は自動的に作成されます。
7.4.4. JdbcBinaryStore のプログラムを用いた設定 リンクのコピーリンクがクリップボードにコピーされました!
JdbcBinaryStore は、同じテーブル行/blob の同じハッシュ値 (キー上の hashCode メソッド) ですべてのキーを格納し、すべてのキータイプをサポートします。
バイナリー JDBC ストアは JBoss Data Grid 7.2 では非推奨となったため、実稼働での使用は推奨されません。代わりに String ベースのストアを使用することが推奨されます。
以下は、JdbcBinaryStore の設定例になります。
JdbcBinaryStore のプログラムを使用した設定 (ライブラリーモード)
-
ConfigurationBuilderを使用して、新規の設定オブジェクトを作成します。 -
JdbcBinaryStore設定ビルダーを追加して、このストアに関連する固有の設定を構築します。 -
fetchPersistentState要素は、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュローダーでこのプロパティーがtrueに設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentStateプロパティーはデフォルトではfalseです。 -
ignoreModifications要素は、書き込み操作を共有キャッシュローダーではなく、ローカルファイルキャッシュローダーに許可することで、書き込みメソッドを特定のキャッシュローダーにプッシュするかどうかを決定します。場合によっては、一時的なアプリケーションデータが、インメモリーキャッシュと同じサーバー上のファイルベースのキャッシュローダーにのみ存在する必要があります。たとえば、これはネットワーク内のすべてのサーバーによって使用される追加の JDBC ベースのキャッシュローダーで適用されます。ignoreModificationsはデフォルトではfalseになります。 -
purgeOnStartup要素は、初回起動時にキャッシュがパージされるかどうかを指定します。 テーブルを以下のように設定します。
-
dropOnExitは、キャッシュストアが停止している際にテーブルを破棄するかどうかを決定します。これは、デフォルトではfalseに設定されます。 -
createOnStartは、現在テーブルが存在しない場合にキャッシュストアの起動時にテーブルを作成します。このメソッドはデフォルトではtrueです。 -
tableNamePrefixは、データが保存されるテーブルの名前に接頭辞を設定します。 -
idColumnNameプロパティーは、キャッシュキーまたはバケット ID が保存される列を定義します。 -
dataColumnNameプロパティーは、キャッシュエントリーまたはバケットが保存される列を指定します。 -
timestampColumnName要素は、キャッシュエントリーまたはバケットのタイムスタンプが保存される列を指定します。
-
The
connectionPool要素は、次のパラメーターを使用して JDBC ドライバーの接続プールを指定します。-
connectionUrlパラメーターは、JDBC ドライバー固有の接続 URL を指定します。 -
usernameパラメーターには、connectionUrl経由で接続するために使用されるユーザー名が含まれます。 -
driverClassパラメーターは、データベースへの接続に使用されるドライバーのクラス名を指定します。
-
7.4.5. JdbcStringBasedStore のプログラムを使用した設定 リンクのコピーリンクがクリップボードにコピーされました!
JdbcStringBasedStore は複数のエントリーを各行にグループ化せずに、各エントリーをテーブルの独自の行に格納するため、同時に負荷がかかる状態でスループットが増加します。
以下は、JdbcStringBasedStore の設定例になります。
JdbcStringBasedStore のプログラムを使用した設定
-
ConfigurationBuilderを使用して、新規の設定オブジェクトを作成します。 -
JdbcStringBasedStore設定ビルダーを追加して、このストアに関連する固有の設定を構築します。 -
fetchPersistentStateパラメーターは、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュローダーでこのプロパティーがtrueに設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentStateプロパティーはデフォルトではfalseです。 -
ignoreModificationsパラメーターは、書き込み操作を共有キャッシュローダーではなく、ローカルファイルキャッシュローダーに許可することで、書き込みメソッドを特定のキャッシュローダーにプッシュするかどうかを決定します。場合によっては、一時的なアプリケーションデータが、インメモリーキャッシュと同じサーバー上のファイルベースのキャッシュローダーにのみ存在する必要があります。たとえば、これはネットワーク内のすべてのサーバーによって使用される追加の JDBC ベースのキャッシュローダーで適用されます。ignoreModificationsはデフォルトではfalseになります。 -
purgeOnStartupパラメーターは、初回起動時にキャッシュがパージされるかどうかを指定します。 テーブルの設定
-
dropOnExitは、キャッシュストアが停止している際にテーブルを破棄するかどうかを決定します。これは、デフォルトではfalseに設定されます。 -
createOnStartは、現在テーブルが存在しない場合にキャッシュストアの起動時にテーブルを作成します。このメソッドはデフォルトではtrueです。 -
tableNamePrefixは、データが保存されるテーブルの名前に接頭辞を設定します。 -
idColumnNameプロパティーは、キャッシュキーまたはバケット ID が保存される列を定義します。 -
dataColumnNameプロパティーは、キャッシュエントリーまたはバケットが保存される列を指定します。 -
timestampColumnName要素は、キャッシュエントリーまたはバケットのタイムスタンプが保存される列を指定します。
-
dataSource要素は、以下のパラメーターを使用してデータソースを指定します。-
jndiUrlは、既存の JDBC への JNDI URL を指定します。
-
JdbcStringBasedStore 使用時に IO 例外である Unsupported protocol version 48 エラーが発生した場合、データ列タイプが適切な BLOB や VARBINARY ではなく、VARCHAR や CLOB などに設定されていることを示します。 JdbcStringBasedStore の値はどのデータタイプでもよく、キーが文字列であることのみ必要となります。そのため、バイナリー列に保存することができます。
7.4.6. JdbcMixedStore のプログラムを使用した設定 リンクのコピーリンクがクリップボードにコピーされました!
JdbcMixedStore は、キーのタイプを基にキーを JdbcBinaryStore または JdbcStringBasedStore に委譲するハイブリッド実装です。
混合 JDBC ストアは JBoss Data Grid 7.2 では非推奨となったため、実稼働での使用は推奨されません。代わりに String ベースのストアを使用することが推奨されます。
以下は、JdbcMixedStore の設定例になります。
JdbcMixedStore のプログラムを使用した設定
-
ConfigurationBuilderを使用して、新規の設定オブジェクトを作成します。 -
JdbcMixedStore設定ビルダーを追加して、このストアに関連する固有の設定を構築します。 -
fetchPersistentStateパラメーターは、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュローダーでこのプロパティーがtrueに設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentStateプロパティーはデフォルトではfalseです。 -
ignoreModificationsパラメーターは、書き込み操作を共有キャッシュローダーではなく、ローカルファイルキャッシュローダーに許可することで、書き込みメソッドを特定のキャッシュローダーにプッシュするかどうかを決定します。場合によっては、一時的なアプリケーションデータが、インメモリーキャッシュと同じサーバー上のファイルベースのキャッシュローダーにのみ存在する必要があります。たとえば、これはネットワーク内のすべてのサーバーによって使用される追加の JDBC ベースのキャッシュローダーで適用されます。ignoreModificationsはデフォルトではfalseになります。 -
purgeOnStartupパラメーターは、初回起動時にキャッシュがパージされるかどうかを指定します。 テーブルを以下のように設定します。
-
dropOnExitは、キャッシュストアが停止している際にテーブルを破棄するかどうかを決定します。これは、デフォルトではfalseに設定されます。 -
createOnStartは、現在テーブルが存在しない場合にキャッシュストアの起動時にテーブルを作成します。このメソッドはデフォルトではtrueです。 -
tableNamePrefixは、データが保存されるテーブルの名前に接頭辞を設定します。 -
idColumnNameプロパティーは、キャッシュキーまたはバケット ID が保存される列を定義します。 -
dataColumnNameプロパティーは、キャッシュエントリーまたはバケットが保存される列を指定します。 -
timestampColumnName要素は、キャッシュエントリーまたはバケットのタイムスタンプが保存される列を指定します。
-
The
connectionPool要素は、次のパラメーターを使用して JDBC ドライバーの接続プールを指定します。-
connectionUrlパラメーターは、JDBC ドライバー固有の接続 URL を指定します。 -
usernameパラメーターには、connectionUrl経由で接続するために使用されるユーザー名が含まれます。 -
driverClassパラメーターは、データベースへの接続に使用されるドライバーのクラス名を指定します。
-
7.4.7. JPA キャッシュストアのプログラムを使用した設定例 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid で JPA キャッシュストアをプログラムを使用して設定するには、以下を使用します。
Configuration cacheConfig = new ConfigurationBuilder().persistence()
.addStore(JpaStoreConfigurationBuilder.class)
.persistenceUnitName("org.infinispan.loaders.jpa.configurationTest")
.entityClass(User.class)
.build();
Configuration cacheConfig = new ConfigurationBuilder().persistence()
.addStore(JpaStoreConfigurationBuilder.class)
.persistenceUnitName("org.infinispan.loaders.jpa.configurationTest")
.entityClass(User.class)
.build();
このコード例で使用されるパラメーターは以下のとおりです。
-
persistenceUnitNameパラメーターは、JPA エンティティークラスが含まれる設定ファイル (persistence.xml ) の JPA キャッシュストアの名前を指定します。 -
entityClassパラメーターは、このキャッシュに格納された JPA エンティティークラスを指定します。設定ごとに 1 つのクラスのみを指定できます。
7.4.8. Cassandra キャッシュストアのプログラムを使用した設定例 リンクのコピーリンクがクリップボードにコピーされました!
Cassandra キャッシュストアは、Red Hat JBoss Data Grid のコアライブラリーの一部ではなく、クラスパスに追加する必要があります。Maven プロジェクトでは、以下を pom.xml に追加するとクラスパスに追加できます。
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-cachestore-cassandra</artifactId>
<version>...</version> <!-- 7.2.0 or later -->
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-cachestore-cassandra</artifactId>
<version>...</version> <!-- 7.2.0 or later -->
</dependency>
以下の設定スニペットは、プログラムを使用して Cassandra キャッシュストアを定義する方法の例を示しています。
第8章 ConfigurationBuilder API リンクのコピーリンクがクリップボードにコピーされました!
8.1. ConfigurationBuilder API リンクのコピーリンクがクリップボードにコピーされました!
ConfigurationBuilder API は Red Hat JBoss Data Grid のプログラミング可能な設定 API です。
ConfigurationBuilder API は、以下のことが行えるよう設計されています。
- コーディングプロセスをより効率的にするための設定オプションのチェーンコーディング
- 設定の可読性の向上
Red Hat JBoss Data Grid では、ConfigurationBuilder API は、CacheLoaders を有効にし、グローバルおよびキャッシュレベルの操作を設定するためにも使用されます。
プログラムを使用した設定は、Red Hat JBoss Data Grid のライブラリーモードでのみ実行できます。
8.2. ConfigurationBuilder API の使用 リンクのコピーリンクがクリップボードにコピーされました!
8.2.1. CacheManager およびレプリケートされたキャッシュのプログラムによる作成 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のプログラムによる設定は、ほぼ ConfigurationBuilder API および CacheManager のみが関係します。以下はプログラムによる CacheManager 設定の例になります。
CacheManager のプログラムを使用した設定
- XML ファイルで初めに CacheManager を作成します。必要な場合は、ユースケースの要件を満たす仕様に基づいて実行時にこの CacheManager をプログラミングできます。
プログラムを使用して、同期的にレプリケートされたキャッシュを新規作成します。
ConfigurationBuilder ヘルパーオブジェクトを使用して新しい設定オブジェクトインスタンスを作成します。
設定の最初の行で、
ConfigurationBuilderを使用して新しいキャッシュ設定オブジェクト (c) が作成されます。設定cには、キャッシュモードを除くすべてのキャッシュ設定オプションのデフォルト値が割り当てられ、この値は上書きされ、同期レプリケーション (REPL_SYNC) に設定されます。マネージャーで設定を定義または登録します。
設定の 3 行目で、キャッシュマネージャーは名前付きキャッシュ設定を定義するために使用されます。この名前付きキャッシュ設定は
replと呼ばれ、設定は最初の行のキャッシュ設定cに提供された設定に基づきます。-
設定の 4 行目で、キャッシュマネージャーで保持された
replの一意のインスタンスに対する参照を取得するために、キャッシュマネージャーが使用されます。このキャッシュインスタンスはデータを格納および取得する操作を実行するために使用できます。
8.2.2. クラスター全体の動的キャッシュ作成 リンクのコピーリンクがクリップボードにコピーされました!
上記の例のように、getCache() メソッドを使用する場合、キャッシュは 1 つのノードでのみ作成されます。キャッシュをクラスターに参加する新しいノードで動的に作成する必要がある場合は、代わりに createCache() メソッドを使用します。
Cache<String, String> cache = manager.administration().createCache("newCacheName", "newTemplate");
Cache<String, String> cache = manager.administration().createCache("newCacheName", "newTemplate");
このように作成されたキャッシュはクラスターのすべてのノードで利用可能になりますが、それは一時的です。クラスター全体をシャットダウンし、再起動しても、キャッシュは自動的に再作成されません。キャッシュを永続化するには、PERMANENT フラグを以下のように使用します。
Cache<String, String> cache = manager.administration().withFlags(AdminFlag.PERMANENT).createCache("newCacheName", "newTemplate");
Cache<String, String> cache = manager.administration().withFlags(AdminFlag.PERMANENT).createCache("newCacheName", "newTemplate");
上記は、グローバル状態を有効にし、適切な設定ストレージを選択しないと動作しません。選択可能な設定ストレージは以下のとおりです。
-
VOLATILE: 名前が意味するとおり、この設定ストレージはPERMANENTキャッシュをサポートしません。 -
OVERLAY: caches.xml という名前のファイルのグローバルな共有状態永続パスに設定を保存します。 -
MANAGED: サーバーデプロイメントでのみサポートされ、PERMANENTキャッシュをサーバーモデルに保存します。 -
CUSTOM: カスタムの設定ストア。
8.2.3. デフォルトの名前付きキャッシュを使用したカスタマイズされたキャッシュの作成 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトキャッシュ設定 (またはカスタマイズされた設定) は新しいキャッシュを作成する土台として使用できます。
例として、infinispan-config-file.xml で、レプリケートされたキャッシュの設定がデフォルト値として指定され、カスタマイズされたライフスパン値を持つ分散キャッシュが必要であるとします。必要な分散キャッシュは infinispan-config-file.xml ファイルで指定されたデフォルトキャッシュのすべての内容 (言及された内容を除く) を保持する必要があります。
デフォルトキャッシュのカスタマイズ
-
デフォルトの
Configurationオブジェクトのインスタンスを読み取り、デフォルトの設定を取得します。 -
ConfigurationBuilderを使用して、新しい設定オブジェクトでキャッシュモードと L1 キャッシュライフスパンを構築および変更します。 - キャッシュマネージャーでキャッシュ設定を登録または定義します。
-
指定された設定が含まれる
newCacheへの参照を取得します。
8.2.4. デフォルトでない名前付きキャッシュを使用したカスタマイズされたキャッシュの作成 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでない名前付きキャッシュを使用して新しいカスタマイズされたキャッシュを作成する必要があることがあります。この手順は、デフォルトの名前付きキャッシュを使用する場合の手順に似ています。
違いは、デフォルトのキャッシュの代わりに replicatedCache という名前のキャッシュを取得することです。
デフォルトでない名前付きキャッシュを使用したカスタマイズされたキャッシュの作成
-
replicatedCacheを読み取り、デフォルト設定を取得します。 -
ConfigurationBuilderを使用して、新しい設定オブジェクトで必要な設定を構築および変更します。 - キャッシュマネージャーでキャッシュ設定を登録または定義します。
-
指定された設定が含まれる
newCacheへの参照を取得します。
8.2.5. Configuration Builder を使用したプログラムによるキャッシュの作成 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトキャッシュ値で xml ファイルを使用して新しいキャッシュを作成する代わりに、ConfigurationBuilder API を使用して XML ファイルなしで新しいキャッシュを作成します。ConfigurationBuilder API は設定オプションに対してチェーンされたコードを作成するときに使いやすさを提供することを目的としています。
以下の新しい設定は、グローバルおよびキャッシュレベル設定に対して有効です。GlobalConfiguration オブジェクトは、GlobalConfigurationBuilder を使用して構築され、Configuration オブジェクトは ConfigurationBuilder を使用して構築されます。
8.2.6. グローバル設定の例 リンクのコピーリンクがクリップボードにコピーされました!
8.2.6.1. トランスポート層のグローバル設定 リンクのコピーリンクがクリップボードにコピーされました!
通常使用される設定オプションは、トランスポート層を設定します。これにより、どのようにノードが他のノードを検出するかが Red Hat JBoss Data Grid に通知されます。
トランスポート層の設定
GlobalConfiguration globalConfig = new GlobalConfigurationBuilder() .transport().defaultTransport() .build();
GlobalConfiguration globalConfig = new GlobalConfigurationBuilder()
.transport().defaultTransport()
.build();
8.2.6.2. キャッシュマネージャー名のグローバル設定 リンクのコピーリンクがクリップボードにコピーされました!
以下のサンプル設定では、グローバル JMX 統計レベルからオプションを使用してキャッシュマネージャーの名前を設定できます。この名前は、特定のキャッシュマネージャーと同じシステムの他のキャッシュマネージャーを区別します。
キャッシュマネージャー名の設定
8.2.6.3. JGroups のグローバル設定 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid がクラスターモードで動作するには、適切な JGroups 設定が必要になります。以下の設定例は、事前定義された JGroups 設定ファイルを設定に渡す方法を示しています。
JGroups のプログラムを使用した設定
GlobalConfiguration gc = new GlobalConfigurationBuilder()
.transport()
.defaultTransport()
.addProperty("configurationFile","jgroups.xml")
.build();
GlobalConfiguration gc = new GlobalConfigurationBuilder()
.transport()
.defaultTransport()
.addProperty("configurationFile","jgroups.xml")
.build();
Red Hat JBoss Data Grid は最初にクラスパスにある jgroups.xml を検索します。クラスパスでインスタンスが見つからない場合は、絶対パス名を検索します。
8.2.7. キャッシュレベル設定の例 リンクのコピーリンクがクリップボードにコピーされました!
8.2.7.1. クラスターモードのキャッシュレベル設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の設定により、グローバルでないキャッシュレベルでのキャッシュのクラスターモードなどのオプションを使用できます。
キャッシュレベルでのクラスターモードの設定
8.2.7.2. キャッシュレベルのエビクションおよびエクスパレーションの設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の設定を使用して、キャッシュレベルでキャッシュのエクスパレーションまたはエビクションオプションを設定します。
エクスパレーションおよびエビクションのキャッシュレベルでの設定
8.2.7.3. JTA トランザクションのキャッシュレベルの設定 リンクのコピーリンクがクリップボードにコピーされました!
JTA トランザクション設定のキャッシュと対話するには、トランザクション層を設定し、任意でロック設定をカスタマイズします。トランザクションキャッシュでは、トランザクションリカバリーを有効にして未完了のトランザクションに対応することが推奨されます。さらに、JMX 管理および統計収集も有効にすることが推奨されます。
JTA トランザクションのキャッシュレベルでの設定
8.2.7.4. チェーンされた永続ストアを使用したキャッシュレベルでの設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の設定は、キャッシュレベルで 1 つまたは複数のチェーンされた永続ストアを設定するために使用できます。
チェーンされた永続ストアのキャッシュレベルでの設定
8.2.7.5. 高度なエクスターナライザーのキャッシュレベルでの設定 リンクのコピーリンクがクリップボードにコピーされました!
高度なエクスターナライザーに対するキャッシュレベル設定などの高度なオプションは、以下のようにプログラムを使用して設定することもできます。
高度なエクスターナライザーのキャッシュレベルでの設定
GlobalConfiguration globalConfig = new GlobalConfigurationBuilder()
.serialization()
.addAdvancedExternalizer(new PersonExternalizer())
.addAdvancedExternalizer(999, new AddressExternalizer())
.build();
GlobalConfiguration globalConfig = new GlobalConfigurationBuilder()
.serialization()
.addAdvancedExternalizer(new PersonExternalizer())
.addAdvancedExternalizer(999, new AddressExternalizer())
.build();
8.2.7.6. パーティション処理のキャッシュレベルでの設定 (ライブラリーノード) リンクのコピーリンクがクリップボードにコピーされました!
スプリットブレインが発生した場合、パーティション処理ストラテジーを選択して、データの一貫性または可用性を提供できます。可用性を選択し、データの一貫性が失われる場合、マージポリシーを選択して、ノードが再参加時にデータをマージする方法を定義することもできます。設定例を以下に示します。
ConfigurationBuilder dcc = new ConfigurationBuilder();
dcc.clustering().partitionHandling()
.whenSplit(PartitionHandling.DENY_READ_WRITES)
.mergePolicy(MergePolicies.REMOVE_ALL);
ConfigurationBuilder dcc = new ConfigurationBuilder();
dcc.clustering().partitionHandling()
.whenSplit(PartitionHandling.DENY_READ_WRITES)
.mergePolicy(MergePolicies.REMOVE_ALL);
パーティション処理に関する詳細は、『Administration and Configuration Guide』を参照してください。
クライアントサーバーモードでパーティション処理を設定するには、『Administration and Configuration Guide』の説明にしたがって宣言的に有効にする必要があります。
第9章 Externalizable API リンクのコピーリンクがクリップボードにコピーされました!
9.1. Externalizable API リンクのコピーリンクがクリップボードにコピーされました!
Externalizer は以下を実行できるクラスです。
- 該当するオブジェクトタイプをバイトアレイにマーシャリングします。
- バイトアレイの内容のオブジェクトタイプのインスタンスに対するマーシャリングを解除します。
エクスターナライザーは Red Hat JBoss Data Grid によって使用され、ユーザーはオブジェクトタイプをどのようにシリアライズするかを指定できます。Red Hat JBoss Data Grid で使用されるマーシャリングインフラストラクチャーは、JBoss Marshalling に基づいて構築され、効率的なペイロード配信を提供し、ストリームのキャッシュを可能にします。ストリームキャッシングを使用すると、データに複数回アクセスできますが、通常はストリームは 1 度だけ読み取ることができます。
Externalizable インターフェースはシリアライゼーションを使用および拡張します。このインターフェースは、Red Hat JBoss Data Grid でシリアライズとデシリアライズを制御するために使用されます。
9.2. エクスターナライザーのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のデフォルト設定では、分散またはレプリケートされたキャッシュで使用されるすべてのオブジェクトはシリアライズ可能である必要があります。デフォルトの Java シリアル化メカニズムでは、ネットワークやパフォーマンスの効率が悪化する可能性があります。また、シリアライズのバージョン管理や後方互換性などに懸念があります。
スループットやパフォーマンスを向上し、特定のオブジェクトの互換性を強制するには、カスタマイズされたエクスターナライザーを使用します。Red Hat JBoss Data Grid のカスタマイズされたエクスターナライザーは、以下の 2 つ方法のいずれかで使用できます。
- Externalizable インターフェースを使用します。
- 高度なエクスターナライザーを使用します。
9.3. @SerializeWith を使用したマーシャリングのオブジェクトのアノテーション付け リンクのコピーリンクがクリップボードにコピーされました!
オブジェクトをマーシャルするには、マーシャルまたはアンマーシャルする必要があるタイプにエクスターナライザー実装を提供し、マーシャルされたタイプクラスに @SerializeWith アノテーションを付けて使用するエクスターナライザークラスを示します。
@SerializeWith アノテーションの使用
この例では、 @SerializeWith アノテーションによってオブジェクトがマーシャル可能であると定義されています。よって、JBoss Marshalling は渡されたエクスターナライザークラスを使用してオブジェクトをマーシャルします。
この方法はエクスターナライザーを簡単に定義できますが、以下の欠点があります。
- このやり方で生成されたペイロードサイズは最も効率的ではありません。これは、モデルの制約の一部 (同じクラスの異なるバージョンへのサポートなど) や、エクスターナライザークラスをマーシャルする必要性が原因です。
-
このモデルでは、マーシャルされるクラスに
@SerializeWithアノテーションを付ける必要があります。しかし、ソースコードが利用できないクラスにエクスターナライザーを提供する必要がある可能性があり、他の制約では変更できません。 - このモデルで使用されるアノテーションは、マーシャリング層などの下位レベルの詳細を抽象化しようとするフレームワーク開発者やサービスプロバイダーが制限されることがあります。
このような欠点に影響されるユーザーは高度なエクスターナライザーを使用できます。
エクスターナライザー実装のコーディングを容易にし、よりタイプセーフにするには、タイプ <t> をマーシャルまたはアンマーシャルされたオブジェクトのタイプとして定義します。
9.4. 高度なエクスターナライザーの使用 リンクのコピーリンクがクリップボードにコピーされました!
9.4.1. 高度なエクスターナライザーの使用 リンクのコピーリンクがクリップボードにコピーされました!
カスタマイズされた高度なエクスターナライザーを使用すると、Red Hat JBoss Data Grid のパフォーマンスを最適化できます。
-
readObject()およびwriteObject()メソッドを定義および実装します。 - エクスターナライザーをマーシャラークラスとリンクします。
- 高度なエクスターナライザーを登録します。
9.4.2. メソッドの実装 リンクのコピーリンクがクリップボードにコピーされました!
高度なエクスターナライザーを使用するには、readObject() および writeObject() メソッドを定義および実装します。定義の例は以下のとおりです。
メソッドの定義および実装
このメソッドにはアノテーションが付けられたユーザークラスは必要ありません。そのため、このメソッドはソースコードの使用や変更が不可能なクラスに有効です。
9.4.3. エクスターナライザーとマーシャラークラスのリンク リンクのコピーリンクがクリップボードにコピーされました!
getTypeClasses() の実装を使用してこのエクスターナライザーによるマーシャリングが可能なクラスを検索し、readObject() および writeObject() クラスへリンクします。
実装例を以下に示します。
この例では、ReplicableCommandExternalizer は複数のコマンドタイプを外部化できることを示しています。この例では ReplicableCommand インターフェースを拡張するすべてのコマンドをマーシャルしますが、フレームワークはクラスの等価比較のみをサポートするため、マーシャルされたクラスがすべて特定のクラスまたはインターフェースの子であることを示すことはできません。
場合によっては、外部化するクラスがプライベートであるためクラスインスタンスにアクセスできないことがあります。このような場合、提供された完全修飾クラス名でクラスを検索し、戻します。例は次のとおりです。
@Override
public Set<Class<? extends List>> getTypeClasses() {
return Util.<Class<? extends List>>asSet(
Util.<List>loadClass("java.util.Collections$SingletonList", null));
}
@Override
public Set<Class<? extends List>> getTypeClasses() {
return Util.<Class<? extends List>>asSet(
Util.<List>loadClass("java.util.Collections$SingletonList", null));
}
9.4.4. 高度なエクスターナライザーの登録 (プログラムを使用) リンクのコピーリンクがクリップボードにコピーされました!
高度なエクスターナライザーの設定後、Red Hat JBoss Data Grid で使用するために登録します。以下のようにプログラムを使用して登録します。
高度なエクスターナライザーのプログラムを使用した登録
GlobalConfigurationBuilder builder = ... builder.serialization() .addAdvancedExternalizer(new Person.PersonExternalizer());
GlobalConfigurationBuilder builder = ...
builder.serialization()
.addAdvancedExternalizer(new Person.PersonExternalizer());
最初の行に GlobalConfigurationBuilder の必要な情報を入力します。
9.4.5. 複数のエクスターナライザーの登録 リンクのコピーリンクがクリップボードにコピーされました!
GlobalConfiguration.addExternalizer() は varargs を許可するため、高度なエクスターナライザーを複数登録することもできます。新しいエクスターナライザーを登録する前に、@Marshalls アノテーションを使用して ID が定義されていることを確認します。
エクスターナライザーの複数登録
builder.serialization()
.addAdvancedExternalizer(new Person.PersonExternalizer(),
new Address.AddressExternalizer());
builder.serialization()
.addAdvancedExternalizer(new Person.PersonExternalizer(),
new Address.AddressExternalizer());
9.5. エクスターナライザー ID 値のカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
9.5.1. エクスターナライザー ID 値のカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
高度なエクスターナライザーには必要な場合にカスタム ID を割り当てることができます。一部の ID 範囲は他のモジュールやフレームワーク用に予約されるため、その使用を避ける必要があります。
| ID 範囲 | 対象 |
|---|---|
|
1000-1099 |
Infinispan Tree モジュール |
|
1100-1199 |
Red Hat JBoss Data Grid Server モジュール |
|
1200-1299 |
Hibernate Infinispan 2 次キャッシュ |
|
1300-1399 |
JBoss Data Grid Lucene Directory |
|
1400-1499 |
Hibernate OGM |
|
1500-1599 |
Hibernate Search |
|
1600-1699 |
Infinispan Query モジュール |
|
1700-1799 |
Infinispan Remote Query モジュール |
|
1800-1849 |
JBoss Data Grid Scripting モジュール |
|
1850-1899 |
JBoss Data Grid Server Event Logger モジュール |
|
1900-1999 |
JBoss Data Grid リモートストア |
9.5.2. エクスターナライザー ID のカスタマイズ (プログラムを使用) リンクのコピーリンクがクリップボードにコピーされました!
以下の設定を使用して、プログラムを使用して特定の ID をエクスターナライザーに割り当てます。
エクスターナライザーへの ID の割り当て
GlobalConfiguration globalConfiguration = new GlobalConfigurationBuilder()
.serialization()
.addAdvancedExternalizer($ID, new Person.PersonExternalizer())
.build();
GlobalConfiguration globalConfiguration = new GlobalConfigurationBuilder()
.serialization()
.addAdvancedExternalizer($ID, new Person.PersonExternalizer())
.build();
$ID を指定する ID に置き換えます。
第10章 通知/リスナー API リンクのコピーリンクがクリップボードにコピーされました!
10.1. 通知/リスナー API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は、発生時にイベントの通知を行うリスナー API を提供します。クライアントは、関係する通知に対してリスナー API の登録を選択できます。 この API はアノテーション駆動型で、キャッシュレベルのイベントとキャッシュマネージャーレベルのイベント上で操作します。
10.2. リスナーの例 リンクのコピーリンクがクリップボードにコピーされました!
次の例は、新しいエントリーがキャッシュに追加されるたびに情報を出力する Red Hat JBoss Data Grid のリスナーを定義します。
リスナーの設定
10.3. リスナー通知 リンクのコピーリンクがクリップボードにコピーされました!
10.3.1. リスナー通知 リンクのコピーリンクがクリップボードにコピーされました!
キャッシュイベントが発生するたびに通知がリスナーに送信されます。リスナーは、@Listener アノテーションが付いた簡単な POJO です。Listenable は、実装がアタッチするリスナーを持つことを意味するインターフェースです。各リスナーは Listenable で定義されたメソッドを使用して登録されます。
キャッシュレベルまたはキャッシュマネージャーレベルの通知を受信するため、リスナーはキャッシュおよびキャッシュマネージャーの両方にアタッチすることが可能です。
10.3.2. キャッシュレベルの通知 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、キャッシュレベルのイベントはキャッシュごとに発生します。キャッシュレベルイベントの例には、関係するキャッシュで登録されたリスナーへの通知を引き起こすエントリーの追加、削除、および変更などが含まれます。
10.3.3. キャッシュマネージャーレベルの通知 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のキャッシュマネージャーレベルで発生するイベントの例は次のとおりです。
- キャッシュの開始および停止
- クラスターに参加するノードまたはクラスターから離脱するノード
キャッシュマネージャーレベルのイベントはグローバルに位置し、クラスター全体で使用されますが、単一のキャッシュマネージャーによって作成されたキャッシュ内のイベントに制限されます。
最初の 2 つのイベントである CacheStarted および CacheStopped は大変似ています。以下の例は、開始または停止されたキャッシュの名前を出力します。
ViewChangedEvent または MergeEvent を受信するとき、新旧メンバーのリストはイベントが生成されたノードから送信されることに注意してください。例として、以下のシナリオについて考えてみましょう。
- 現在、JDG クラスターはノード A、B、および C で構成されます。
- ノード D がクラスターに参加します。
-
ノード A、B、および C は、[A,B,C] を旧メンバーのリストとし、[A,B,C,D] を新メンバーのリストとする
ViewChangedEventを受信します。 -
ノード D は、[D] を旧メンバーのリストとし、[A,B,C,D] を新メンバーのリストとする
ViewChangedEventを受信します。
よって、ノードのクラスターへの参加またはクラスターからの離脱を判断するために積集合が使用されることがあります。以下のように getOldMembers() と getNewMembers() を使用すると、クラスターに参加したノードや離脱したノードのセットを判断できます。
MergeEvent の実行中に同様の論理を使用して、クラスターの新しいメンバーセットを判断することもできます。
10.3.4. 同期および非同期通知 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、Red Hat JBoss Data Grid の通知はイベントが生成された同じスレッドで送信されます。そのため、スレッドの進行を妨げないようにリスナーを書く必要があります。
この代わりに、別のスレッドで通知を送信し、元のスレッドの操作を妨げないようにするために、リスナーを非同期としてアノテーション付けすることもできます。
以下を使用してリスナーにアノテーションを付けます。
@Listener (sync = false)
public class MyAsyncListener { .... }
@Listener (sync = false)
public class MyAsyncListener { .... }
XML 設定ファイルで asyncListenerExecutor 要素を使用し、非同期通知の送信に使用されるスレッドプールを調整します。
CacheEntryExpiredEvent を処理する非クラスターの同期リスナーを使用する場合、非スラスター環境ではエクスパレーションリーパー (reaper) も同期であるため、リスナーが実行を妨害しないようにしてください。
10.4. キャッシュエントリーの変更 リンクのコピーリンクがクリップボードにコピーされました!
10.4.1. キャッシュエントリーの変更 リンクのコピーリンクがクリップボードにコピーされました!
キャッシュエントリーの作成後、プログラムを使用してキャッシュエントリーを変更できます。
10.4.2. キャッシュエントリーが変更されたリスナーの設定 リンクのコピーリンクがクリップボードにコピーされました!
キャッシュエントリーが変更されたリスナーイベントでは、getValue() メソッドの動作は、実際の操作の実行前または実行後にコールバックがトリガーされたかどうかに特定されます。たとえば、event.isPre() が true の場合、event.getValue() は変更の前に古い値を返します。event.isPre() が false の場合、event.getValue() は新しい値を返します。イベントによって新しいエントリーが作成および挿入される場合、古い値は null になります。isPre() の詳細は、Red Hat JBoss Data Grid の『API Documentation』に記載されている org.infinispan.notifications.cachelistener.event パッケージのリストを参照してください。
Listenable および FilteringListenable インターフェース (Cache オブジェクトによって実装される) によって公開されるメソッドを使用する場合のみ、プログラムを使用してリスナーを設定できます。
10.4.3. キャッシュエントリーが変更されたリスナーの例 リンクのコピーリンクがクリップボードにコピーされました!
以下の例は、キャッシュエントリーが変更されるたびに情報を出力する Red Hat JBoss Data Grid のリスナーを定義します。
変更されたリスナー
10.5. クラスター化リスナー リンクのコピーリンクがクリップボードにコピーされました!
10.5.1. クラスター化リスナー リンクのコピーリンクがクリップボードにコピーされました!
クラスター化リスナーは、リスナーを分散キャッシュ設定で使用できるようにします。分散キャッシュ環境では、イベントが発生したノードのローカルイベントのみが登録されたローカルリスナーに通知されます。クラスター化リスナーでは、イベントが発生したノードに関係なくクラスターで発生する書き込み通知を 1 つのリスナーが受信できるようにし、この問題に対応します。そのため、クラスター化リスナーのパフォーマンスは、イベントが発生するノードのイベント通知のみを提供する非クラスター化リスナーよりも遅くなります。
クラスター化リスナーを使用する場合、特定のキャッシュでエントリーの追加、更新、期限切れ、または削除が行われるとクライアントアプリケーションに通知が送られます。イベントはクラスター全体であるため、アプリケーションが存在するノードや接続するノードに関係なく、クライアントアプリケーションはイベントにアクセスできます。
イベントは、常にリスナーが登録されたノード上で発生し、キャッシュの更新が発生した場所は関係しません。
10.5.2. クラスター化リスナーの設定 リンクのコピーリンクがクリップボードにコピーされました!
以下のユースケースではリスナーは受け取ったイベントを保存します。
手順: クラスター化リスナーの設定
-
クラスター化リスナーを有効にするには、
@Listenerクラスにclustered=trueを付けます。 エントリーの追加、変更、期限切れ、または削除時にクライアントアプリケーションが通知を受けるようにするため、以下のメソッドにはアノテーションが付けられます。
-
@CacheEntryCreated -
@CacheEntryModified -
@CacheEntryExpired -
@CacheEntryRemoved
-
- リスナーはキャッシュで登録され、オプションでフィルターまたはコンバーターを渡すことができます。
クラスター化リスナーを使用すると、非クラスターリスナーでは適用されない以下の制限が適用されます。
- クラスターリスナーは作成されたエントリー、変更されたエントリー、期限切れのエントリー、または削除されたエントリーのみをリッスンできます。他のイベントはクラスター化リスナーによってリッスンされません。
- ポストイベントのみがクラスター化リスナーに送信され、プレイベントは無視されます。
10.5.3. キャッシュリスナー API リンクのコピーリンクがクリップボードにコピーされました!
addListener メソッドを使用すると、クラスター化されたリスナーを既存の @CacheListener API の上に追加できます。
キャッシュリスナー API
cache.addListener(Object listener, Filter filter, Converter converter);
cache.addListener(Object listener, Filter filter, Converter converter);
public @interface Listener {
boolean clustered() default false;
boolean includeCurrentState() default false;
boolean sync() default true;
}
public @interface Listener {
boolean clustered() default false;
boolean includeCurrentState() default false;
boolean sync() default true;
}
interface CacheEventFilter<K,V> {
public boolean accept(K key, V oldValue, Metadata oldMetadata, V newValue, Metadata newMetadata, EventType eventType);
}
interface CacheEventFilter<K,V> {
public boolean accept(K key, V oldValue, Metadata oldMetadata, V newValue, Metadata newMetadata, EventType eventType);
}
interface CacheEventConverter<K,V,C> {
public C convert(K key, V oldValue, Metadata oldMetadata, V newValue, Metadata newMetadata, EventType eventType);
}
interface CacheEventConverter<K,V,C> {
public C convert(K key, V oldValue, Metadata oldMetadata, V newValue, Metadata newMetadata, EventType eventType);
}
- Cache API
ローカルまたはクラスター化リスナーは
cache.addListenerメソッドで登録でき、以下のイベントの 1 つが発生するまでアクティブな状態になります。-
cache.removeListenerを呼び出してリスナーが明示的に登録解除される。 - リスナーが登録されたノードがクラッシュする。
-
- リスナーアノテーション
リスナーアノテーションは以下の 3 つの属性で強化されます。
-
clustered(): この属性は、アノテーションが付けられたリスナーがクラスター化されているかどうかを定義します。クラスター化されたリスナーは@CacheEntryRemoved、@CacheEntryCreated、@CacheEntryExpired、および@CacheEntryModifiedイベントのみの通知を受けることができます。この属性はデフォルトで false に指定されています。 -
includeCurrentState(): この属性はクラスター化リスナーのみに適用され、デフォルトで false に指定されています。trueに設定すると、クラスター内で既存の状態全体が評価されます。登録されると、キャッシュの各エントリーのCacheCreatedEventが即座にリスナーに送信されます。 -
sync()に関する詳細は、「同期および非同期の通知」を参照してください。
-
oldValueおよびoldMetadata-
oldValueおよびoldMetadataの値は、CacheEventFilterおよびCacheEventConverterクラスの許可メソッド上の追加メソッドです。これらの値は、ローカルリスナーを含むすべてのリスナーに提供されます。これらの値の詳細は、JBoss Data Grid の API ドキュメント を参照してください。 EventType-
EventTypeには、イベントのタイプ、再試行であったかどうか、およびプレまたはポストイベントであったかどうかが含まれます。
クラスター化リスナーを使用する場合、キャッシュが更新される順序は通知を受け取る順序に反映されます。
クラスター化リスナーは、イベントが 1 度だけ送信されることを保証しません。同じイベントが複数回送信されないようにするため、リスナー実装はべき等である必要があります。安定したクラスターや、includeCurrentState の結果として合成イベントが生成されるタイムスパン外部では、単一性が受け入れられることをインプリメンターは想定することができます。
10.5.4. クラスター化リスナーの例 リンクのコピーリンクがクリップボードにコピーされました!
次のユースケースは、ニューヨーク州のニューヨーク市宛の注文がいつ生成されるか知りたいリスナーを表しています。リスナーには、ニューヨークから出入りする注文をフィルターする Filter が必要です。さらに、注文全体は必要ではなく、配達される日付のみが必要であるため、Converter も必要になります。
ユースケース: ニューヨーク宛の注文のフィルターおよび変換
10.5.5. 最適化されたキャッシュフィルターコンバーター リンクのコピーリンクがクリップボードにコピーされました!
「クラスター化リスナーの例」では、結果のフィルターおよび変換を一度に実行するために、最適化された CacheEventFilterConverter を使用できます。
CacheEventFilterConverter は、イベントのフィルターと変換を一度に実行できるようにする最適化です。これは、イベントフィルターとコンバーターが同じオブジェクトとして最も効率的に使用され、同じメソッドでフィルターと変換が行われる場合に使用できます。戻り値が null の場合は値がフィルターを通過しなかったことを意味するため、変換が null 値を返さない場合のみ使用できます。null 値を変換するには、CacheEventFilter および CacheEventConverter インターフェースを独立して使用します。
以下は、CacheEventFilterConverter を使用したニューヨーク宛の注文のユースケース例になります。
CacheEventFilterConverter
リスナーの登録時、フィルターとコンバーターの両方の引数として FilterConverter を提供します。
OrderDateFilterConverter filterConverter = new OrderDateFilterConverter("NY", "New York");
cache.addListener(listener, filterConveter, filterConverter);
OrderDateFilterConverter filterConverter = new OrderDateFilterConverter("NY", "New York");
cache.addListener(listener, filterConveter, filterConverter);
10.6. リモートイベントリスナー (Hot Rod) リンクのコピーリンクがクリップボードにコピーされました!
10.6.1. リモートイベントリスナー (Hot Rod) リンクのコピーリンクがクリップボードにコピーされました!
イベントリスナーは、Red Hat JBoss Data Grid Hot Rod サーバーが CacheEntryCreated、CacheEntryModified、CacheEntryExpired、CacheEntryRemoved などのイベントのリモートクライアントを通知できるようにします。接続されたクライアントが殺到しないようにするため、クライアントはこれらのイベントをリッスンするかどうかを選択することができます。クライアントがサーバーへの永続接続を維持することが前提となります。
リモートイベントのクライアントリスナーは、ライブラリーモードのクラスター化リスナーと同様に追加できます。以下は、受け取った各イベントを出力するリモートクライアントリスナーの例になります。
イベント出力リスナー
-
ClientCacheEntryCreatedEventおよびClientCacheEntryModifiedEventインスタンスは、キーおよびエントリーのバージョンに関する情報を提供します。このバージョンは、replaceWithVersionやremoveWithVersionなどのサーバー上の条件付き操作を呼び出すために使用されます。 -
期限切れのエントリーで
get()が呼び出された場合、またはエクスパレーションリーパーがエントリーの期限切れを検出した場合、ClientCacheEntryExpiredEventイベントが送信されます。エントリーの期限が切れると、キャッシュがエントリーを null にし、サイズを適切に調整します。しかし、イベントは 2 つのシナリオでのみ生成されます。 -
ClientCacheEntryRemovedEventイベントは、削除操作が成功した場合のみ送信されます。削除操作が呼び出された場合にエントリーが見つからなかったり、削除するエントリーがないと、イベントは生成されません。イベント削除が成功するかどうかに関わらずイベントの削除が必要な場合は、カスタマイズされたイベント論理を作成します。 -
すべてのクライアントキャッシュエントリーの作成、変更、および削除されたイベントは、トポロジーの変更により書き込みコマンドを再試行しなければならない場合に
trueを返すboolean isCommandRetried()メソッドを提供します。これは、イベントが複製されたか、別のイベントが破棄または置換された (作成されたイベントが変更されたイベントに置き換えられるなど) ことを意味します。
想定されるワークロードで書き込みが読み取りよりも優先される場合、送信するイベントをフィルターし、クライアントやネットワークで問題となる可能性がある過剰なトラフィックが大量に生成されないようにします。
10.6.2. イベントリスナーの追加および削除 リンクのコピーリンクがクリップボードにコピーされました!
サーバーでのイベントリスナーの登録
以下の例は、サーバーでイベント出力リスナーを登録します。「イベント出力リスナー」を参照してください。
イベントリスナーの追加
RemoteCache<Integer, String> cache = rcm.getCache(); cache.addClientListener(new EventLogListener());
RemoteCache<Integer, String> cache = rcm.getCache();
cache.addClientListener(new EventLogListener());
クライアントイベントリスナーの削除
クライアントイベントリスナーは以下のように削除できます。
EventLogListener listener = ... cache.removeClientListener(listener);
EventLogListener listener = ...
cache.removeClientListener(listener);
10.6.3. リモートイベントクライアントリスナーの例 リンクのコピーリンクがクリップボードにコピーされました!
以下は、Hot Rod 経由でリモートキャッシュと対話するようにリモートクライアントリスナーを設定するために必要な手順になります。
リモートイベントリスナーの設定
Red Hat カスタマーポータルから Red Hat JBoss Data Grid ディストリビューションをダウンロードします。
最新の JBoss Data Grid ディストリビューションには、クライアントが通信する Hot Rod サーバーが含まれています。
サーバーの起動
JBoss Data Grid サーバーのルートから以下のコマンドを実行し、サーバーを起動します。
./bin/standalone.sh
$ ./bin/standalone.shCopy to Clipboard Copied! Toggle word wrap Toggle overflow Hot Rod サーバーと対話するアプリケーションの作成
Maven ユーザー
以下の依存関係でアプリケーションを作成します。バージョンは
8.5.0.Final-redhat-9以上に変更します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Maven 以外のユーザーは、使用するビルドツールに合わせて調整するか、すべての JBoss Data Grid jar が含まれるディストリビューションをダウンロードします。
クライアントアプリケーションの作成
以下は、受け取ったイベントをすべてログに記録する簡単なリモートイベントリスナーを示しています。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow リモートイベントリスナーを使用したリモートキャッシュに対する操作の実行
以下は、リモートイベントリスナーを追加し、リモートキャッシュに対して一部の操作を実行する簡単なメイン java クラスの例になります。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
結果
実行すると、以下と似たコンソール出力が表示されます。
ClientCacheEntryCreatedEvent(key=1,dataVersion=1) ClientCacheEntryModifiedEvent(key=1,dataVersion=2) ClientCacheEntryRemovedEvent(key=1)
ClientCacheEntryCreatedEvent(key=1,dataVersion=1)
ClientCacheEntryModifiedEvent(key=1,dataVersion=2)
ClientCacheEntryRemovedEvent(key=1)
出力は、デフォルトでイベントにはキーと現在の値に関連するデータバージョンが含まれることを示しています。実際の値はパフォーマンス上の理由でクライアントへ返送されません。リモートイベントの受け取りはパフォーマンスに影響します。キャッシュサイズが大きくなるとより多くの操作が実行されるため、パフォーマンスへの影響も大きくなります。Hot Rod クライアントにイベントが大量に送られないようにするには、サーバー側でリモートイベントをフィルターするか、イベントコンテンツをカスタマイズします。
10.6.4. リモートイベントのフィルター リンクのコピーリンクがクリップボードにコピーされました!
10.6.4.1. リモートイベントのフィルター リンクのコピーリンクがクリップボードにコピーされました!
クライアントに大量のイベントが送信されないようにするため、Red Hat JBoss Data Grid の Hot Rod リモートイベントをフィルターすることができます。フィルターするには、クライアントに送信されるイベントやクライアント提供の情報でこれらのフィルターが動作する方法をフィルターするインスタンスを作成するキーバリューのフィルターファクトリーを提供します。
リモートクライアントへのイベント送信はパフォーマンスに影響します。リモートリスナーが登録されたクライアントの数が多くなると、パフォーマンスのコストも増加します。また、キャッシュに対して実行された変更の数が多くなると、パフォーマンスへの影響も大きくなります。
サーバー側で送信されるイベントをフィルターするとパフォーマンスのコストを削減できます。カスタムコードを使用して、一部のイベントがリモートクライアントへブロードキャストされないようにしてパフォーマンスを向上することができます。
キーや値の情報またはキャッシュエントリーメタデータの情報を基にしてフィルターを行うことができます。フィルターを有効にするには、フィルターインスタンスを作成するキャッシュイベントフィルターファクトリーを作成する必要があります。以下は、クライアントに送信されたイベントから キー「2」 をフィルターする簡単な実装になります。
KeyValueFilter
このキーバリューフィルターファクトリーでリスナーを登録するには、ファクトリーに一意な名前を付け、Hot Rod サーバーをその名前とキャッシュイベントフィルターファクトリーインスタンスでプラグする必要があります。
10.6.4.2. リモートイベントのカスタムフィルター リンクのコピーリンクがクリップボードにコピーされました!
カスタムフィルターは、一部のイベント情報がリモートクライアントへブロードキャストされないようにしてパフォーマンスを向上できます。
カスタムフィルターで JBoss Data Grid サーバーをプラグするには、以下の手順を使用します。
カスタムフィルターの使用
-
内部にフィルター実装が含まれる JAR ファイルを作成します。
org.infinispan.filter.NamedFactoryアノテーションを使用して、各ファクトリーに名前を割り当てる必要があります。例はKeyValueFilterFactoryを使用します。 - JAR ファイル内に META-INF/services/org.infinispan.notifications.cachelistener.filter. CacheEventFilterFactory ファイルを作成し、その内部にフィルタークラス実装の完全修飾クラス名を記述します。
以下のオプションの 1 つを実行し、 JBoss Data Grid サーバーに JAR ファイルをデプロイします。
オプション 1: デプロイメントスキャナーを用いた JAR のデプロイ
-
JAR を
$JDG_HOME/standalone/deployments/ディレクトリーにコピーします。デプロイメントスキャナーはこのディレクトリーをアクティブに監視し、新たに配置されたファイルをデプロイします。
-
JAR を
オプション 2: CLI を用いた JAR のデプロイ
CLI で目的のインスタンスに接続します。
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 接続後、
deployコマンドを実行します。deploy /path/to/artifact.jar
deploy /path/to/artifact.jarCopy to Clipboard Copied! Toggle word wrap Toggle overflow
オプション 3: JAR をカスタムモジュールとしてデプロイ
以下のコマンドを実行して JDG サーバーに接続します。
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow カスタムフィルターが含まれる jar はサーバーのモジュールとして定義する必要があります。追加するには、以下のコマンドのモジュール名と .jar 名を置き換え、カスタムフィルターに追加の依存関係が必要な場合は追加します。
module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispan
module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispanCopy to Clipboard Copied! Toggle word wrap Toggle overflow 別のウインドウで、
$JDG_HOME/modules/system/layers/base/org/infinispan/main/module.xmlを編集して、新規追加したモジュールを依存関係としてorg.infinispanモジュールに追加します。このファイルに以下のエントリーを追加します。<dependencies> [...] <module name="$MODULE-NAME"> </dependencies>
<dependencies> [...] <module name="$MODULE-NAME"> </dependencies>Copy to Clipboard Copied! Toggle word wrap Toggle overflow - JDGを サーバーを再起動します。
サーバーがフィルターでプラグされたら、そのフィルターを使用するリモートクライアントリスナーを追加します。以下の例は、リモートイベントクライアントリスナーの例 (「リモートイベントクライアントリスナーの例」を参照) を拡張し、@ClientListener アノテーションをオーバーライドしてリスナーと使用するフィルターファクトリーを示します。
フィルターファクトリーのリスナーへの追加
@org.infinispan.client.hotrod.annotation.ClientListener(filterFactoryName = "basic-filter-factory")
public class BasicFilteredEventLogListener extends EventLogListener {}
@org.infinispan.client.hotrod.annotation.ClientListener(filterFactoryName = "basic-filter-factory")
public class BasicFilteredEventLogListener extends EventLogListener {}
リスナーは RemoteCacheAPI を使用して追加できるようになりました。以下の例はこれを実証し、一部の操作をリモートキャッシュに対して実行します。
サーバーでのリスナーの登録
システム出力は、フィルターされたものを除くすべてのキーのイベントをクライアントが受け取ることを示しています。
結果
以下は、例の結果となるシステム出力を示しています。
イベントがリスナーが登録されたノード以外で生成された場合でも、イベントが生成された場所でフィルターが実行されるようにするため、フィルターインスタンスはクラスターへのデプロイ時にマーシャル可能である必要があります。フィルターインスタンスをマーシャル可能にするには、フィルターインスタンスが Serializable や Externalizable を拡張するようにするか、カスタムエクスターナライザーを提供します。
10.6.4.3. 強化されたフィルターファクトリー リンクのコピーリンクがクリップボードにコピーされました!
クライアントリスナーの追加時、パラメーターをフィルターファクトリーに提供して、クライアント側の情報を基に単一のフィルターファクトリーから挙動の異なるさまざまなフィルターを生成することができます。
以下の設定は、静的に提供されたキーでフィルターを行う代わりに、リスナーの追加時に提供されたキーを基に動的にフィルターを実行できるようにするためのフィルターファクトリーの強化方法を表しています。
強化されたフィルターファクトリーの設定
このフィルターは「2」ではなく「3」でフィルターが実行されるようになりました。
強化されたフィルターファクトリーの実行
結果
例の結果として、以下が出力されます。
リモートイベントをカスタマイズすると、クライアントに送信する情報量をさらに削減することができます。
10.6.5. リモートイベントのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
10.6.5.1. リモートイベントのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、Hot Rod リモートイベントをカスタマイズしてクライアントへ送信する必要がある情報が含まれるようにすることができます。デフォルトでは、クライアントが過負荷にならないようにし、情報送信のコストを削減するため、イベントにはキーやイベントタイプなどの基本的な情報のみが含まれます。
これらのイベントに含まれる情報をカスタマイズし、値などの追加情報が含まれるようにしたり、より少ない情報が含まれるようにすることができます。カスタマイズするには、CacheEventConverterFactory クラスを実装して作成される CacheEventConverter インスタンスを使用します。各ファクトリーには、@NamedFactory アノテーションを使用したこれに関連する名前が必要です。
Red Hat JBoss Data Grid サーバーをイベントコンバーターでプラグするには、以下の手順を使用します。
コンバーターの使用
-
コンバーター実装が含まれる JAR ファイルを作成します。各ファクトリーには、
org.infinispan.filter.NamedFactoryアノテーションを使用したこれに関連する名前が必要です。 - JAR ファイル内に META-INF/services/org.infinispan.notifications.cachelistener.filter.CacheEventConverterFactory ファイルを作成し、その内部にコンバータークラス実装の完全修飾クラス名を記述します。
以下のオプションの 1 つを実行し、Red Hat JBoss Data Grid サーバーに JAR ファイルをデプロイします。
オプション 1: デプロイメントスキャナーを用いた JAR のデプロイ
-
JAR を
$JDG_HOME/standalone/deployments/ディレクトリーにコピーします。デプロイメントスキャナーはこのディレクトリーをアクティブに監視し、新たに配置されたファイルをデプロイします。
-
JAR を
オプション 2: CLI を用いた JAR のデプロイ
CLI で目的のインスタンスに接続します。
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 接続後、
deployコマンドを実行します。deploy /path/to/artifact.jar
deploy /path/to/artifact.jarCopy to Clipboard Copied! Toggle word wrap Toggle overflow
オプション 3: JAR をカスタムモジュールとしてデプロイ
以下のコマンドを実行して JDG サーバーに接続します。
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow カスタムコンバーターが含まれる jar はサーバーのモジュールとして定義する必要があります。追加するには、以下のコマンドのモジュール名と .jar 名を置き換え、カスタムコンバーターに追加の依存関係が必要な場合は追加します。
module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispan
module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispanCopy to Clipboard Copied! Toggle word wrap Toggle overflow 別のウインドウで、
$JDG_HOME/modules/system/layers/base/org/infinispan/main/module.xmlを編集して、新規追加したモジュールを依存関係としてorg.infinispanモジュールに追加します。このファイルに以下のエントリーを追加します。<dependencies> [...] <module name="$MODULE-NAME"> </dependencies>
<dependencies> [...] <module name="$MODULE-NAME"> </dependencies>Copy to Clipboard Copied! Toggle word wrap Toggle overflow - JDGを サーバーを再起動します。
コンバーターはクライアントが提供する情報にも対応でき、コンバーターインスタンスはリスナーの追加時に提供された情報を基にイベントをカスタマイズできます。API は、リスナーの追加時にコンバーターパラメーターが渡されるようにします。
10.6.5.2. コンバーターの追加 リンクのコピーリンクがクリップボードにコピーされました!
リスナーの追加時、リスナーと使用するコンバーターファクトリーの名前が提供されます。リスナーが追加されると、サーバーはファクトリーを検索し、サーバー側のイベントをカスタマイズするために getConverter メソッドを呼び出して org.infinispan.filter.Converter クラスインスタンスを取得します。
以下の例は、Integer (整数) と String (文字列) のキャッシュに対して値の情報が含まれるカスタムイベントをリモートクライアントに送信します。コンバーターは、値とイベントのキーが含まれる新しいカスタムイベントを生成します。カスタムイベントのイベントペイロードはデフォルトのイベントよりも大きくなりますが、フィルターを組み合わせると帯域幅のコストを削減できます。
カスタムイベントの送信
10.6.5.3. ライトウェイトイベント リンクのコピーリンクがクリップボードにコピーされました!
他のコンバーター実装は、キーやイベントタイプ情報が含まれないイベントを返送できます。そのため、イベントが大幅に軽量化されますが、イベントによって詳細情報は提供されません。
このコンバーターでサーバーをプラグするには、コンバーターファクトリーと関連するコンバータークラスを JAR ファイル内にデプロイし、以下のように META-INF/services/org.infinispan.notifications.cachelistener.filter.CacheEventConverterFactory ファイル内のサービス定義が含まれるようにします。
sample.ValueAddedConverterFactor
sample.ValueAddedConverterFactor
この後、ファクトリー名を @ClientListener アノテーションに追加して、クライアントリスナーをコンバーターファクトリーとリンクする必要があります。
@ClientListener(converterFactoryName = "value-added-converter-factory")
public class CustomEventLogListener { ... }
@ClientListener(converterFactoryName = "value-added-converter-factory")
public class CustomEventLogListener { ... }
10.6.5.4. 動的なコンバーターインスタンス リンクのコピーリンクがクリップボードにコピーされました!
動的なコンバーターインスタンスは、リスナーの登録時に提供されたパラメーターを基にして変換を行います。コンバーターはコンバーターファクトリーによって受信されたパラメーターを使用してこのオプションを有効にします。例は以下のとおりです。
動的なコンバーター
変換の実行に必要な動的パラメーターはリスナーの登録時に提供されます。
RemoteCache<Integer, String> cache = rcm.getCache();
cache.addClientListener(new EventLogListener(), null, new Object[]{1});
RemoteCache<Integer, String> cache = rcm.getCache();
cache.addClientListener(new EventLogListener(), null, new Object[]{1});
10.6.5.5. カスタムイベントのリモートクライアントリスナーの追加 リンクのコピーリンクがクリップボードにコピーされました!
カスタムイベントのリスナーの実装は、デフォルトでないイベントが関係するため、他のリモートイベントの場合とは若干異なります。他のリモートクライアントリスナー実装と同じアノテーションが使用されますが、コールバックは ClientCacheEntryCustomEvent<T> のインスタンスを受信します (T はサーバーから送信するカスタムイベントのタイプになります)。例を以下に示します。
カスタムイベントリスナー実装
リモートイベントリスナーを使用してリモートキャッシュに対して操作を実行するには、リモートイベントリスナーを追加してリモートキャッシュに対して操作を実行する簡単なメイン Java クラスを作成します。例を以下に示します。
リモートキャッシュに対する操作の実行
結果
実行すると、以下と似たコンソール出力が表示されます。
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='one'}, eventType=CLIENT_CACHE_ENTRY_CREATED)
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='new-one'}, eventType=CLIENT_CACHE_ENTRY_MODIFIED)
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='null'}, eventType=CLIENT_CACHE_ENTRY_REMOVED
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='one'}, eventType=CLIENT_CACHE_ENTRY_CREATED)
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='new-one'}, eventType=CLIENT_CACHE_ENTRY_MODIFIED)
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='null'}, eventType=CLIENT_CACHE_ENTRY_REMOVED
リスナーが登録されたノードではない別のノードでイベントが生成された場合でも、イベントが生成された場所で変換が発生するようにするには、コンバーターインスタンスがクラスターにデプロイされたときにマーシャル可能である必要があります。コンバーターインスタンスをマーシャル可能にするには、Serializable または Externalizable を拡張するようにするか、カスタムの Externalizer を提供します。タイプセーフな API に対して記述するサーバーとクライアントの両方を円滑にするため、クライアントとサーバーの両方がカスタムイベントタイプを認識し、マーシャルできる必要があります。
10.6.6. イベントマーシャリング リンクのコピーリンクがクリップボードにコピーされました!
イベントをフィルターまたはカスタマイズする際、KeyValueFilter および Converter インスタンスはマーシャル可能でなければなりません。クライアントリスナーがクラスターにインストールされると、イベントの送信元でフィルターと変換が行われるようにするため、フィルターインスタンスとコンバーターインスタンスはクラスターの他のノードに送信されます。これにより効率がよくなります。これらのクラスをマーシャル可能にするには、これらのクラスが Serializable を拡張するようにするか、カスタム Externalizer を提供および登録します。
Marshaller インスタンスをサーバー側にデプロイするには、フィルターおよびカスタマイズされたイベントに使用されるメソッドに似たメソッドを使用します。
マーシャラーのデプロイ
-
コンバーター実装が含まれる JAR ファイルを作成します。各ファクトリーには、
org.infinispan.filter.NamedFactoryアノテーションを使用したこれに関連する名前が必要です。 - JAR ファイル内に META-INF/services/org.infinispan.commons.marshall.Marshaller ファイルを作成し、その内部にマーシャラークラス実装の完全修飾クラス名を記述します。
以下のオプションの 1 つを実行し、Red Hat JBoss Data Grid に JAR ファイルをデプロイします。
オプション 1: デプロイメントスキャナーを用いた JAR のデプロイ
-
JAR を
$JDG_HOME/standalone/deployments/ディレクトリーにコピーします。デプロイメントスキャナーはこのディレクトリーをアクティブに監視し、新たに配置されたファイルをデプロイします。
-
JAR を
オプション 2: CLI を用いた JAR のデプロイ
CLI で目的のインスタンスに接続します。
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 接続後、
deployコマンドを実行します。deploy /path/to/artifact.jar
deploy /path/to/artifact.jarCopy to Clipboard Copied! Toggle word wrap Toggle overflow
オプション 3: JAR をカスタムモジュールとしてデプロイ
以下のコマンドを実行して JDG サーバーに接続します。
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow カスタムマーシャラーが含まれる jar はサーバーのモジュールとして定義する必要があります。追加するには、以下のコマンドのモジュール名と .jar 名を置き換え、カスタムマーシャラーに追加の依存関係が必要な場合は追加します。
module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispan
module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispanCopy to Clipboard Copied! Toggle word wrap Toggle overflow 別のウインドウで、
$JDG_HOME/modules/system/layers/base/org/infinispan/main/module.xmlを編集して、新規追加したモジュールを依存関係としてorg.infinispanモジュールに追加します。このファイルに以下のエントリーを追加します。<dependencies> [...] <module name="$MODULE-NAME"> </dependencies>
<dependencies> [...] <module name="$MODULE-NAME"> </dependencies>Copy to Clipboard Copied! Toggle word wrap Toggle overflow - JDGを サーバーを再起動します。
マーシャラーは、個別の jar または CacheEventConverter や CacheEventFilter インスタンスと同じ jar にデプロイすることができます。
1 つの Marshaller インスタンスのデプロイメントのみがサポートされます。複数の Marshaller インスタンスがデプロイされると、警告メッセージが表示され、使用される Marshaller が示されます。
10.6.7. リモートイベントクラスタリングおよびフェイルオーバー リンクのコピーリンクがクリップボードにコピーされました!
クライアントがリモートリスナーを追加するとき、クラスターの単一のノードにインストールされます。このノードは、クラスター全体で発生する影響受ける操作すべてに対してイベントをクライアントに返送します。
クラスター化された環境では、リスナーが含まれるノードがダウンした場合、Hot Rod クライアント実装が透過的にクライアントリスナーの登録を別のノードにフェイルオーバーします。これにより、イベントの消費にギャップが生じることがありますが、以下の方法の 1 つを使用すると解決できます。
状態の配信
@ClientListener アノテーションにはオプションの includeCurrentState パラメーターがあります。このパラメーターを有効にすると、サーバーは既存のキャッシュエントリーすべての CacheEntryCreatedEvent イベントインスタンスをクライアントに送信します。この動作は、リスナーが登録されたノードがオフラインになったときに検出されるクライアントによって決定され、自動的にリスナーをクラスターの別のノードに登録します。includeCurrentState を有効にすると、Hot Rod クライアントが登録されたリスナーを透過的にフェイルオーバーする場合にクライアントの状態や計算を再算出できます。includeCurrentState パラメーターのパフォーマンスは、キャッシュの大きさに影響されるため、デフォルトでは無効になっています。
@ClientCacheFailover
受信状態に依存する代わりに、@ClientCacheFailover アノテーションを使用して、クライアントリスナー実装内で ClientCacheFailoverEvent パラメーターを受信するメソッドを定義できます。Hot Rod クライアントが登録されたノードでクライアントリスナーに障害が発生すると、Hot Rod クライアントによって障害が透過的に検出され、障害が発生したノードに登録されたすべてのリスナーは別のノードにフェイルオーバーされます。
フェイルオーバーの間にクライアントが一部のイベントを見逃すことがあります。イベントを見逃さないようにするには、includeCurrentState パラメーターを true に設定します。これを有効にすると、クライアントはデータを消去でき、 CacheEntryCreatedEvent インスタンスすべてを受信し、すべてのキーでこれらのイベントをキャッシュできます。この代わりに、コールバックハンドラーを追加して、Hot Rod クライアントがフェイルオーバーイベントを認識できるようにすることができます。このコールバックメソッドは、クライアントリスナーに影響するクラスタートポロジーの変更に対応する効率的な方法で、クライアントリスナーはフェイルオーバーでどのように動作するかを判断することができます。ニアキャッシュはこの方法を利用し、ClientCacheFailoverEvent の受信後にニアキャッシュは消去されます。
@ClientCacheFailover
ClientCacheFailoverEvent は、クライアントリスナーがインストールされたノードに障害が発生した場合のみ発生します。
第11章 JSR-107 (JCache) API リンクのコピーリンクがクリップボードにコピーされました!
11.1. JSR-107 (JCache) API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid 7.2 より、JCache 1.1.0 API の実装 (JSR-107) が含まれるようになりました。JCache は、一時的な Java オブジェクトをメモリーにキャッシュするために標準の Java API を選択しました。Java オブジェクトをキャッシュすると、読み出しのコストが高いデータ (DB または Web サービス) または計算が困難なデータの使用により発生したボトルネックに対応できます。このようなオブジェクトをメモリーでキャッシュすると、コストの高いラウンドトリップや再計算を行う代わりに、メモリーから直接データを読み出しすることでアプリケーションを高速化することができます。本書では、新しい仕様の Red Hat JBoss Data Grid で JCache を使用する方法と API の主な側面を説明します。
11.2. 依存関係 リンクのコピーリンクがクリップボードにコピーされました!
JCache の依存関係を定義するには、Maven で定義するか、クラスパスに追加します。両方の方法について以下に説明します。
11.2.1. オプション 1: Maven リンクのコピーリンクがクリップボードにコピーされました!
JCache 実装を使用するには、使用方法に応じて以下の依存関係を Maven の pom.xml に追加する必要があります。
embedded:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow remote:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
11.2.2. オプション 2: 必要なファイルのクラスパスへの追加 リンクのコピーリンクがクリップボードにコピーされました!
Maven を使用しない場合、必要な jar ファイルが実行時にクラスパスに存在する必要があります。実行時にこれらのファイルが利用できるようにするには、jar ファイルの直接埋め込み、実行時の指定、またはアプリケーションのデプロイに使用されるコンテナーへの追加のいずれかを行います。
埋め込みモード
-
Red Hat カスタマーポータルから
Red Hat JBoss Data Grid 7.2.1 Libraryをダウンロードします。 - ダウンロードしたアーカイブをローカルディレクトリーで展開します。
以下のファイルを見つけます。
- jboss-datagrid-7.2.1-library/infinispan-embedded-8.5.0.Final-redhat-9.jar
- jboss-datagrid-7.2.1-library/lib/cache-api-1.1.0.redhat-1.jar
- 実行時に両方の jar ファイルがクラスパス上にあるようにします。
リモートモード
-
Red Hat カスタマーポータルから
Red Hat JBoss Data Grid 7.2.1 Hot Rod Java Clientをダウンロードします。 - ダウンロードしたアーカイブをローカルディレクトリーで展開します。
以下のファイルを見つけます。
- jboss-datagrid-7.2.1-remote-java-client/infinispan-remote-8.5.0.Final-redhat-9.jar
- jboss-datagrid-7.2.1-remote-java-client/lib/cache-api-1.1.0.redhat-1.jar
- 実行時に両方の jar ファイルがクラスパス上にあるようにします。
11.3. ローカルキャッシュの作成 リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがうと、JCache API 仕様の定義どおりにデフォルトの設定オプションを使用して簡単にローカルキャッシュを作成できます。
デフォルトでは、データは storeByValue として保存されるよう JCache API によって指定されるため、キャッシュへの操作の外部となるオブジェクト状態の変異はキャッシュに保存されたオブジェクトには影響しません。JBoss Data Grid では、シリアライズやマーシャリングを使用してキャッシュに保存するコピーを作成し、これにより仕様に準拠します。そのため、デフォルトの JCache 設定を Infinispan で使用する場合、保存するデータはマーシャル可能である必要があります。
この代わりに、参照でデータを格納するよう JCache を設定することもできます。これには、以下を呼び出します。
Cache<String, String> cache = cacheManager.createCache("namedCache",
new MutableConfiguration<String, String>().setStoreByValue(false));
Cache<String, String> cache = cacheManager.createCache("namedCache",
new MutableConfiguration<String, String>().setStoreByValue(false));
11.3.1. ライブラリーモード リンクのコピーリンクがクリップボードにコピーされました!
ライブラリーモードでは、CachingProvider.getCacheManager の URL パラメーターで設定ファイルの場所を指定して CacheManager を設定することができます。これにより、設定ファイルでクラスター化されたキャッシュを定義する機会が与えられ、キャッシュの名前を CacheManager.getCache メソッドに渡して事前設定されたメソッドへの参照を取得できます。これ以外の場合は、CacheManager.createCache から作成されたローカルキャッシュのみを使用できます。
11.3.2. クライアントサーバーモード リンクのコピーリンクがクリップボードにコピーされました!
リモート CacheManager のクライアントサーバーモードに固有する設定は、CachingProvider.getCacheManager の properties パラメーターを使用して標準の Hot Rod クライアントプロパティーを渡して実行されます。参照されるリモートサーバーは稼働中である必要があり、リクエストを受信できなければなりません。
指定がない場合は、デフォルトのアドレスとポートが使用されます (127.0.0.1:11222)。さらに、ライブラリーモードとは異なり、キャッシュの参照が初めて取得されたときにキャッシュを内部で登録するために CacheManager.createCache を使用する必要があります。後続のクエリーは、CacheManager.getCache を使用して実行できます。
11.4. データの格納および読み出し リンクのコピーリンクがクリップボードにコピーされました!
JCache API は java.util.Map または java.util.concurrent.ConcurrentMap を拡張しませんが、キーバリュー API を提供し、データを保存および読み出します。
標準の java.util.Map とは異なり、javax.cache.Cache には put および getAndPut と呼ばれる 2 つの基本的な put メソッドが含まれます。put は void を返し、getAndPut はキーに関連する以前の値を返します。JCache では javax.cache.Cache.getAndPut(K) が java.util.Map.put(K) と同等になります。
JCache API はスタンドアロンのキャッシングのみに対応しますが、永続ストアでプラグ可能で、クラスターや分散を考慮して設計されています。javax.cache.Cache が 2 つの put メソッドを提供する理由は、標準の java.util.Map put コールはインプリメンターに以前の値の計算を強制するためです。永続ストアが使用された場合またはキャッシュが分散された場合、以前の値を戻す操作はコストが高くなる可能性があり、ユーザーは多くの場合で戻り値を使用せずに標準の java.util.Map.put(K) を呼び出します。そのため、JCache ユーザーは戻り値が関係するかどうかを考慮する必要があります。以前の値を返す場合は、 javax.cache.Cache.getAndPut(K) を呼び出す必要があります。その他の場合は java.util.Map.put(K) を呼び出して、コストが高くなる可能性がある以前の値を戻す操作を行わないようにします。
11.5. java.util.concurrent.ConcurrentMap API と javax.cache.Cache API の比較 リンクのコピーリンクがクリップボードにコピーされました!
以下は、java.util.concurrent.ConcurrentMap API および javax.cache.Cache API によって提供されるデータ操作 API の簡単な比較になります。
| 操作 | java.util.concurrent.ConcurrentMap<K,V> | javax.cache.Cache<K,V> |
|---|---|---|
|
格納し、戻り値はなし。 |
該当なし |
void put(K key)
|
|
格納し、以前の値を返す。 |
V put(K key)
|
V getAndPut(K key)
|
|
存在しない場合は格納。 |
V putIfAbsent(K key, V Value)
|
boolean putIfAbsent(K key, V value)
|
|
読み出し |
V get(Object key)
|
V get(K key)
|
|
存在する場合は削除。 |
V remove(Object key)
|
boolean remove(K key)
|
|
削除し、以前の値を返す。 |
V remove(Object key)
|
V getAndRemove(K key)
|
|
条件を削除。 |
boolean remove(Object key, Object value)
|
boolean remove(K key, V oldValue)
|
|
存在する場合は置き換え。 |
V replace(K key, V value)
|
boolean replace(K key, V value)
|
|
置き換え、以前の値を返す。 |
V replace(K key, V value)
|
V getAndReplace(K key, V value)
|
|
条件を置き換え。 |
boolean replace(K key, V oldValue, V newValue)
|
boolean replace(K key, V oldValue, V newValue)
|
2 つの API を比較すると、JCache はコストの高いネットワークの操作や IO 操作を避けるために以前の値を返さないようにします。これは、JCache API の設計で最も重要な原則です。実際に、 分散キャッシュでは計算のコストが高いため、java.util.concurrent.ConcurrentMap に存在し、javax.cache.Cache には存在しない操作があります。唯一の例外が、キャッシュのコンテンツでの繰り返しです。
| 操作 | java.util.concurrent.ConcurrentMap<K,V> | javax.cache.Cache<K,V> |
|---|---|---|
|
キャッシュサイズの計算。 |
int size()
|
該当なし |
|
キャッシュのすべてのキーを返す。 |
Set<K> keySet()
|
該当なし |
|
キャッシュのすべての値を返す。 |
Collection<V> values()
|
該当なし |
|
キャッシュのすべてのエントリーを返す。 |
Set<Map.Entry<K, V>> entrySet()
|
該当なし |
|
キャッシュでの繰り返し。 |
keySet、values、または entrySet での use |
Iterator<Cache.Entry<K, V>> iterator()
|
11.6. JCache インスタンスのクラスター化 リンクのコピーリンクがクリップボードにコピーされました!
標準の API を使用したクラスターキャッシュの可能性を提供するために、Red Hat JBoss Data Grid 実装は仕様を超えた機能を提供します。キャッシュをレプリケートするために次のような設定ファイルがあるとします。
<namedCache name="namedCache">
<clustering mode="replication"/>
</namedCache>
<namedCache name="namedCache">
<clustering mode="replication"/>
</namedCache>
次のコードを使用するとキャッシュのクラスターを作成することができます。
11.7. 複数のキャッシュプロバイダー リンクのコピーリンクがクリップボードにコピーされました!
キャッシュプロバイダーはオーバーロードされた getCachingProvider() メソッドを使用して javax.cache.Caching から取得されます。デフォルトでは、このメソッドはクラスパスで見つかった META-INF/services/javax.cache.spi.CachingProvider ファイルをロードしようとします。1 つのファイルが見つかった場合、そのファイルが使用中のキャッシュプロバイダーを判断します。
複数のキャッシュプロバイダーがある場合、以下のメソッドの 1 つを使用して特定のプロバイダーを選択します。
-
getCachingProvider(ClassLoader classLoader) -
getCachingProvider(String fullyQualifiedClassName)
別のキャッシュプロバイダーに変更する場合、デフォルトのクラスパスにそのプロバイダーが存在することを確認してください。または、上記のメソッドの 1 つを使用してそのプロバイダーを選択してください。
検出されたまたはCaching クラスによってロードされた javax.cache.spi.CachingProviders は内部レジストリーで維持されます。同じキャッシュプロバイダーの後続リクエストは、キャッシュプロバイダー実装をリロードまたは再インスタンス化する代わりに、このレジストリーから返されます。現在のキャッシュプロバイダーを表示するには、以下のいずれかのメソッドを使用します。
-
getCachingProviders()- デフォルトクラスローダーのキャッシュプロバイダーのリストを提供します。 -
getCachingProviders(ClassLoader classLoader)- 指定されたクラスローダーのキャッシュプロバイダーのリストを提供します。
第12章 ヘルスチェック API リンクのコピーリンクがクリップボードにコピーされました!
12.1. ヘルスチェック API リンクのコピーリンクがクリップボードにコピーされました!
ヘルスチェック API は、クラスターとその中に含まれるキャッシュの正常性を監視できるようにします。クラスターやキャッシュの状態を報告するクエリーのメソッドを説明するため、この情報は特にクラウド環境で作業を行う場合に重要になります。
この API は以下の情報を公開します。
- クラスターの名前。
- クラスターにあるマシンの数。
以下の 3 つの値の 1 つで表される、クラスターまたはキャッシュの総合的な状態。
- Healthy - エンティティーは正常です。
- Unhealthy - エンティティーは正常ではありません。この値は、1 つ以上のキャッシュがデグレード状態であることを表しています。
- Rebalancing - このエンティティーは運用可能ですが、再調整中です。この値が報告されたらクラスターノードを調整してはなりません。
- 各キャッシュの状態。
- サーバーログの末尾。
プログラミングを使用しないでヘルスチェック API を使用する方法については、JBoss Data Grid の 『Administration and Configuration Guide』を参照してください。
12.2. プログラムを使用したヘルスチェック API へのアクセス リンクのコピーリンクがクリップボードにコピーされました!
ライブラリーモードでは、プログラムを使用した場合のみヘルスチェック API にアクセス可能で、embeddedCacheManager.getHealth() メソッドを呼び出してアクセスすることができます。
このメソッドは、以下のメソッドにアクセスできる org.infinispan.health.Health オブジェクトを返します。
getClusterHealth()-ClusterHealthオブジェクトを返し、以下のメソッドにアクセスできます。-
getNumberOfNodes()- クラスターの全ノード数を表す int 型を返します。 -
getNodeNames()- クラスターにあるすべてのノードの名前が含まれるList<String>を返します。 -
getClusterName()- クラスターの名前が含まれるStringを返します。 -
getHealthStatus()- クラスターの正常性が含まれるHealthStatusが返され、正常性は HEALTHY、UNHEALTHY、または REBALANCING で報告されます。
-
getHostInfo()-HostInfoオブジェクトを返し、以下のメソッドにアクセスできます。-
getNumberOfCpus()- ホストにインストールされた CPU の数が含まれる int 型を返します。 -
getTotalMemoryKb()- KB 単位のメモリーの合計が含まれる long 型を返します。 -
getFreeMemoryInKb()- KB 単位の空きメモリーが含まれる long 型を返します。
-
getCacheHealth()-List<CacheHealth>を返します。各CacheHealthオブジェクトは以下のメソッドにアクセスできます。-
getCacheName()- キャッシュの名前が含まれるStringを返します。 -
getStatus()- キャッシュの正常性が含まれるHealthStatusが返され、正常性は HEALTHY、UNHEALTHY、または REBALANCING で報告されます。
-
第13章 REST API リンクのコピーリンクがクリップボードにコピーされました!
13.1. REST インターフェース リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は REST インターフェースを提供し、クライアントとサーバー間の疎結合を可能にします。REST インターフェースの主な利点は既存の HTTP クライアントとの相互運用性や、php クライアントへの接続の提供です。さらに、特定のバージョンのクライアントライブラリーやバインディングが必要ありません。
REST API によってオーバーヘッドが発生します。REST コールの理解や作成に REST クライアントまたはカスタムコードが必要になります。パフォーマンスに懸念がある場合は Hot Rod クライアントの使用が推奨されます。
Red Hat JBoss Data Grid の REST API と対話するには、HTTP クライアントライブラリーのみが必要です。Java の場合は、Apache HTTP Commons Client や java.net API になります。
以下の例は、REST セキュリティーが REST コネクターで無効になっていることを前提としています。REST セキュリティーを削除するには、コネクターから authentication および encryption 要素を削除します。
13.2. Ruby クライアントコード リンクのコピーリンクがクリップボードにコピーされました!
以下のコードは ruby を使用して Red Hat JBoss Data Grid の REST API と対話する例です。提供されたコードは特別なライブラリーを必要とせず、標準的な net/HTTP ライブラリーを使用できます。
Ruby での REST API の使用
13.3. Ruby の例で JSON を使用 リンクのコピーリンクがクリップボードにコピーされました!
前提条件
ruby で JavaScript Object Notation (JSON) を使用して Red Hat JBoss Data Grid の REST インターフェースと対話するには、JSON Ruby ライブラリーをインストールし (プラットフォームのパッケージマネージャーまたは Ruby ドキュメンテーションを参照)、以下のコードを使用して要件を宣言します。
require 'json'
require 'json'
Ruby での JSON の使用
以下のコードは、Ruby で JavaScript Object Notation (JSON) と PUT 関数を使用して特定のデータ (この場合は、個人の名前と年齢) を送信する例です。
data = {:name => "michael", :age => 42 }
http.put('/rest/Users/data/0', data.to_json, {"Content-Type" => "application/json"})
data = {:name => "michael", :age => 42 }
http.put('/rest/Users/data/0', data.to_json, {"Content-Type" => "application/json"})
13.4. Python クライアントコード リンクのコピーリンクがクリップボードにコピーされました!
以下のコードは Python を使用して Red Hat JBoss Data Grid の REST API と対話する例です。提供されたコードは、標準的な HTTP ライブラリーのみを必要とします。
Python での REST API の使用
13.5. Java クライアントコード リンクのコピーリンクがクリップボードにコピーされました!
以下のコードは Java を使用して Red Hat JBoss Data Grid の REST API と対話する例です。
インポートの定義
String 値をキャッシュに追加
以下のコードは、Red Hat JBoss Data Grid REST インターフェースと対話するために Java を使用して URL に指定された値を読み取るメソッドの例です。
キャッシュから String 値を取得
Java Main メソッドの使用
13.6. REST インターフェースの使用 リンクのコピーリンクがクリップボードにコピーされました!
13.6.1. REST インターフェース操作 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のリモートクライアントサーバーモードでは、クライアントが以下を実行できるようにする REST インターフェースが提供されます。
- データの追加
- データの取得
- データの削除
- データのクエリー
13.6.1.1. データ形式 リンクのコピーリンクがクリップボードにコピーされました!
REST API は、設定可能なメディアタイプによって定義される形式にデータを保存するキャッシュを公開します。
以下の XML スニペットは、キーと値のメディアタイプを定義する設定例になります。
13.6.1.2. デフォルトのデータ形式 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトのメディアタイプはキーと値の両方で application/octet-stream であり、以下の例外があります。
-
インデックス化されたキャッシュのデフォルトのメディアタイプは
application/x-protostreamです。 -
互換性モードを使用するキャッシュのデフォルトのメディアタイプは
application/x-java-objectです。
13.6.1.3. サポートされるデータ形式 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、クライアントは異なる形式のデータを読み書きでき、自動的に形式を変換できます。
JBoss Data Grid は、相互に交換可能なデータ形式を複数サポートします。
-
application/x-java-object -
application/octet-stream -
application/x-www-form-urlencoded -
text/plain
JBoss Data Grid は、前述のリストにあるデータ形式が変換前および変換後となるデータ形式もサポートします。
-
application/xml -
application/json -
application/x-jboss-marshalling -
application/x-java-serialized -
application/x-protostream
さらに、JBoss Data Grid は application/x-protostream と application/json 間の変換をサポートします。
13.6.1.4. ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid REST API への呼び出しは、以下を記述するヘッダーを提供できます。
- キャッシュに書き込まれたコンテンツ。
- キャッシュから読み取るときに必要なコンテンツのデータ形式。
JBoss Data Grid は、値に適用される HTTP/1.1 Content-Type および Accept ヘッダーと、キーの Key-Content-Type ヘッダーをサポートします。
13.6.1.5. Accept ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid の REST サーバーは、Accept ヘッダーの RFC-2616 仕様に準拠し、サポートされる変換を基にして適切なメディアタイプをネゴシエートします。
たとえば、キャッシュからデータを読み取るため、クライアントが呼び出しで以下のヘッダーを送信するとします。
Accept: text/plain;q=0.7, application/json;q=0.8, */*;q=0.6
Accept: text/plain;q=0.7, application/json;q=0.8, */*;q=0.6
この場合、ネゴシエーション中に JBoss Data Grid はメディアタイプの優先度が最も高い (0.8) JSON 形式を優先します。サーバーが JSON 形式をサポートしない場合、次に優先度が高い (0.7) text/plain が優先されます。
サーバーが JSON および text/plain メディアタイプをサポートしない場合は、/ が優先されます。これは、キャッシュ設定を基にした適切なメディアタイプを意味します。
ネゴシエーションの終了後、サーバーは選択したメディアタイプを継続して操作に使用します。操作中にエラーが発生した場合、サーバーは他のメディアタイプの使用を試みません。
13.6.1.6. Key-Content-Type ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
REST API へのほとんどの呼び出しは URL にキーが含まれています。これらの呼び出しを処理するとき、Red Hat JBoss Data Grid はデフォルトで java.lang.String をキーのコンテンツタイプとして使用します。しかし、Key-Content-Type ヘッダーを使用して別のコンテンツタイプをキーに指定することもできます。
| 用途 | API 呼び出し | Header |
|---|---|---|
|
|
|
|
|
|
|
|
|
ダブルキーを指定 |
|
|
application/x-java-object の type パラメーターはプリミティブラッパー型と java.lang.String に制限されます。さらにこのパラメーターはバイトに制限され、結果として application/x-java-object;type=Bytes が application/octet-stream;encoding=hex と同等になります。
13.6.2. REST API を介したデータの追加 リンクのコピーリンクがクリップボードにコピーされました!
13.6.2.1. データをキャッシュに追加 リンクのコピーリンクがクリップボードにコピーされました!
以下のメソッドでデータをキャッシュに追加します。
-
HTTP
PUTメソッド -
HTTP
POSTメソッド
PUT および POST メソッドで REST API を呼び出すとき、リクエストのボディーにはデータが含まれます。
13.6.2.2. PUT /{cacheName}/{cacheKey} リンクのコピーリンクがクリップボードにコピーされました!
提供された URL フォームからの PUT 要求により、提供されたキーを使用して要求本文からのペイロードがターゲットキャッシュに配置されます。このタスクが正常に完了するには、ターゲットキャッシュがサーバーに存在する必要があります。
例として、以下の URL では値 hr がキャッシュ名で payRoll%2F3 がキーになります。値 %2F は、/ 文字がキーで使用されたことを示しています。
http://someserver/rest/hr/payRoll%2F3
http://someserver/rest/hr/payRoll%2F3
既存のデータが置き換えられ、必要な場合は Time-To-Live および Last-Modified の値が更新されます。
以下の引数を使用してサーバーが起動された場合は、キーの / を表す値 %2F を含むキャッシュキー (提供された例を参照) を正常に実行できます。
-Dorg.apache.tomcat.util.buf.UDecoder.ALLOW_ENCODED_SLASH=true
-Dorg.apache.tomcat.util.buf.UDecoder.ALLOW_ENCODED_SLASH=true
13.6.2.3. POST /{cacheName}/{cacheKey} リンクのコピーリンクがクリップボードにコピーされました!
提供された URL フォームからの POST メソッドにより、提供されたキーを使用して (要求本文からの) ペイロードがターゲットキャッシュに配置されます。ただし、POST メソッドでは、値がキャッシュ/キーに存在する場合に、HTTP CONFLICT ステータスが返され、内容が更新されません。
13.6.2.4. PUT および POST メソッドのヘッダー リンクのコピーリンクがクリップボードにコピーされました!
| Header | 任意または必須 | 説明 |
|---|---|---|
|
|
任意 |
URL のキーのコンテンツタイプを指定します。 |
|
|
任意 |
REST API に送信された値のメディアタイプを指定します。 |
|
|
任意 |
ブール値を指定します。値が |
|
|
任意 |
エントリーが自動的に削除されるまでの期間を秒数で指定します。負の値を指定すると、永久に削除されないエントリーが作成されます。 |
|
|
任意 |
エントリーがアイドル状態でいられる期間を秒数で指定します。この期間を過ぎるとエントリーは削除されます。負の値を指定すると、永久に削除されないエントリーが作成されます。 |
timeToLiveSeconds ヘッダーおよび maxIdleTimeSeconds ヘッダーには以下の組み合わせを設定できます。
-
timeToLiveSecondsヘッダーとmaxIdleTimeSecondsヘッダーの両方に値0が割り当てられた場合、キャッシュは XML またはプログラムを使用して設定されたデフォルトのtimeToLiveSeconds値とmaxIdleTimeSeconds値を使用します。 -
maxIdleTimeSecondsヘッダー値のみが0に設定された場合は、timeToLiveSeconds値をパラメーターとして渡す必要があります (パラメーターが存在しない場合はデフォルトの-1)。さらにmaxIdleTimeSecondsパラメーター値は、デフォルトで XML またはプログラムを使用して設定された値に設定されます。 -
timeToLiveSecondsヘッダー値のみが0に設定された場合は、エクスパレーションが即座に発生し、maxIdleTimeSeconds値がパラメーターとして渡された値に設定されます (パラメーターが提供されなかった場合はデフォルトの-1)。
13.6.3. REST API を介したデータの取得 リンクのコピーリンクがクリップボードにコピーされました!
13.6.3.1. キャッシュからのデータの取得 リンクのコピーリンクがクリップボードにコピーされました!
以下のメソッドでキャッシュからデータを取得します。
-
HTTP
GETメソッド -
HTTP
HEADメソッド
13.6.3.2. GET /{cacheName}/{cacheKey} リンクのコピーリンクがクリップボードにコピーされました!
GET メソッドは、指定の cacheName に存在し、関連するキーに一致するデータを応答の本文として返します。Content-Type ヘッダーは、データのタイプを提供します。ブラウザーはキャッシュに直接アクセスできます。
各エントリーに対して、要求された URL でデータの状態を示す Last-Modified ヘッダーとともに一意のエンティティータグ (ETag) が返されます。ETag により、ブラウザー (および他のクライアント) は、(帯域幅を節約するために) データが変更された場合のみデータを要求できます。ETag は、HTTP 標準の一部であり、Red Hat JBoss Data Grid によりサポートされます。
格納されたコンテンツのタイプは、返されたタイプです。例として、String が格納された場合は、文字列が返されます。シリアライズされた形式で格納されたオブジェクトは、手動でデシリアライズする必要があります。
クエリーに extended パラメーターを追加すると、追加の情報が返されます。例を以下に示します。
GET /{cacheName}/{cacheKey}?extended
GET /{cacheName}/{cacheKey}?extended
以下のカスタムヘッダーが返されます。
-
Cluster-Primary-Owner: キーのプライマリーオーナーであるノードを特定します。 -
Cluster-Node-Name: リクエストを処理したサーバーの JGroups ノード名を指定します。 -
Cluster-Physical-Address: リクエストを処理したサーバーの物理 JGroups アドレスを指定します。
13.6.3.3. HEAD /{cacheName}/{cacheKey} リンクのコピーリンクがクリップボードにコピーされました!
HEAD メソッドは、GET メソッドと同様に動作しますが、コンテンツを返しません (ヘッダーフィールドが返されます)。
HEAD メソッドは、追加情報を返す extended パラメーターもサポートします。
13.6.3.4. GET /{cacheName} リンクのコピーリンクがクリップボードにコピーされました!
GET メソッドは、キャッシュに存在するキーのリストを返すことができます。返されるキーのリストは応答のボディーにあります。
Accept ヘッダーは次のように応答をフォーマットできます。
-
application/xmlはキーのリストを XML 形式で返します。 -
application/jsonはキーのリストを JSON 形式で返します。 -
text/plainはキーのリストを行ごとに 1 つのキーで示したプレーンテキストで返します。
キャッシュが分散されている場合、リクエストを処理するノードが所有するキーのみが返されます。すべてのキーを返すには、次のようにクエリーに global パラメータを追加します。
GET /{cacheName}?global
GET /{cacheName}?global
13.6.3.5. GET および HEAD メソッドのヘッダー リンクのコピーリンクがクリップボードにコピーされました!
| Header | 任意または必須 | 説明 |
|---|---|---|
|
|
任意 |
URL のキーのコンテンツタイプを指定します。指定のない場合、デフォルトは |
|
|
任意 |
|
13.6.4. REST API を介したデータの削除 リンクのコピーリンクがクリップボードにコピーされました!
13.6.4.1. キャッシュからのデータの削除 リンクのコピーリンクがクリップボードにコピーされました!
HTTP DELETE メソッドで Red Hat JBoss Data Grid からデータを削除します。
DELETE メソッドは以下を行うことができます。
-
キャッシュエントリー/値を削除します (
DELETE /{cacheName}/{cacheKey}) -
キャッシュからすべてのエントリーを削除します (
DELETE /{cacheName})
13.6.4.2. DELETE /{cacheName}/{cacheKey} リンクのコピーリンクがクリップボードにコピーされました!
DELETE メソッドがこのコンテキスト (DELETE /{cacheName}/{cacheKey}) で使用された場合、指定のキーのキャッシュからキー/値を削除します。
13.6.4.3. DELETE /{cacheName} リンクのコピーリンクがクリップボードにコピーされました!
このコンテキスト (DELETE /{cacheName}) では、DELETE メソッドが名前付きキャッシュ内のすべてのエントリーを削除します。正常な DELETE 操作後に、HTTP ステータスコード 200 が返されます。
13.6.4.4. バックグラウンド削除操作 リンクのコピーリンクがクリップボードにコピーされました!
performAsync ヘッダーの値を true に設定して、削除操作がバックグラウンドで続行される状態で値がすぐに返されるようにします。
13.6.5. ETag ベースのヘッダー リンクのコピーリンクがクリップボードにコピーされました!
ETag ベースのヘッダー
各 REST インターフェースエントリーに対して、提供された URL でデータの状態を示す Last-Modified ヘッダーとともに、ETag (エンティティータグ) が返されます。ETag は、帯域幅を節約するためにデータが変更された場合にのみ、データを要求する HTTP 操作で使用されます。以下のヘッダーは、ETag (エンティティータグ) ベースの楽観的ロックをサポートします。
| Header | アルゴリズム | 例 | 説明 |
|---|---|---|---|
|
If-Match |
If-Match = "If-Match" ":" ( "*" | 1#entity-tag ) |
- |
(リソースから以前に取得された) 指定されたエンティティーが最新であることを確認するために、関連するエンティティータグのリストとともに使用されます。 |
|
If-None-Match |
- |
(リソースから以前に取得された) 指定されたエンティティーが最新でないことを確認するために、関連するエンティティータグのリストとともに使用されます。この機能により、必要なときに、最小のトランザクションオーバーヘッドで、キャッシュされた情報が効率的に更新されます。 | |
|
If-Modified-Since |
If-Modified-Since = "If-Modified-Since" ":" HTTP-date |
If-Modified-Since: Sat, 29 Oct 1994 19:43:31 GMT |
要求されたバリアントの最終変更日時と、提供された時間および日付の値とを比較します。指定された日時以降に要求されたバリアントが変更されなかった場合は、エンティティーの代わりに |
|
If-Unmodified-Since |
If-Unmodified-Since = "If-Unmodified-Since" ":" HTTP-date |
If-Unmodified-Since: Sat, 29 Oct 1994 19:43:31 GMT |
要求されたバリアントの最終変更日時と、提供された時間および日付の値とを比較します。指定された日時以降に要求されたリソースが変更されなかった場合は、指定された操作が実行されます。指定された日時以降に要求されたリソースが変更された場合は、操作が実行されず、エンティティーの代わりに |
13.6.6. REST インターフェースを介したデータのクエリー リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、Ickle クエリーを JSON 形式で使用して、REST インターフェースを介してデータをクエリーできます。
JBoss Data Grid 7.2 では、REST インターフェースを介したデータのクエリーはテクノロジープレビューの機能となります。
13.6.6.1. JSON から Protostream への変換 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid はプロトコルバッファーを使用して、データを効率的にバイナリー形式でキャッシュに保存し、クエリーを公開してコンテンツを JSON 形式で読み書きできるようにします。
Protobuf でエンコードされたエントリーを保存するには、キャッシュを application/x-protostream メディアタイプで設定する必要があります。設定後、JBoss Data Grid は自動的に JSON を Protobuf に変換します。
キャッシュがインデックス化されている場合、設定を何も実行する必要はありません。デフォルトでは、インデックス化されたキャッシュはエントリーを application/x-protostream メディアタイプで保存します。
しかし、キャッシュがインデックス化されていない場合、以下の例のようにキーと値を application/x-protostream メディアタイプに設定する必要があります。
13.6.6.2. Protobuf スキーマの登録 リンクのコピーリンクがクリップボードにコピーされました!
Protobuf スキーマを登録するには、以下の例のように HTTP POST メソッドを使用して、スキーマを ___protobuf_metadata キャッシュに挿入します。
curl -u user:password -X POST --data-binary @./schema.proto http://127.0.0.1:8080/rest/___protobuf_metadata/schema.proto
curl -u user:password -X POST --data-binary @./schema.proto http://127.0.0.1:8080/rest/___protobuf_metadata/schema.proto
Protobuf のエンコーディングと Protobuf スキーマの登録についての詳細は、「Protobuf エンコーディング」を参照してください。
13.6.6.3. JSON ドキュメントの Protobuf メッセージへのマッピング リンクのコピーリンクがクリップボードにコピーされました!
_type フィールドが JSON ドキュメントに含まれるようにする必要があります。このフィールドは、JSON ドキュメントが対応する Protobuf メッセージを特定します。
たとえば、以下は Person として定義された Protobuf メッセージになります。
message Person {
required string name = 1;
required int32 age = 2;
}
message Person {
required string name = 1;
required int32 age = 2;
}
以下は対応する JSON ドキュメントになります。
Person.json
{
"_type": "Person",
"name": "user1",
"age": 32
}
{
"_type": "Person",
"name": "user1",
"age": 32
}
13.6.6.4. キャッシュへの内容の追加 リンクのコピーリンクがクリップボードにコピーされました!
以下のように、JSON 形式でキャッシュにコンテンツを書き込むことができます。
curl -u user:user -XPOST --data-binary @./Person.json -H "Content-Type: application/json; charset=UTF-8" http://127.0.0.1:8080/rest/{cacheName}/{key}
curl -u user:user -XPOST --data-binary @./Person.json -H "Content-Type: application/json; charset=UTF-8" http://127.0.0.1:8080/rest/{cacheName}/{key}
-
{cacheName}はクエリーを行うキャッシュの名前を指定します。 -
{key}はデータをキャッシュに保存するキーの名前を指定します。
コンテンツをキャッシュに書き込んだ後、以下のように JSON 形式で読み取ることができます。
curl -u user:user http://127.0.0.1:8080/rest/{cacheName}/{key}
curl -u user:user http://127.0.0.1:8080/rest/{cacheName}/{key}
13.6.6.5. REST エンドポイントのクエリー リンクのコピーリンクがクリップボードにコピーされました!
HTTP GET メソッドまたは POST メソッドを使用して、REST インターフェース経由でデータのクエリーを行います。
GET メソッドのクエリーリクエストの構造は次のようになります。
{cacheName}?action=search&query={ickle query}
{cacheName}?action=search&query={ickle query}
-
{cacheName}はクエリーを行うキャッシュの名前を指定します。 -
{ickle query}は実行する Ickle クエリーを指定します。
以下はクエリーの例になります。
-
Personという名前のエンティティーからすべてのデータを返す:http://localhost:8080/rest/mycache?action=search&query=from Person -
select 句でクエリーを絞り込む:
http://localhost:8080/rest/mycache?action=search&query=Select name, age from Person -
クエリーの結果をグループ化する:
http://localhost:8080/rest/mycache?action=search&query=from Person group by age
POST メソッドのクエリーリクエストの構造は次のようになります。
{cacheName}?action=search
{cacheName}?action=search
リクエストのボディーは、クエリーと JSON 形式のパラメーターを指定します。
以下は、Entity という名前のエンティティーからデータを返し、where 句を使用して結果をフィルターするクエリーの例になります。
{
"query":"from Entity where name:\"user1\"",
"max_results":20,
"offset":10
}
{
"query":"from Entity where name:\"user1\"",
"max_results":20,
"offset":10
}
13.6.6.5.1. 任意のリクエストパラメーター リンクのコピーリンクがクリップボードにコピーされました!
以下の任意のパラメーターをクエリーリクエストに適用できます。
| パラメーター | 説明 |
|---|---|
|
|
クエリー結果の数をこの最大数に制限します。デフォルトの値は |
|
|
返す最初の結果のインデックスを指定します。デフォルトの値は |
|
|
サーバーがどのようにクエリーを実行するかを、以下の値で指定します。
|
13.6.6.5.2. クエリー結果 リンクのコピーリンクがクリップボードにコピーされました!
Ickle クエリーの結果は、以下の例のように JSON形式で返されます。
-
total_resultsはクエリーが返した結果の数になります。 -
hitsはクエリーと一致するすべての結果をリストします。 -
hitにはクエリーの各結果のフィールドが含まれます。
Ickle クエリーの詳細は、「Ickle クエリー言語を使用したクエリーの構築」を参照してください。
第14章 クラスター化カウンター リンクのコピーリンクがクリップボードにコピーされました!
クラスター化カウンターは、Red Hat JBoss Data Grid クラスターのノードすべてで分散および共有されます。クラスター化カウンターを使用するとオブジェクトの数を記録することができます。
クラスター化カウンターは名前で識別され、値 (デフォルトは 0) で初期化されます。クラスター化カウンターを永続化して、クラスターの再起動後に値を保持することもできます。
クラスター化カウンターには次の 2 種類があります。
-
Strongはカウンターの値を単一のキーに保存して一貫性を保ちます。カウンターの更新中でも値は認識できます。カウンター値の更新は、キーロック下で実行されます。しかし、カウンターの現在値を読み取るのに必要なロックはありません。Strong カウンターでは、カウンター値をバインドでき、compareAndSetやcompareAndSwapなどのアトミック操作を提供します。 -
Weakはカウンター値を複数のキーに格納します。各キーはカウンター値の部分的な状態を保存します。キーは同時に更新することが可能です。カウンターの更新中、値は認識できません。カウンター値を取得しても、常に最新の値を返すとは限りません。
Strong および Weak クラスター化カウンターの両方は、カウンター値の更新をサポートし、カウンターの現在の値を返し、カウンター値の更新時にイベントを提供します。
14.1. Counter API リンクのコピーリンクがクリップボードにコピーされました!
counter API は以下で構成されます。
-
EmbeddedCounterManagerFactoryは埋め込みのキャッシュマネージャーからカウンターマネージャーを初期化します。 -
RemoteCounterManagerFactoryはリモートキャッシュマネージャーからカウンターマネージャーを初期化します。 -
CounterManagerは、カウンターの作成、定義および返却を行うメソッドを提供します。 -
StrongCounterは strong カウンターを実装します。このインターフェースはカウンターのアトミックアップデートを提供します。操作はすべて非同期で実行され、完了ロジックにCompletableFutureクラスを使用します。 -
SyncStrongCounterは同期の strong カウンターを実装します。 -
WeakCounterは weak カウンターを実装します。すべての操作は非同期に実行され、完了ロジックにCompletableFutureクラスが使用されます。 -
SyncWeakCounterは同期の weak カウンターを実装します。 -
CounterListenerは、strong カウンターへの変更をリッスンします。 -
CounterEventは strong カウンターへの変更が発生したときにイベントを返します。 -
HandleはCounterListenerインターフェースを拡張します。
14.2. Maven 依存関係の追加 リンクのコピーリンクがクリップボードにコピーされました!
クラスター化カウンターの使用を開始するには、以下の依存関係を pom.xml に追加します。
pom.xml
<dependency> <groupId>org.infinispan</groupId> <artifactId>infinispan-clustered-counter</artifactId> <version>...</version> <!-- 7.2.0 or later --> </dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-clustered-counter</artifactId>
<version>...</version> <!-- 7.2.0 or later -->
</dependency>
14.3. CounterManager インターフェースの読み出し リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid 埋め込みモードでクラスター化カウンターを使用するには、以下を行います。
// Create or obtain an EmbeddedCacheManager. EmbeddedCacheManager manager = ...; // Retrieve the CounterManager interface. CounterManager counterManager = EmbeddedCounterManagerFactory.asCounterManager(manager);
// Create or obtain an EmbeddedCacheManager.
EmbeddedCacheManager manager = ...;
// Retrieve the CounterManager interface.
CounterManager counterManager = EmbeddedCounterManagerFactory.asCounterManager(manager);
Red Hat JBoss Data Grid リモートサーバーと対話する Hot Rod クライアントとクラスター化カウンターを使用するには、以下を行います。
// Create or obtain a RemoteCacheManager. RemoteCacheManager manager = ...; // Retrieve the CounterManager interface. CounterManager counterManager = RemoteCounterManagerFactory.asCounterManager(manager);
// Create or obtain a RemoteCacheManager.
RemoteCacheManager manager = ...;
// Retrieve the CounterManager interface.
CounterManager counterManager = RemoteCounterManagerFactory.asCounterManager(manager);
14.4. クラスター化カウンターの使用 リンクのコピーリンクがクリップボードにコピーされました!
クラスター化カウンターの定義および設定は、cache-container XML 設定またはプログラムで行います。
14.4.1. クラスター化カウンターの XML 設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の XML スニペットは、クラスター化カウンターの設定例を表しています。
14.4.1.1. XML 定義 リンクのコピーリンクがクリップボードにコピーされました!
counters 要素はクラスターのカウンターを設定し、以下の属性があります。
-
num-ownersは、クラスター全体で保存する各カウンターのコピー数を設定します。値が小さいと更新操作が速くなりますが、サポートするサーバーのクラッシュ数が少なくなります。値は正の整数である必要があります。デフォルトは2です。 reliabilityはネットワークパーティションでのカウンター更新動作を設定し、以下の値を取ります。-
AVAILABLE: すべてのパーティションがカウンターの値を読み取りおよび更新できます。これはデフォルト値です。 -
CONSISTENT: プライマリーパーティションがカウンターの値を読み取りおよび更新できます。残りのパーティションはカウンターの値の読み取りのみが可能です。
-
strong-counter 要素は、strong クラスター化カウンターを作成および定義します。weak-counter 要素は weak クラスター化カウンターを作成および定義します。以下は、両方の要素に共通する属性です。
-
initial-valueはカウンターの初期値を設定します。デフォルトの値は0です。 storageはカウンター値の保存方法を設定します。この属性は、クラスターのシャットダウン後および再起動後にカウンター値が保存されるかどうかを決定します。この属性は以下の値を取ります。-
VOLATILE: カウンターの値をメモリーに保存します。カウンターの値はクラスターのシャットダウン時に破棄されます。これがデフォルトの値になります。 -
PERSISTENT: カウンターの値はプライベートなローカル永続ストアに保存されます。カウンターの値は、クラスターのシャットダウン時および起動時に保存されます。
-
strong-counter 要素に固有する属性は次のとおりです。
-
lower-boundは strong カウンターの下限を設定します。デフォルトの値はLong.MIN_VALUEです。 -
upper-boundは strong カウンターの上限を設定します。デフォルトの値はLong.MAX_VALUEです。
initial-value 属性の値は、lower-bound の値と upper-bound の値の間である必要があります。strong カウンターの上限と下限を指定しないと、カウンターはバインドされません。
weak-counter 要素に固有する属性は次のとおりです。
-
concurrency-levelはカウンターの値の最大同時更新数を設定します。値は正の整数である必要があります。デフォルトの値は16です。
14.4.2. クラスター化カウンターのランタイム設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の例のように、EmbeddedCacheManager の初期化後、クラスター化カウンターを起動時にオンデマンドで設定することができます。
カウンターが正常に定義された場合、defineCounter() メソッドは true を返し、そうでない場合は false を返します。カウンターの設定が有効でない場合は CounterConfigurationException 例外が発生します。
以下の例のように isDefined() メソッドを使用して、カウンターがすでに定義されているかどうかを判断します。
CounterManager manager = ...
if (!manager.isDefined("someCounter")) {
manager.define("someCounter", ...);
}
CounterManager manager = ...
if (!manager.isDefined("someCounter")) {
manager.define("someCounter", ...);
}
14.4.3. クラスター化カウンターのプログラムによる設定 リンクのコピーリンクがクリップボードにコピーされました!
以下のコードサンプルは、GlobalConfigurationBuilder を使用してクラスター化カウンターをプログラミングで設定する方法を表しています。
14.4.3.1. クラスター化カウンターの使用 リンクのコピーリンクがクリップボードにコピーされました!
以下のコードサンプルは、プログラムで作成および定義したクラスター化カウンターを使用する方法を表しています。
第15章 クラスター化ロック リンクのコピーリンクがクリップボードにコピーされました!
クラスター化ロックは、Red Hat JBoss Data Grid クラスターのノードすべてで分散および共有されるデータ構造です。クラスター化ロックを使用すると、クラスターのノード間で同期されるコードを実行できます。
15.1. Lock API リンクのコピーリンクがクリップボードにコピーされました!
lock API は以下で構成されます。
-
EmbeddedClusteredLockManagerFactoryは、埋め込みキャッシュマネージャーからクラスター化ロックマネージャーを初期化します。 -
ClusteredLockManagerは、クラスター化ロックを定義、設定、取得、および削除するメソッドを提供します。 -
ClusteredLockはクラスター化ロックを実装するメソッドを提供します。
クラスター化ロックは、Red Hat JBoss Data Grid 埋め込みモードでのみ利用可能です。
15.2. サポートされる設定 リンクのコピーリンクがクリップボードにコピーされました!
本リリースより、Red Hat JBoss Data Grid は NODE オーナーシップと再入可能でないロックをサポートするようになりました。
NODE オーナーシップを使用すると、Red Hat JBoss Data Grid クラスターのすべてのノードがロックを使用できます。
再入可能ロックの場合、そのロックを所有するノードはロックを所有する限りロックを再取得することができます。再入可能でないロックの場合、すべてのノードがロックを取得できます。そのため、2 つの連続したロック呼び出しが同じ所有者に送信されると、最初の呼び出しがロックを取得し (ロックがある場合)、2 番目の呼び出しはブロックされます。
15.3. Maven 依存関係の追加 リンクのコピーリンクがクリップボードにコピーされました!
クラスター化ロックの使用を開始するには、以下の依存関係を pom.xml に追加します。
pom.xml
<dependency> <groupId>org.infinispan</groupId> <artifactId>infinispan-clustered-lock</artifactId> <version>...</version> <!-- 7.2.0 or later --> </dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-clustered-lock</artifactId>
<version>...</version> <!-- 7.2.0 or later -->
</dependency>
15.4. クラスター化ロックの使用 リンクのコピーリンクがクリップボードにコピーされました!
以下のコードサンプルは、クラスター化ロックの使用方法を表しています。
第16章 Hot Rod インターフェース リンクのコピーリンクがクリップボードにコピーされました!
16.1. Hot Rod について リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod は、Red Hat JBoss Data Grid で使用されるバイナリー TCP クライアントサーバープロトコルであり、Memcached などの他のクライアントサーバープロトコルの欠点を解消するために作成されました。
Hot Rod はサーバークラスターでフェイルオーバーを行い、トポロジーが変更されます。Hot Rod は、クラスタートポロジーに関する更新をクライアントに定期的に提供することによりこれを行います。
Hot Rod では、クライアントはパーティション化されたまたは分散された Red Hat JBoss Data Grid サーバークラスターで要求をスマートにルーティングできます。これを行うために、Hot Rod ではクライアントはキーを格納するパーティションを決定し、キーがあるサーバーと直接通信できます。この機能は、クライアントでクラスタートポロジーを更新する Hot Rod に依存し、クライアントはサーバーと同じ一貫性のあるハッシュアルゴリズムを使用します。
Red Hat JBoss Data Grid には、Hot Rod プロトコルを実装するサーバーモジュールが含まれます。Hot Rod プロトコルを使用すると、他のテキストベースのプロトコルに比べて、クライアントとサーバーの対話が高速になり、クライアントが負荷分散、フェイルオーバー、およびデータ場所運用に関する決定を行えるようになります。
16.2. Hot Rod ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
16.2.1. Hot Rod ヘッダーデータタイプ リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid の Hot Rod で使用されたすべてのキーおよび値はバイトアレイとして格納されます。ただし、特定のヘッダー値 (REST や Memcached の値) は以下のデータタイプを使用して格納されます。
| データタイプ | Size | 説明 |
|---|---|---|
|
vInt |
1 - 5 バイト。 |
符号なし可変長整数値。 |
|
vLong |
1-9 バイト。 |
符号なし可変長 long 値。 |
|
string |
- |
文字列は常に UTF-8 エンコーディングを使用して表されます。 |
16.2.2. 要求ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod を使用して Red Hat JBoss Data Grid にアクセスする場合、要求ヘッダーの内容は以下のものから構成されます。
| フィールド名 | データタイプ/サイズ | 説明 |
|---|---|---|
|
Magic |
1 バイト |
ヘッダーが要求ヘッダーまたは応答ヘッダーであるかどうかを示します。 |
|
Message ID |
vLong |
メッセージ ID を含みます。この一意の ID は、要求に応答するときに使用されます。これにより、Hot Rod クライアントは非同期でプロトコルを実装できるようになります。 |
|
Version |
1 バイト |
Hot Rod サーバーバージョンを含みます。 |
|
Opcode |
1 バイト |
関連する操作コードを含みます。要求ヘッダー内でopcode には要求操作コードのみを含めることができます。 |
|
Cache Name Length |
vInt |
キャッシュ名の長さを格納します。キャッシュ名の長さが |
|
Cache Name |
string |
指定された操作のターゲットキャッシュの名前を格納します。この名前は、キャッシュ設定ファイルの事前定義済みキャッシュの名前に一致する必要があります。 |
|
Flags |
vInt |
システムに渡されるフラグを表す可変長の数値を含みます。さらに多くのバイトを読み取る必要があるかどうかを決定するために使用される最大ビットを除き、各ビットはフラグを表します。各フラグを表すためにビットを使用すると、フラグの組み合わせが連結された状態で表されます。 |
|
Client Intelligence |
1 バイト |
サーバーに対するクライアント機能を示す値を含みます。 |
|
Topology ID |
vInt |
クライアントの最後の既知なビュー ID を含みます。基本的なクライアントはこのフィールドに値 |
16.2.3. 応答ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod を使用して Red Hat JBoss Data Grid にアクセスする場合、応答ヘッダーの内容は以下のものから構成されます。
| フィールド名 | データタイプ | 説明 |
|---|---|---|
|
Magic |
1 バイト |
ヘッダーが要求または応答ヘッダーであるかどうかを示します。 |
|
Message ID |
vLong |
メッセージ ID を含みます。この一意の ID は、応答を元の要求とペアにするために使用されます。これにより、Hot Rod クライアントは非同期でプロトコルを実装できるようになります。 |
|
Opcode |
1 バイト |
関連する操作コードを含みます。応答ヘッダー内で opcode には応答操作コードのみを含めることができます。 |
|
Status |
1 バイト |
応答のステータスを表すコードを含みます。 |
|
Topology Change Marker |
1 バイト |
応答がトポロジー変更情報に含まれるかどうかを示すマーカーバイトを含みます。 |
16.2.4. トポロジー変更ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
16.2.4.1. トポロジー変更ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod を使用して Red Hat JBoss Data Grid にアクセスする場合は、応答ヘッダーが、異なるトポロジーまたはハッシュ分散を区別できるクライアントを探すことによりクラスターまたはビューフォーメーションの変更に応答します。Hot Rod サーバーは現在の topology ID と、クライアントにより送信された topology ID を比較し、2 つの値が異なる場合は、新しい topology ID を返します。
16.2.4.2. トポロジー変更マーカー値 リンクのコピーリンクがクリップボードにコピーされました!
以下は、応答ヘッダー内の Topology Change Marker フィールドの有効な値のリストです。
| Value | 説明 |
|---|---|
|
0 |
トポロジーの変更情報は追加されません。 |
|
1 |
トポロジーの変更情報が追加されます。 |
16.2.4.3. トポロジー認識クライアントのトポロジー変更ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
トポロジーの変更がサーバーにより返された場合、トポロジー認識クライアントに送信された応答ヘッダーには以下の要素が含まれます。
| 応答ヘッダーフィールド | データタイプ/サイズ | 説明 |
|---|---|---|
|
Response Header with Topology Change Marker |
変数 |
「応答ヘッダー」を参照してください。 |
|
Topology ID |
vInt |
トポロジー ID。 |
|
Num Servers in Topology |
vInt |
クラスターで稼働している Hot Rod サーバーの数を含みます。一部のノードのみが Hot Rod サーバーを稼働している場合に、この値は、クラスター全体のサブセットになることがあります。 |
|
mX: Host/IP Length |
vInt |
個別クラスターメンバーのホスト名または IP アドレスの長さを含みます。可変長により、この要素にはホスト名、IPv4、および IPv6 アドレスを含めることができます。 |
|
mX: Host/IP Address |
string |
個別クラスターメンバーのホスト名または IP アドレスを含みます。Hot Rod クライアントはこの情報を使用して個別クラスターメンバーにアクセスします。 |
|
mX: Port |
符号なしショート。2 バイト |
クラスターメンバーと通信するために Hot Rod クライアントが使用するポートを含みます。 |
トポロジー内の各サーバーに対して、接頭辞 mX の 3 つのエントリーが繰り返されます。トポロジーの情報フィールド内の最初のサーバーには接頭辞 m1 が付けられ、X の値が num servers in topology フィールドで指定されたサーバーの数と等しくなるまで、各追加サーバーに対して数値が 1 つずつ増分されます。
16.2.4.4. ハッシュ配布認識クライアントのトポロジー変更ヘッダー リンクのコピーリンクがクリップボードにコピーされました!
トポロジーの変更がサーバーにより返された場合、クライアントに送信された応答ヘッダーには以下の要素が含まれます。
| フィールド | データタイプ/サイズ | 説明 |
|---|---|---|
|
Response Header with Topology Change Marker |
変数 |
「応答ヘッダー」を参照してください。 |
|
Topology ID |
vInt |
トポロジー ID。 |
|
Number Key Owners |
符号なしショート、2 バイト |
配布された各キーに対してグローバルに設定されたコピーの数を含みます。配布がキャッシュで設定されていない場合は、値 |
|
Hash Function Version |
1 バイト |
使用中のハッシュ機能へのポインターを含みます。配布がキャッシュで設定されていない場合は、値 |
|
Hash Space Size |
vInt |
ハッシュコード生成に関連するすべてのモジュール計算のために JBoss Data Grid により使用されるモジュールを含みます。クライアントはこの情報を使用して正しいハッシュ計算をキーに適用します。配布がキャッシュで設定されていない場合は、値 |
|
Number servers in topology |
vInt |
クラスター内で稼働している [path]_ Hot Rod_ サーバーの数を含みます。一部のノードのみが [path]_ Hot Rod_ サーバーを稼働している場合に、この値は、クラスター全体のサブセットになることがあります。また、この値はヘッダーに含まれるホストとポートのペアの数を表します。 |
|
Number Virtual Nodes Owners |
vInt |
設定された仮想ノードの数を含みます。仮想ノードが設定されていない場合、または配布がキャッシュで設定されていない場合は、値 |
|
mX: Host/IP Length |
vInt |
個別クラスターメンバーのホスト名または [path]_ IP_ アドレスの長さを含みます。可変長により、この要素にはホスト名、[path]_ IPv4_ および [path]_ IPv6_ アドレスを含めることができます。 |
|
mX: Host/IP Address |
string |
個別クラスターメンバーのホスト名または [path]_ IP_ アドレスを含みます。[path]_ Hot Rod_ クライアントはこの情報を使用して個別クラスターメンバーにアクセスします。 |
|
mX: Port |
符号なしショート、2 バイト |
クラスターメンバーと通信するために [path]_ Hot Rod_ クライアントが使用するポートを含みます。 |
|
Hash Function Version |
1 バイト |
0x03 |
|
Number of Segments in Topology |
vInt |
トポロジーの合計セグメント数。 |
|
Number of Owners in Segment |
1 バイト |
所有者の数は 0、1、または 2 のいずれか。 |
|
First Wwner’s Index |
vInt |
全ノードのリストにおけるこの所有者の位置。このセグメントの所有者の数が 1 または 2 である場合のみ含まれます。 |
|
Second Owner’s Index |
vInt |
全ノードのリストにおけるこの所有者の位置。このセグメントの所有者の数が 2 である場合のみ含まれます。 |
セグメントごとに所有者の数を 3 以上にすることもできますが、Hot Rod プロトコルは効率性の理由で送信する所有者の数を制限します。
トポロジー内の各サーバーに対して、接頭辞 mX の 3 つのエントリーが繰り返されます。トポロジーの情報フィールド内の最初のサーバーには接頭辞 m1 が付けられ、X の値が num servers in topology フィールドで指定されたサーバーの数と等しくなるまで、各追加サーバーに対して数値が 1 つずつ増分されます。
16.3. Hot Rod 操作 リンクのコピーリンクがクリップボードにコピーされました!
16.3.1. Hot Rod 操作 リンクのコピーリンクがクリップボードにコピーされました!
以下は、Hot Rod プロトコル 1.3 を使用して Red Hat JBoss Data Grid と対話する場合に有効な操作です。
- Authenticate
- AuthMechList
- BulkGet
- BulkKeysGet
- Clear
- ContainsKey
- Exec
- Get
- GetAll
- GetWithMetadata
- GetWithVersion
- IterationEnd
- IterationNext
- IterationStart
- Ping
- Put
- PutAll
- PutIfAbsent
- Query
- Remove
- RemoveIfUnmodified
- Replace
- ReplaceIfUnmodified
- Stats
- Size
RemoteCache API を使用して Hot Rod クライアントの Put 操作、PutIfAbsent 操作、Replace 操作、および ReplaceWithVersion 操作を呼び出す場合に、ライフスパンが 30 日よりも大きい値に設定されると、その値は UNIX 時間として処理され、1970 年 1 月 1 日以降の秒数を表します。
16.3.2. Hot Rod の Authenticate 操作 リンクのコピーリンクがクリップボードにコピーされました!
この操作の目的は、SASL を使用してクライアントをサーバーに対して認証することです。選択した mech によっては、認証プロセスが複数のステップの操作になることがあります。この操作が完了すると、接続が認証されます。
Authenticate 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Mech |
String |
認証用にクライアントによって選択された mech の名前が含まれる String。後続の呼び出しでは空になります。 |
|
Response length |
vInt |
SASL クライアント応答の長さ |
|
Response data |
バイトアレイ |
SASL クライアント応答。 |
この操作の応答ヘッダーには以下のものが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Completed |
バイト |
さらに処理が必要な場合は 0、認証が完了した場合は 1 。 |
|
Challenge length |
vInt |
SASL サーバーチャレンジの長さ |
|
Challenge data |
バイトアレイ |
SASL サーバーチャレンジ。 |
16.3.3. Hot Rod の AuthMechList 操作 リンクのコピーリンクがクリップボードにコピーされました!
この操作の目的は、サーバーによってサポートされる 有効な SASL 認証 mech のリストを取得することです。クライアントは優先される mech で Authenticate 要求を発行する必要があります。
AuthMechList 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
この操作の応答ヘッダーには以下のものが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー |
|
Mech count |
vInt |
mech の数。 |
|
Mech |
String |
IANA で登録された形式 (GSSAPI、CRAM-MD5 など) で SASL mech の名前が含まれる String |
Mech の値はサポートされる mech ごとに繰り返されます。
16.3.4. Hot Rod の BulkGet 操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod の BulkGet 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Entry Count |
vInt |
サーバーによって返される Red Hat JBoss Data Grid エントリーの最大数が含まれます。エントリーはキーと値のペアです。 |
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー |
|
More |
vInt |
ストリームからエントリーをさらに読み取る必要があるかどうかを示します。 |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーの値を含みます。 |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
バイトアレイ |
値を含みます。 |
要求された各エントリーに対して、More、Key Size、Key、Value Size、および Value エントリーが応答に追加されます。
16.3.5. Hot Rod の BulkKeysGet 操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod の BulkKeysGet 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Scope |
vInt |
|
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Response Status |
1 バイト |
|
|
More |
1 バイト |
ストリームからより多くのキーを読み取る必要があるかを表す 1 つのバイト。 |
|
Key Length |
vInt |
キーの長さ |
|
Key |
バイトアレイ |
取得されたキー |
|
More |
1 バイト |
ストリームからより多くのエントリーを読み取る必要があるかどうかを表す 1 つのバイト。1 に設定された場合はエントリーが続きます。0 に設定された場合はストリームの最後であり、読み取るエントリーが残っていません。 |
Key Length および Key の値はキーごとに繰り返されます。
16.3.6. Hot Rod の Clear 操作 リンクのコピーリンクがクリップボードにコピーされました!
clear 操作の形式にはヘッダーのみが含まれます。
この操作に有効な応答ステータスは以下のとおりです。
| Response Status | 説明 |
|---|---|
|
0x00 |
Red Hat JBoss Data Grid が正常に消去されました。 |
16.3.7. Hot Rod の ContainsKey 操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod の ContainsKey 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
- |
- |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーを含みます (このキーの対応する値が要求されます)。 |
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| Response Status | 説明 |
|---|---|
|
0x00 |
操作が成功。 |
|
0x02 |
キーが存在しない。 |
この操作の応答は空白です。
16.3.8. Hot Rod の Exec 操作 リンクのコピーリンクがクリップボードにコピーされました!
Exec 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Script |
String |
実行するスクリプトの名前。 |
|
Parameter Count |
vInt |
パラメーターの数。 |
|
Parameter Name (per parameter) |
String |
パラメーターの名前。 |
|
Parameter Length (per parameter) |
vInt |
パラメーターの長さ。 |
|
Parameter Value (per parameter) |
バイトアレイ |
パラメーターの値。 |
この操作の応答ヘッダーには以下のものが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Response status |
1 バイト |
正常に実行が完了した場合は 0x00、サーバーにエラーが発生した場合は 0x85。 |
|
Value Length |
vInt |
成功した場合は、戻り値の長さ。 |
|
Value |
バイトアレイ |
成功した場合は、実行の結果。 |
16.3.9. Hot Rod の Get 操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod の Get 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーを含みます (このキーの対応する値が要求されます)。 |
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| Response Status | 説明 |
|---|---|
|
0x00 |
操作が成功。 |
|
0x02 |
キーが存在しない。 |
キーが見つかった場合の get 操作の応答形式は以下のとおりです。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
バイトアレイ |
要求された値を含みます。 |
16.3.10. Hot Rod の GetAll 操作 リンクのコピーリンクがクリップボードにコピーされました!
指定のキーセットへマップするすべてのエントリーを取得する一括操作。
Hot Rod の GetAll 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Count |
vInt |
エンティティーを見つけるためのキーの数。 |
|
Key Length |
vInt |
キーの長さ。 |
|
Key |
バイトアレイ |
取得されたキー |
Key Length および Key の値はキーごとに繰り返されます。
この操作の応答ヘッダーには以下のものが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー |
|
Entry count |
vInt |
返されたエントリーの数。 |
|
Key Length |
vInt |
キーの長さ。 |
|
Key |
バイトアレイ |
取得されたキー |
|
Value Length |
vInt |
値の長さ。 |
|
Value |
バイトアレイ |
取得された値。 |
Key Length、Key、Value Length、および Value エントリーはキーおよび値ごとに繰り返されます。
16.3.11. Hot Rod の GetWithMetadata 操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod の GetWithMetadata 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さ。vInt のサイズは最大 5 バイトであり、理論的には |
|
Key |
バイトアレイ |
値が要求されるキーを含むバイトアレイ。 |
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Response status |
1 バイト |
|
|
Flag |
1 バイト |
応答に期限切れに関する情報が含まれるかどうかを示すフラグ。フラグの値は、 |
|
Created |
Long |
(任意) サーバーでエントリーが作成されたときのタイムスタンプを表す Long。この値は、フラグの |
|
Lifespan |
vInt |
(任意) 秒単位でエントリーのライフスパンを表すvInt 。この値は、フラグの |
|
LastUsed |
Long |
(任意) サーバーでエントリーが最後にアクセスされたときのタイムスタンプを表す Long。この値は、フラグの |
|
MaxIdle |
vInt |
(任意) 秒単位でエントリーの maxIdle を表すvInt 。この値は、フラグの |
|
Entry Version |
8 バイト |
既存のエントリー変更の一意な値。プロトコルでは entry_version の値はシーケンシャルであることが保証されず、キーレベルで更新ごとに一意である必要があります。 |
|
Value Length |
vInt |
成功した場合は、値の長さ。 |
|
Value |
バイトアレイ |
成功した場合は、要求された値。 |
16.3.12. Hot Rod の GetWithVersion 操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod の GetWithVersion 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーを含みます (このキーの対応する値が要求されます)。 |
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| Response Status | 説明 |
|---|---|
|
0x00 |
操作が成功。 |
|
0x02 |
キーが存在しない。 |
キーが見つかった場合の GetWithVersion 操作の応答形式は以下のとおりです。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー |
|
Entry Version |
8 バイト |
既存のエントリー変更の一意な値。プロトコルでは entry_version の値はシーケンシャルであることが保証されません。キーレベルで更新ごとに一意である必要があります。 |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
バイトアレイ |
要求された値を含みます。 |
16.3.13. Hot Rod の IterationEnd 操作 リンクのコピーリンクがクリップボードにコピーされました!
IterationEnd 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
iterationId |
String |
イテレーションの一意な ID。 |
以下は、この操作から返される有効な応答値です。
| Response Status | 説明 |
|---|---|
|
0x00 |
操作が成功。 |
|
0x05 |
存在しない iterationId に対するエラー。 |
16.3.14. Hot Rod の IterationNext 操作 リンクのコピーリンクがクリップボードにコピーされました!
IterationNext 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
IterationId |
String |
イテレーションの一意な ID。 |
この操作の応答ヘッダーには以下のものが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Finished segments size |
vInt |
イテレーションを終了したセグメントを表すビットセットのサイズ。 |
|
Finished segments |
バイトアレイ |
イテレーションを終了したセグメントのビットセットエンコーディング。 |
|
Entry count |
vInt |
返されたエントリーの数。 |
|
Number of value projections |
vInt |
値の射影の数。 |
|
Metadata |
1 バイト |
設定された場合、エントリーにメタデータが関連付けされます。 |
|
Expiration |
1 バイト |
応答に期限切れに関する情報が含まれるかどうかを示すフラグ。フラグの値は、 |
|
Created |
Long |
(任意) サーバーでエントリーが作成されたときのタイムスタンプを表す Long。この値は、フラグの |
|
Lifespan |
vInt |
(任意) 秒単位でエントリーのライフスパンを表すvInt 。この値は、フラグの |
|
LastUsed |
Long |
(任意) サーバーでエントリーが最後にアクセスされたときのタイムスタンプを表す Long。この値は、フラグの |
|
MaxIdle |
vInt |
(任意) 秒単位でエントリーの maxIdle を表すvInt 。この値は、フラグの |
|
Entry Version |
8 バイト |
既存のエントリー変更の一意な値。Metadata フラグが設定されている場合のみ含まれます。 |
|
Key Length |
vInt |
キーの長さ。 |
|
Key |
バイトアレイ |
取得されたキー |
|
Value Length |
vInt |
値の長さ。 |
|
Value |
バイトアレイ |
取得された値。 |
エントリーごとに Metadata、Expiration、Created、Lifespan、LastUsed、MaxIdle、Entry Version、Key Length、Key、Value Length、および Value フィールドが繰り返されます。
16.3.15. Hot Rod の IterationStart 操作 リンクのコピーリンクがクリップボードにコピーされました!
IterationStart 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Segments size |
signed vInt |
イテレーションを行うセグメント ID のビットセットエンコーディングのサイズ。サイズは、最も近い 8 の倍数に切り上げまたは切り捨てされた最大セグメント ID になります。-1 の値はセグメントのフィルターが実行されないことを示します。 |
|
Segments |
バイトアレイ |
(任意) ビットセットがエンコードされた セグメント ID が含まれ、1 が値の各ビットはセットのセグメントを表します。バイトの順番はリトルエンディアン (little endian) です。たとえば、セグメント [1,3,12,13] は以下のエンコーディングになります。 00001010 00110000 size: 16 bits first byte: represents segments from 0 to 7, from which 1 and 3 are set second byte: represents segments from 8 to 15, from which 12 and 13 are set
詳細は |
|
FilterConverter size |
signed vInt |
サーバーにデプロイされた |
|
FilterConverter |
UTF-8 バイトアレイ |
(任意) サーバーにデプロイされた |
|
Parameters size |
バイト |
フィルターのパラメーター数。 |
|
Parameters |
byte[][] |
パラメーターのアレイ。各パラメーターがバイトアレイになります。 |
|
BatchSize |
vInt |
一度にサーバーから転送するエントリーの数。 |
|
Metadata |
1 バイト |
各エントリーに対してメタデータを返す場合は 1。その他の場合は 0。 |
この操作の応答ヘッダーには以下のものが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
IterationId |
String |
イテレーションの一意な ID。 |
16.3.16. Hot Rod の Ping 操作 リンクのコピーリンクがクリップボードにコピーされました!
ping は、サーバーの可用性を確認するアプリケーションレベルの要求です。
この操作に有効な応答ステータスは以下のとおりです。
| Response Status | 説明 |
|---|---|
|
0x00 |
エラーなしの正常な ping。 |
16.3.17. Hot Rod の Put 操作 リンクのコピーリンクがクリップボードにコピーされました!
put 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
- |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーの値を含みます。 |
|
TimeUnits |
バイト |
lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには |
|
Lifespan |
vInt |
エントリーが存続できる期間。TimeUnits が |
|
Max Idle |
vInt |
各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
バイトアレイ |
要求された値。 |
以下は、この操作から返される有効な応答値です。
| Response Status | 説明 |
|---|---|
|
0x00 |
値が正常に格納されました。 |
|
0x03 |
値が正常に格納され、以前の値が続きます。 |
この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。
16.3.18. Hot Rod の PutAll 操作 リンクのコピーリンクがクリップボードにコピーされました!
すべてのキーバリューエントリーを同時にキャッシュに置く一括操作。
PutAll 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
TimeUnits |
バイト |
lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには |
|
Lifespan |
vInt |
エントリーが存続できる期間。TimeUnits が |
|
Max Idle |
vInt |
各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が |
|
Entry count |
vInt |
挿入されたエントリーの数。 |
|
Key Length |
vInt |
キーの長さ。 |
|
Key |
バイトアレイ |
取得されたキー |
|
Value Length |
vInt |
値の長さ。 |
|
Value |
バイトアレイ |
取得された値。 |
Key Length、Key、Value Length、および Value フィールドは、置かれたエントリーごとに繰り返されます。
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| Response Status | 説明 |
|---|---|
|
0x00 |
操作に成功し、すべてのキーが正常に置かれたことを示します。 |
16.3.19. Hot Rod の PutIfAbsent 操作 リンクのコピーリンクがクリップボードにコピーされました!
PutIfAbsent 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーの値を含みます。 |
|
TimeUnits |
バイト |
lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには |
|
Lifespan |
vInt |
エントリーが存続できる期間。TimeUnits が |
|
Max Idle |
vInt |
各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
バイトアレイ |
要求された値を含みます。 |
以下は、この操作から返される有効な応答値です。
| Response Status | 説明 |
|---|---|
|
0x00 |
値が正常に格納されました。 |
|
0x01 |
キーが存在したため値は保存されませんでした。キーの現在の値が返されます。 |
|
0x04 |
キーが存在したため操作に失敗し、応答でその値が続きます。 |
この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。
16.3.20. Hot Rod の Query 操作 リンクのコピーリンクがクリップボードにコピーされました!
Query 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Query Length |
vInt |
Protobuf エンコードされたクエリーオブジェクトの長さ。 |
|
Query |
バイトアレイ |
Protobuf エンコードされたクエリーオブジェクトを含むバイトアレイ。長さは前のフィールドにより指定されます。 |
以下は、この操作から返される有効な応答値です。
| Response Status | データ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Response payload Length |
vInt |
Protobuf エンコードされた応答オブジェクトの長さ。 |
|
Response payload |
バイトアレイ |
Protobuf エンコードされた応答オブジェクトを含むバイトアレイ。長さは前のフィールドにより指定されます。 |
Hot Rod の Query 操作の要求および応答タイプは、infinispan-remote-query-client.jar 内にある org/infinispan/query/remote/client/query.proto リソースファイルで定義されます。
16.3.21. Hot Rod の Remove 操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod の Remove 操作は、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーを含みます (このキーの対応する値が要求されます)。 |
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| Response Status | 説明 |
|---|---|
|
0x00 |
操作が成功。 |
|
0x02 |
キーが存在しない。 |
|
0x03 |
キーが削除され、応答で以前の値または削除された値が続きます。 |
通常、この操作の応答ヘッダーは空白です。ただし、ForceReturnPreviousValue が渡された場合は、応答ヘッダーに以下のいずれかが含まれます。
- 以前のキーの値および長さ。
-
キーが存在しないことを示す、値の長さ
0と応答ステータス0x02。
remove 操作の応答ヘッダーには、提供されたキーの以前の値と、以前の値の長さが含まれます (ForceReturnPreviousValue が渡された場合)。キーが存在しない場合、または以前の値が null の場合、値の長さは 0 です。
16.3.22. Hot Rod の RemoveIfUnmodified 操作 リンクのコピーリンクがクリップボードにコピーされました!
RemoveIfUnmodified 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーの値を含みます。 |
|
Entry Version |
8 バイト |
エントリーのバージョン番号。 |
以下は、この操作から返される有効な応答値です。
| Response Status | 説明 |
|---|---|
|
0x00 |
エントリーは置換または削除されました。 |
|
0x01 |
キーが変更されたため、エントリーの置換または削除に失敗しました。 |
|
0x02 |
キーが存在しない。 |
|
0x03 |
キーが削除され、応答で以前の値または置き換えられた値が続きます。 |
|
0x04 |
キーが変更されたためエントリーの削除に失敗し、応答で変更された値が続きます。 |
この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。
16.3.23. Hot Rod の Replace 操作 リンクのコピーリンクがクリップボードにコピーされました!
replace 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーの値を含みます。 |
|
TimeUnits |
バイト |
lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには |
|
Lifespan |
vInt |
エントリーが存続できる期間。TimeUnits が |
|
Max Idle |
vInt |
各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
バイトアレイ |
要求された値を含みます。 |
以下は、この操作から返される有効な応答値です。
| Response Status | 説明 |
|---|---|
|
0x00 |
値が正常に格納されました。 |
|
0x01 |
キーが存在しないため、値が格納されませんでした。 |
|
0x03 |
値が正常に置換され、応答で以前の値または置き換えられた値が続きます。 |
この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。
16.3.24. Hot Rod の ReplaceIfUnmodified 操作 リンクのコピーリンクがクリップボードにコピーされました!
ReplaceIfUnmodified 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Key Length |
vInt |
キーの長さ。vInt のサイズは最大 5 バイトであり、理論的には |
|
Key |
バイトアレイ |
値が要求されるキーを含むバイトアレイ。 |
|
TimeUnits |
バイト |
lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには |
|
Lifespan |
vInt |
エントリーが存続できる期間。TimeUnits が |
|
Max Idle |
vInt |
各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が |
|
Entry Version |
8 バイト |
|
|
Value Length |
vInt |
値の長さ。 |
|
Value |
バイトアレイ |
格納する値。 |
この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。
| Response Status | 説明 |
|---|---|
|
0x00 |
値が正常に格納されました。 |
|
0x01 |
キーが変更されたため、置換が実行されませんでした。 |
|
0x02 |
キーが存在しないため、置換が実行されませんでした。 |
|
0x03 |
キーは置換され、応答で以前の値または置き換えられた値が続きます。 |
|
0x04 |
キーが変更されたためエントリーの置き換えに失敗し、応答で変更された値が続きます。 |
以下は、この操作から返される有効な応答値です。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Previous value length |
vInt |
以前の値を強制的に戻すフラグが要求で送信された場合、以前の値の長さが返されます。キーが存在しない場合、値の長さは 0 になります。送信されたフラグがない場合、値の長さは含まれません。 |
|
Previous value |
バイトアレイ |
以前の値を強制的に戻すフラグが要求で送信され、キーが置き換えられた場合、前の値になります。 |
16.3.25. Hot Rod の ReplaceWithVersion 操作 リンクのコピーリンクがクリップボードにコピーされました!
ReplaceWithVersion 操作の要求形式には以下が含まれます。
RemoteCache API では、Hot Rod の ReplaceWithVersion 操作は ReplaceIfUnmodified 操作を使用します。結果として、これらの 2 つの操作は JBoss Data Grid ではまったく同じになります。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
- |
- |
|
Key Length |
vInt |
キーの長さを含みます。 |
|
Key |
バイトアレイ |
キーの値を含みます。 |
|
Lifespan |
vInt |
エントリーが期限切れになるまでの秒数を含みます。秒数が 30 日を超える場合、その値はエントリーライフスパンの UNIX 時間 (つまり、日付 |
|
Max Idle |
vInt |
キャッシュからエビクトされるまでエントリーがアイドル状態のままになることが許可される秒数を含みます。このエントリーが |
|
Entry Version |
8 バイト |
エントリーのバージョン番号。 |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
バイトアレイ |
要求された値を含みます。 |
以下は、この操作から返される有効な応答値です。
| Response Status | 説明 |
|---|---|
|
0x00 |
エントリーが置換または削除された場合に返されたステータス。 |
|
0x01 |
キーが変更されたため、エントリーの置換または削除が失敗した場合に、ステータスを返します。 |
|
0x02 |
キーが存在しない場合に、ステータスを返します。 |
この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。
16.3.26. Hot Rod の Stats 操作 リンクのコピーリンクがクリップボードにコピーされました!
この操作は、利用可能なすべての統計の概要を返します。返された各統計に対して、名前と値が文字列形式と UTF-8 形式の両方で返されます。
この操作では、以下の統計がサポートされます。
| Name | 説明 |
|---|---|
|
timeSinceStart |
Hot Rod が起動した以降の秒数を含みます。 |
|
currentNumberOfEntries |
Hot Rod サーバーに現在存在するエントリーの数を含みます。 |
|
totalNumberOfEntries |
Hot Rod サーバーに格納されたエントリーの合計数を含みます。 |
|
stores |
put 操作の試行回数を含みます。 |
|
retrievals |
get 操作の試行回数を含みます。 |
|
hits |
get ヒット数を含みます。 |
|
misses |
get 失敗数を含みます。 |
|
removeHits |
remove ヒット数を含みます。 |
|
removeMisses |
removal 失敗数を含みます。 |
|
globalCurrentNumberOfEntries |
Hot Rod クラスター全体における現在のエントリー数。 |
|
globalStores |
Hot Rod クラスター全体における put 操作の合計数 |
|
globalRetrievals |
Hot Rod クラスター全体における get 操作の合計数 |
|
globalHits |
Hot Rod クラスター全体における get ヒット数の合計。 |
|
globalMisses |
Hot Rod クラスター全体における get 失敗数の合計。 |
|
globalRemoveHits |
Hot Rod クラスター全体における removal ヒット数の合計。 |
|
globalRemoveMisses |
Hot Rod クラスター全体における removal 失敗数の合計。 |
Hot Rod がローカルモードで実行されている場合、global で始まる統計は利用できません。
この操作の応答ヘッダーには以下のものが含まれます。
| Name | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Number of Stats |
vInt |
返された個別統計の数を含みます。 |
|
Name Length |
vInt |
名前付き統計の長さを含みます。 |
|
Name |
string |
統計の名前を含みます。 |
|
Value Length |
vInt |
値の長さを含みます。 |
|
Value |
string |
統計値を含みます。 |
要求された各統計に対して、値 Name Length、Name、Value Length、および Value が繰り返されます。
16.3.27. Hot Rod の Size 操作 リンクのコピーリンクがクリップボードにコピーされました!
Size 操作の要求形式には以下が含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
この操作の応答ヘッダーには以下のものが含まれます。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
|
Size |
vInt |
クラスター化された構成でグローバルに計算されるリモートキャッシュのサイズ。存在する場合はキャッシュストアの内容も考慮されます。 |
16.4. Hot Rod 操作の値 リンクのコピーリンクがクリップボードにコピーされました!
16.4.1. Hot Rod 操作の値 リンクのコピーリンクがクリップボードにコピーされました!
以下は、要求ヘッダーと対応する応答ヘッダー値の有効な opcode 値のリストです。
| 操作 | 要求操作コード | 応答操作コード |
|---|---|---|
|
put |
0x01 |
0x02 |
|
get |
0x03 |
0x04 |
|
putIfAbsent |
0x05 |
0x06 |
|
replace |
0x07 |
0x08 |
|
replaceIfUnmodified |
0x09 |
0x0A |
|
remove |
0x0B |
0x0C |
|
removeIfUnmodified |
0x0D |
0x0E |
|
containsKey |
0x0F |
0x10 |
|
clear |
0x13 |
0x14 |
|
stats |
0x15 |
0x16 |
|
ping |
0x17 |
0x18 |
|
bulkGet |
0x19 |
0x1A |
|
getWithMetadata |
0x1B |
0x1C |
|
bulkKeysGet |
0x1D |
0x1E |
|
query |
0x1F |
0x20 |
|
authMechList |
0x21 |
0x22 |
|
auth |
0x23 |
0x24 |
|
addClientListener |
0x25 |
0x26 |
|
removeClientListener |
0x27 |
0x28 |
|
size |
0x29 |
0x2A |
|
exec |
0x2B |
0x2C |
|
putAll |
0x2D |
0x2E |
|
getAll |
0x2F |
0x30 |
|
iterationStart |
0x31 |
0x32 |
|
iterationNext |
0x33 |
0x34 |
|
iterationEnd |
0x35 |
0x36 |
また、応答ヘッダーの opcode 値が 0x50 の場合は、エラー応答を示します。
16.4.2. Magic 値 リンクのコピーリンクがクリップボードにコピーされました!
以下は要求および応答ヘッダー内の Magic フィールドの有効な値のリストです。
| Value | 説明 |
|---|---|
|
0xA0 |
キャッシュ要求マーカー。 |
|
0xA1 |
キャッシュ応答マーカー。 |
16.4.3. Status 値 リンクのコピーリンクがクリップボードにコピーされました!
以下は、応答ヘッダー内の Status フィールドに有効なすべての値を含む表です。
| Value | 説明 |
|---|---|
|
0x00 |
エラーなし。 |
|
0x01 |
配置、削除、置換なし。 |
|
0x02 |
キーは存在しません。 |
|
0x06 |
成功ステータス、互換性モードが有効です。 |
|
0x07 |
互換性モードの成功ステータスおよび前の値の返信が有効です。 |
|
0x08 |
互換性モードの非実行および前の値の返信が有効です。 |
|
0x81 |
無効なマジック値またはメッセージ ID。 |
|
0x82 |
不明なコマンド。 |
|
0x83 |
不明なバージョン。 |
|
0x84 |
要求解析エラー。 |
|
0x85 |
サーバーエラー。 |
|
0x86 |
コマンドタイムアウト。 |
16.4.4. Client Intelligence 値 リンクのコピーリンクがクリップボードにコピーされました!
以下は、要求ヘッダー内の Client Intelligence の有効な値のリストです。
| Value | 説明 |
|---|---|
|
0x01 |
クラスターまたはハッシュ情報が必要でない基本的なクライアントを示します。 |
|
0x02 |
トポロジーを認識し、クラスター情報が必要なクラスターを示します。 |
|
0x03 |
ハッシュと配布を認識し、クラスターおよびハッシュ情報が必要なクライアントを示します。 |
16.4.5. フラグ値 リンクのコピーリンクがクリップボードにコピーされました!
以下は、要求ヘッダー内の有効な flag 値のリストです。
| Value | 説明 |
|---|---|
|
0x0001 |
ForceReturnPreviousValue |
16.4.6. Hot Rod のエラー処理 リンクのコピーリンクがクリップボードにコピーされました!
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Error Opcode |
- |
エラー操作コードを含みます。 |
|
Error Status Number |
- |
|
|
Error Message Length |
vInt |
エラーメッセージの長さを含みます。 |
|
Error Message |
string |
実際のエラーメッセージを含みます。要求の解析エラーが存在したことを示す |
16.5. Hot Rod のリモートイベント リンクのコピーリンクがクリップボードにコピーされました!
16.5.1. Hot Rod のリモートイベント リンクのコピーリンクがクリップボードにコピーされました!
クライアントはリモートイベントリスナーを登録して、サーバーで発生するイベントの更新を受信することができます。クライアントリスナーが追加された直後にイベントが生成および送信されるため、リスナーの追加後に発生したすべてのイベントを受け取ることができます。
16.5.2. Hot Rod におけるリモートイベントのクライアントリスナーの追加 リンクのコピーリンクがクリップボードにコピーされました!
リモートイベントのクライアントリスナーを追加するには、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Listener ID |
バイトアレイ |
リスナーの識別子。 |
|
Include state |
バイト |
このバイトが 1 に設定された場合、初めてキャッシュリスナーを追加するとき、またはクラスター化環境でリモートリスナーが登録されたノードに変更があったときに、キャッシュされた状態がリモートクライアントへ返信されます。有効にすると、状態はクライアントへイベントを作成したキャッシュエントリーとして返信されます。0 に設定された場合、リスナーの追加時に状態はクライアントへ返信されず、リスナーが登録されたノードに変更があっても状態を受信しません。 |
|
Key/value filter factory name |
String |
このリスナーと使用されるキーバリューフィルターファクトリーの任意の名前。Hot Rod サーバーで直接イベントがフィルターされるようにし、クライアントに関係ないイベントが送信されないようにするキーバリューフィルターインスタンスを作成するために、このファクトリーが使用されます。使用されるファクトリーがない場合、文字列の長さは 0 になります。 |
|
Key/value filter factory parameter count |
バイト |
フィルターインスタンスの作成時、キーバリューフィルターファクトリーに任意の数のパラメーターを使用できるため、このファクトリーを使用して異なるフィルターインスタンスを動的に作成できます。このカウントフィールドは、ファクトリーへ渡されるパラメーターの数を示します。ファクトリー名を指定しないと、このフィールドはリクエストに含まれません。 |
|
Key/value filter factory parameter (per parameter) |
バイトアレイ |
キーバリューフィルターファクトリーのパラメーター。 |
|
Converter factory name |
String |
このリスナーと使用するコンバーターファクトリーの任意の名前。このファクトリーは、クライアントへ送信されるイベントの内容を変換するために使用されます。使用されるコンバーターがないと、。デフォルトでは生成されたイベントタイプに応じてイベントが明確に定義されます。しかし、イベントに情報を追加する必要がある場合や、イベントのサイズを縮小する必要がある場合があります。このような場合、コンバーターを使用してイベントの内容を変換することができます。コンバーターファクトリー名を指定すると、この処理を行うコンバーターインスタンスが作成されます。ファクトリーが使用されない場合は、文字列の長さが 0 になります。 |
|
Converter factory parameter count |
バイト |
コンバーターインスタンスの作成時、コンバーターファクトリーに任意の数のパラメーターを使用できるため、このファクトリーを使用して異なるコンバーターインスタンスを動的に作成できます。このカウントフィールドは、ファクトリーへ渡されるパラメーターの数を示します。ファクトリー名を指定しないと、このフィールドはリクエストに含まれません。 |
|
Converter factory parameter (per parameter) |
バイトアレイ |
コンバーターファクトリーのパラメーター。 |
|
Use raw data |
バイト |
フィルターまたはコンバーターパラメーターを raw バイナリーにする必要がある場合は 1、その他の場合は 0。 |
操作の応答形式は次のとおりです。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
16.5.3. リモートイベントの Hot Rod リモートクライアントリスナー リンクのコピーリンクがクリップボードにコピーされました!
以前追加したクライアントリスナーを削除するには、以下の要求形式を使用します。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
要求ヘッダー |
|
Listener ID |
バイトアレイ |
リスナーの識別子。 |
操作の応答形式は次のとおりです。
| フィールド | データタイプ | 説明 |
|---|---|---|
|
Header |
変数 |
応答ヘッダー。 |
16.5.4. Hot Rod イベントヘッダー リンクのコピーリンクがクリップボードにコピーされました!
各リモートイベントは以下の形式に準拠するヘッダーを使用します。
| フィールド名 | Size | Value |
|---|---|---|
|
Magic |
1 バイト |
0xA1 = response |
|
Message ID |
vLong |
イベントの ID |
|
Opcode |
1 バイト |
イベントタイプに応答するコード。 0x60 = cache entry created event 0x61 = cache entry modified event 0x62 = cache entry removed event 0x50 = error
|
|
Status |
1 バイト |
応答の状態。可能な値は次のとおりです。 0x00 = No error
|
|
Topology Change Marker |
1 バイト |
新しいトポロジーの送信が必要であるかどうかを決定できるようにするため、イベントは特定の受信トポロジー ID に関連付けられていません。そのため、新しいトポロジーはイベントとともに送信されません。よって、このマーカーはイベントに対して常に 0 の値を持ちます。 |
16.5.5. Hot Rod の CacheEntryCreated イベント リンクのコピーリンクがクリップボードにコピーされました!
CacheEntryCreated イベントには以下が含まれます。
| フィールド名 | Size | Value |
|---|---|---|
|
Header |
変数 |
|
|
Listener ID |
バイトアレイ |
このイベントが転送されるリスナー。 |
|
Custom Marker |
バイト |
カスタムイベントマーカー。作成されたイベントは 0 になります。 |
|
Command Retried |
バイト |
再試行されたコマンドによって発生したイベントのマーカー。コマンドが再試行された場合は 1、その他の場合は 0。 |
|
Key |
バイトアレイ |
作成されたキー。 |
|
Version |
long |
作成されたエントリーのバージョン。このバージョン情報を使用して、このキャッシュエントリーで条件付き操作を作成できます。 |
16.5.6. Hot Rod の CacheEntryModified イベント リンクのコピーリンクがクリップボードにコピーされました!
CacheEntryModified イベントには以下が含まれます。
| フィールド名 | Size | Value |
|---|---|---|
|
Header |
変数 |
|
|
Listener ID |
バイトアレイ |
このイベントが転送されるリスナー。 |
|
Custom Marker |
バイト |
カスタムイベントマーカー。作成されたイベントは 0 になります。 |
|
Command Retried |
バイト |
再試行されたコマンドによって発生したイベントのマーカー。コマンドが再試行された場合は 1、その他の場合は 0。 |
|
Key |
バイトアレイ |
変更されたキー。 |
|
Version |
long |
変更されたエントリーのバージョン。このバージョン情報を使用して、このキャッシュエントリーで条件付き操作を作成できます。 |
16.5.7. Hot Rod の CacheEntryRemoved イベント リンクのコピーリンクがクリップボードにコピーされました!
CacheEntryRemoved イベントには以下が含まれます。
| フィールド名 | Size | Value |
|---|---|---|
|
Header |
変数 |
|
|
Listener ID |
バイトアレイ |
このイベントが転送されるリスナー。 |
|
Custom Marker |
バイト |
カスタムイベントマーカー。作成されたイベントは 0 になります。 |
|
Command Retried |
バイト |
再試行されたコマンドによって発生したイベントのマーカー。コマンドが再試行された場合は 1、その他の場合は 0。 |
|
Key |
バイトアレイ |
削除されたキー。 |
16.5.8. Hot Rod の Custom イベント リンクのコピーリンクがクリップボードにコピーされました!
Custom イベントには以下が含まれます。
| フィールド名 | Size | Value |
|---|---|---|
|
Header |
変数 |
イベント固有の操作コードが含まれるイベントヘッダー |
|
Listener ID |
バイトアレイ |
このイベントが転送されるリスナー。 |
|
Custom Marker |
バイト |
カスタムイベントマーカー。ユーザーに返す前にイベントデータをアンマーシャルする必要があるカスタムイベントの場合、値は 1 になります。エベントデータをそのままユーザーに返す必要があるカスタムイベントの場合、値は 2 になります。 |
|
Event Data |
バイトアレイ |
カスタムイベントデータ。カスタムマーカーが 1 の場合、バイトはコンバーターによって返されたインスタンスのマーシャルされたバージョンを表します。カスタムマーカーが 2 の場合、コンバーターによって返されたバイトアレイを表します。 |
16.6. Put 要求の例 リンクのコピーリンクがクリップボードにコピーされました!
以下は、Hot Rod を使用した put 要求例からのコーディングされた要求です。
| バイト | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
|---|---|---|---|---|---|---|---|---|
|
8 |
0xA0 |
0x09 |
0x41 |
0x01 |
0x07 |
0x4D ('M') |
0x79 ('y') |
0x43 ('C') |
|
16 |
0x61 ('a') |
0x63 ('c') |
0x68 ('h') |
0x65 ('e') |
0x00 |
0x03 |
0x00 |
0x00 |
|
24 |
0x00 |
0x05 |
0x48 ('H') |
0x65 ('e') |
0x6C ('l') |
0x6C ('l') |
0x6F ('o') |
0x00 |
|
32 |
0x00 |
0x05 |
0x57 ('W') |
0x6F ('o') |
0x72 ('r') |
0x6C ('l') |
0x64 ('d') |
- |
以下の表には、要求の例に対するすべてのヘッダーフィールドと値が含まれます。
| フィールド名 | バイト | Value |
|---|---|---|
|
Magic |
0 |
0xA0 |
|
Version |
2 |
0x41 |
|
Cache Name Length |
4 |
0x07 |
|
Flag |
12 |
0x00 |
|
Topology ID |
14 |
0x00 |
|
Transaction ID |
16 |
0x00 |
|
Key |
18-22 |
'Hello' |
|
Max Idle |
24 |
0x00 |
|
Value |
26-30 |
'World' |
|
Message ID |
1 |
0x09 |
|
Opcode |
3 |
0x01 |
|
Cache Name |
5-11 |
'MyCache' |
|
Client Intelligence |
13 |
0x03 |
|
Transaction Type |
15 |
0x00 |
|
Key Field Length |
17 |
0x05 |
|
Lifespan |
23 |
0x00 |
|
Value Field Length |
25 |
0x05 |
以下は、put 要求の例に対するコーディングされた応答です。
| バイト | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
|---|---|---|---|---|---|---|---|---|
|
8 |
0xA1 |
0x09 |
0x01 |
0x00 |
0x00 |
- |
- |
- |
以下の表には、応答の例のヘッダーフィールドと値がすべて含まれます。
| フィールド名 | バイト | Value |
|---|---|---|
|
Magic |
0 |
0xA1 |
|
Opcode |
2 |
0x01 |
|
Topology Change Marker |
4 |
0x00 |
|
Message ID |
1 |
0x09 |
|
Status |
3 |
0x00 |
16.7. Hot Rod Java クライアント リンクのコピーリンクがクリップボードにコピーされました!
16.7.1. Hot Rod Java クライアント リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod はバイナリーの言語非依存プロトコルです。Java クライアントは、Hot Rod Java Client API を使用して Hot Rod プロトコルを介してサーバーと対話できます。
16.7.2. Hot Rod Java クライアントのダウンロード リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid Hot Rod Java クライアントをダウンロードするには、次の手順に従ってください。
手順: Hot Rod Java クライアントのダウンロード
- https://access.redhat.com のカスタマーポータルにログインします。
- ページの上部にある ダウンロード ボタンをクリックします。
- 製品のダウンロード ページで Red Hat JBoss Data Grid をクリックします。
- Version: ドロップダウンメニューで適切な JBoss Data Grid のバージョンを選択します。
- Red Hat JBoss Data Grid 7.2 Hot Rod Java Client エントリーを見つけ、その Download リンクをクリックします。
16.7.3. Hot Rod Java クライアントの設定 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod Java クライアントは、プログラムを使用したり、設定ファイルまたはプロパティーファイルを外部的に使用したりして設定されます。次の例は、利用可能な Java 対応 API を使用したクライアントインスタンスの作成を示しています。
クライアントインスタンスの作成
プロパティーファイルを使用した Hot Rod Java クライアントの設定
Hot Rod Java クライアントを設定するには、クラスパス上の hotrod-client.properties ファイルを編集します。
次の例は、hotrod-client.properties ファイルの内容を示しています。
設定
TCPKEEPALIVE 設定は、 例で示された設定プロパティー (infinispan.client.hotrod.tcp_keep_alive = true/false) または org.infinispan.client.hotrod.ConfigurationBuilder.tcpKeepAlive() メソッドを使用したプログラムによって Hot Rod Java クライアントで有効または無効になります。
Red Hat JBoss Data Grid でプロパティーファイルを使用するには、次の 2 つのコンストラクターのいずれかを使用する必要があります。
-
new RemoteCacheManager(boolean start) -
new RemoteCacheManager()
16.7.4. Hot Rod Java クライアントベーシック API リンクのコピーリンクがクリップボードにコピーされました!
以下のコードは、クライアント API を使用して Hot Rod Java クライアントで Hot Rod サーバーから情報を保存または取得する方法を示しています。この例では、Hot Rod サーバーがデフォルトの場所 localhost:11222にバインドするよう起動されていることを前提とします。
ベーシック API
RemoteCacheManager は DefaultCacheManager に対応し、両方が BasicCacheContainer を実装します。
この API は、Hot Rod を介したローカルコールからリモートコールへの移行を実現します。これは、DefaultCacheManager と RemoteCacheManager を切り替えることによって行うことができ、共通の BasicCacheContainer インターフェースによって単純化されます。
すべてのキーは、keySet() メソッドを使用してリモートキャッシュから取得できます。リモートキャッシュが分散キャッシュである場合は、サーバーにより Map/Reduce ジョブが開始され、クラスター化されたノードからすべてのキーが取得され、すべてのキーがクライアントに返されます。
キーの数が多い場合は、このメソッドを注意して使用してください。
Set keys = remoteCache.keySet();
Set keys = remoteCache.keySet();
16.7.5. Hot Rod Java クライアントバージョン API リンクのコピーリンクがクリップボードにコピーされました!
データの整合性を確保するために、Hot Rod は各変更を一意に識別するバージョン番号を保存します。getVersioned を使用して、クライアントはキーと現在のバージョンに関連付けられた値を取得できます。
Hot Rod Java クライアントを使用する場合、RemoteCacheManager は、リモートクラスター上の名前付きキャッシュまたはデフォルトのキャッシュにアクセスする RemoteCache インターフェースのインスタンスを提供します。これにより、バージョン API を含む、新しいメソッドを追加する Cache インターフェースが拡張されます。
バージョンメソッドの使用
置換の使用
remoteCache.put("car", "ferrari");
VersionedValue valueBinary = remoteCache.getWithMetadata("car");
assert remoteCache.replaceWithVersion("car", "lamborghini", valueBinary.getVersion());
remoteCache.put("car", "ferrari");
VersionedValue valueBinary = remoteCache.getWithMetadata("car");
assert remoteCache.replaceWithVersion("car", "lamborghini", valueBinary.getVersion());
16.7.6. Hot Rod Java クライアントでのクラスター全体の動的キャッシュ作成 リンクのコピーリンクがクリップボードにコピーされました!
クライアントからキャッシュを動的に作成する必要がある場合は、次のように createCache() メソッドを使用します。
BasicCache<String, String> cache = client(0).administration().createCache("newCacheName", "newTemplate");
BasicCache<String, String> cache = client(0).administration().createCache("newCacheName", "newTemplate");
このように作成されたキャッシュはクラスターのすべてのノードで利用可能になりますが、それは一時的です。クラスター全体をシャットダウンし、再起動しても、キャッシュは自動的に再作成されません。キャッシュを永続化するには、PERMANENT フラグを以下のように使用します。
BasicCache<String, String> cache = client(0).administration().withFlags(AdminFlag.PERMANENT).createCache("newCacheName", "newTemplate");
BasicCache<String, String> cache = client(0).administration().withFlags(AdminFlag.PERMANENT).createCache("newCacheName", "newTemplate");
上記は、グローバル状態を有効にし、適切な設定ストレージを選択しないと動作しません。選択可能な設定ストレージは以下のとおりです。
-
VOLATILE: 名前が意味するとおり、この設定ストレージはPERMANENTキャッシュをサポートしません。 -
OVERLAY: caches.xml という名前のファイルのグローバルな共有状態永続パスに設定を保存します。 -
MANAGED: サーバーデプロイメントでのみサポートされ、PERMANENTキャッシュをサーバーモデルに保存します。 -
CUSTOM: カスタムの設定ストア。
16.8. Hot Rod C++ クライアント リンクのコピーリンクがクリップボードにコピーされました!
16.8.1. Hot Rod C++ クライアント リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C++ クライアントを使用すると、C++ ランタイムアプリケーションによる Red Hat JBoss Data Grid リモートサーバーへの接続や対話が可能になり、リモートキャッシュへデータを読み書きできます。Hot Rod C ++ クライアントは 3 つのレベルすべてでクライアントインテリジェンスをサポートし、以下のプラットフォームでサポートされます。
- Red Hat Enterprise Linux 6、64 ビット
Red Hat Enterprise Linux 7、64 ビット
Hot Rod C++ クライアントは、Visual Studio 2015 がインストールされた 64 ビット Windows ではテクノロジープレビューとして利用できます。
Hot Rod C++ クライアントは、Visual Studio 2015 がインストールされた 64 ビット Windows ではテクノロジープレビューとして利用できます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
16.8.2. Hot Rod C++ クライアント形式 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C++ クライアントは、以下の 2 つのライブラリー形式で利用可能です。
- 静的ライブラリー
- 共有/動的ライブラリー
静的ライブラリー
静的ライブラリーはアプリケーションに静的にリンクされます。これにより、最終的な実行可能ファイルのサイズは増加します。アプリケーションは自己完結型であり、別のライブラリーを提供する必要はありません。
共有/動的ライブラリー
共有/動的ライブラリーは、実行時にアプリケーションに動的にリンクされます。ライブラリーは別のファイルに格納され、アプリケーションを再コンパイルせずアプリケーションとは別にアップグレードできます。
これは、ライブラリーのメジャーバージョンがコンパイル時にアプリケーションがリンクされたものと同じである (バイナリー互換性がある) 場合にのみ可能です。
16.8.3. Hot Rod C++ クライアントの前提条件 リンクのコピーリンクがクリップボードにコピーされました!
以下の表は、基盤の OS に応じた Hot Rod C++ クライアントの使用要件の詳細を示しています。
| オペレーティングシステム | Hot Rod C++ クライアントの前提条件 |
|---|---|
|
RHEL 6、64 ビット |
shared_ptr TR1 (GCC 4.0+) をサポートする C++ 03 コンパイラー |
|
RHEL 7、64 ビット |
C++ 11 コンパイラー (GCC 4.8.1) |
|
Windows 7 x64 |
C 11 コンパイラー(Visual Studio 2015、x64 プラットフォーム用 Microsoft Visual C 2013 再頒布可能パッケージ) |
16.8.4. Hot Rod C++ クライアントのインストール リンクのコピーリンクがクリップボードにコピーされました!
16.8.4.1. Hot Rod C++ クライアントのダウンロードおよびインストール リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C++ クライアントは、クライアントが使用されるオペレーティングシステムを基に 2 つのファイルタイプで配布されます。
- RPM ディストリビューションによる RHEL サーバーのインストール
- zip による Windows サーバーのインストール
16.8.4.2. RHEL における Hot Rod C++ クライアントのダウンロードおよびインストール リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがってクライアントをインストールします。
- Red Hat Subscription Manager を使用して Red Hat Enterprise Linux (RHEL) システムがアカウントに登録されている必要があります。詳細は Red Hat Subscription Management のドキュメント を参照してください。
Red Hat Subscription Manager を使用して、RHEL のバージョンに応じて適切なリポジトリーを有効にします。
Expand 表16.77 RHSM リポジトリー RHEL バージョン リポジトリー名 RHEL 6
jb-datagrid-7.2-for-rhel-6-server-rpms
RHEL 7
jb-datagrid-7.2-for-rhel-7-server-rpms
たとえば、RHEL 7 リポジトリーを有効にするには、以下のコマンドを使用できます。
subscription-manager repos --enable=jb-datagrid-7.2-for-rhel-7-server-rpms
subscription-manager repos --enable=jb-datagrid-7.2-for-rhel-7-server-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow RHEL 7 では、
rhel-7-server-optional-rpmsリポジトリーも有効にする必要があります。このリポジトリーは必要なprotobuf-develおよびprotobuf-staticRPM を提供します。subscription-manager repos --enable=rhel-7-server-optional-rpms
subscription-manager repos --enable=rhel-7-server-optional-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 適切なリポジトリーが追加されたら、以下を実行して C++ クライアント RPM をインストールできます。
yum install jdg-cpp-client
yum install jdg-cpp-clientCopy to Clipboard Copied! Toggle word wrap Toggle overflow
16.8.4.3. Windows における Hot Rod C++ クライアントのダウンロードおよびインストール リンクのコピーリンクがクリップボードにコピーされました!
Windows の Hot Rod C++ は、Red Hat カスタマーポータル (https://access.redhat.com) の Red Hat JBoss Data Grid バイナリーにある jboss-datagrid-<version>-hotrod-cpp-WIN-x86_64.zip という個別の zip ファイルに含まれています。
この zip ファイルをダウンロードした後、システム上の任意の場所に展開すると C++ クライアントをインストールできます。
16.8.5. Hot Rod C++ クライアントでの Protobuf コンパイラーの使用 リンクのコピーリンクがクリップボードにコピーされました!
16.8.5.1. RHEL 7 における Protobuf コンパイラーの使用 リンクのコピーリンクがクリップボードにコピーされました!
RHEL 7 の C++ Hot Rod クライアントチャンネルには Protobuf コンパイラーが含まれています。このコンパイラーを使用するには、以下の手順にしたがいます。
- 「RHEL における Hot Rod C++ クライアントのダウンロードおよびインストール」の説明どおりに、C++ チャンネルが RHEL システムに追加されている必要があります。
protobufrpm をインストールします。yum install protobuf
yum install protobufCopy to Clipboard Copied! Toggle word wrap Toggle overflow 含まれている protobuf ライブラリーをライブラリーのパスに追加します。これらのライブラリーはデフォルトでは
/opt/lib64に含まれています。export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/lib64
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/lib64Copy to Clipboard Copied! Toggle word wrap Toggle overflow 必要な protobuf ファイルを C++ ヘッダーおよびソースファイルにコンパイルします。
/bin/protoc --cpp_out dllexport_decl=HR_PROTO_EXPORT:/path/to/output/ $FILE
/bin/protoc --cpp_out dllexport_decl=HR_PROTO_EXPORT:/path/to/output/ $FILECopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記HR_PROTO_EXOPRTは Hot Rod クライアントコード内でマクロ定義され、ファイルが続いてコンパイルされたときに拡張されます。- 結果となるヘッダーとソースファイルは指定の出力ディレクトリーに生成され、特定のアプリケーションコードで通常どおりに参照およびコンパイルされます。
Protobuf の詳細は「Protobuf エンコーディング」を参照してください。
16.8.5.2. Windows における Protobuf コンパイラーの使用 リンクのコピーリンクがクリップボードにコピーされました!
Windows 用の C++ Hot Rod クライアントには、事前コンパイルされた Hot Rod コンポーネントと Protobuf コンパイラーが含まれます。多くの場合で、含まれるコンポーネントは追加のコンパイルなしで使用されますが、.proto ファイルにコンパイルが必要な場合は以下の手順にしたがいます。
- jboss-datagrid-<version>-hotrod-cpp-client-WIN-x86_64.zip をローカルのファイルシステムに展開します。
- コマンドプロンプトを開き、展開されたディレクトリーに移動します。
必要な protobuf ファイルを C++ ヘッダーおよびソースファイルにコンパイルします。
bin\protoc --cpp_out dllexport_decl=HR_PROTO_EXPORT:path\to\output\ $FILE
bin\protoc --cpp_out dllexport_decl=HR_PROTO_EXPORT:path\to\output\ $FILECopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記HR_PROTO_EXOPRTは Hot Rod クライアントコード内でマクロ定義され、ファイルが続いてコンパイルされたときに拡張されます。- 結果となるヘッダーとソースファイルは指定の出力ディレクトリーに生成され、特定のアプリケーションコードで通常どおりに参照およびコンパイルされます。
Protobuf の詳細は「Protobuf エンコーディング」を参照してください。
16.8.6. Hot Rod C++ クライアントの設定 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C++ クライアントは RemoteCache API を使用してリモートの Hot Rod サーバーと対話します。特定の Hot Rod サーバーとの通信を開始するために、RemoteCache を設定し、Hot Rod サーバーの特定のキャッシュを選択します。
ConfigurationBuilder API を使用して以下を設定します。
- 最初に接続するサーバーのセット。
- 接続プール属性。
- 接続/ソケットタイムアウトおよび TCP nodelay。
- Hot Rod プロトコルバージョン。
C++ の主な実行可能ファイルの設定例
以下の例は、ConfigurationBuilder を使用して RemoteCacheManager を設定する方法とデフォルトのリモートキャッシュを取得する方法を示しています。
SimpleMain.cpp
16.8.7. Hot Rod C++ クライアント API リンクのコピーリンクがクリップボードにコピーされました!
RemoteCacheManager は、RemoteCache への参照を取得する開始点です。RemoteCache API は、リモート Hot Rod サーバーとサーバー上の特定のキャッシュと対話できます。
前の例で取得した RemoteCache 参照を使用すると、リモートキャッシュで値を挿入、取得、置換、および削除できます。また、すべてのキーの取得やキャッシュのクリアなどの一括操作を実行することもできます。
RemoteCacheManager が停止されると、使用中のすべてのリソースが解放されます。
SimpleMain.cpp
16.8.8. Hot Rod C++ クライアント非同期 API リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C++ クライアントは多くの同期メソッドの非同期のバージョンを提供し、リモートキャッシュと対話するための非ブロッキングメソッドを実現します。
非同期メソッドは同期メソッドと同じ命名規則にしたがいますが、各メソッドの末尾に Async が追加されます。非同期メソッドは操作の結果が含まれる std::future を返します。メソッドが std::string を返す場合は、代わりに std::future < std::string* > を返します。
以下に非同期メソッドのリストを示します。
-
clearAsync -
getAsync -
putAsync -
putAllAsync -
putIfAbsentAsync -
removeAsync -
removeWithVersionAsync -
replaceAsync -
replaceWithVersionAsync
Hot Rod C++ 非同期 API の例
以下の例ではこれらのメソッドが使用されます。
16.8.9. Hot Rod C++ クライアントのリモートイベントリスナー リンクのコピーリンクがクリップボードにコピーされました!
The Hot Rod C++ クライアントはリモートキャッシュリスナーをサポートします。これらのリスナーを追加するには ClientCacheListener で add_listener 関数を使用します。
リモートイベントリスナーは、Red Hat JBoss Data Grid 7.2 の Hot Rod C++ クライアントではテクノロジープレビューの機能となります。
この関数は各イベントタイプ (create、modify、remove、expire、または custom) のリスナーを取ります。リモートイベントリスナーの詳細は「リモートイベントリスナー (Hot Rod)」を参照してください。例を以下に示します。
16.8.10. サイトと動作する Hot Rod C++ クライアント リンクのコピーリンクがクリップボードにコピーされました!
複数の Red Hat JBoss Data Grid サーバークラスターをデプロイし、各クラスターが異なるサイトに属するようにすることができます。このようなデプロイメントは、あるクラスターから別のクラスター (地理的に異なる場所にある可能性がある) にデータをバックアップできるようにするために行われます。C++ クライアント実装はクラスター内のノードの間でフェイルオーバーでき、元のクラスターが応答しなくなった場合は全体を他のクラスターにフェイルオーバーできます。クラスター間でのフェイルオーバーを可能にするには、すべての Red Hat JBoss Data Grid サーバーがクロスデータセンターレプリケーションで設定されている必要があります。この手順は、Red Hat JBoss Data Grid の『Administration and Configuration Guide』を参照してください。
フェイルオーバーが発生した場合、クライアントの代替クラスターへの接続は、例外が発生して代替クラスターが利用できなくなるまで維持されます。元のクラスターが操作可能になっても、クライアントは接続を自動的に切り替えません。元のクラスターに接続を切り替える場合は、以下の switchToDefaultCluster() メソッドを使用します。
クロスデータセンターレプリケーションがサーバー上で設定されたら、クライアントは代替クラスターの設定を提供し、設定した各クラスターに対して 1 つ以上のホスト/ポートペアの詳細情報を指定する必要があります。以下に例を示します。
16.8.10.1. 手動クラスター切り替え リンクのコピーリンクがクリップボードにコピーされました!
自動サイトフェイルオーバーの他にも、C++ クライアントは以下のメソッドのいずれかを呼び出してクラスターの切り替えを行うことができます。
-
switchToCluster(clusterName)- クライアントを事前定義されたクラスター名に強制的に切り替えます。 -
switchToDefaultCluster- クライアントをクライアント設定で定義された最初のサーバーに強制的に切り替えます。
16.8.11. Hot Rod C++ クライアントを用いたリモートクエリーの実行 リンクのコピーリンクがクリップボードにコピーされました!
Protobuf マーシャラーで RemoteCacheManager が設定された後、Hot Rod C++ クライアントでは Google の Protocol Buffers を使用してリモートクエリーを実行できます。
リモートクエリーの実行は、Red Hat JBoss Data Grid 7.2 の Hot Rod C++ クライアントではテクノロジープレビューの機能となります。
Hot Rod C++ クライアントでのリモートクエリーの有効化
リモートの Red Hat JBoss Data Grid サーバーへの接続を取得します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Protobuf マーシャラーで Protobuf メタデータキャッシュを作成します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow データモデルを Protobuf メタデータキャッシュにインストールします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow このステップは、この実証の目的でデータをキャッシュに追加します。リモートキャッシュを単にクエリーする場合、これは無視されることがあります。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow リモートキャッシュをクエリーします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
その他のクエリー例
以下の例は、より複雑なクエリーを示すために含まれています。上記の手順の同じデータセットで使用することができます。
条件を用いたクエリーの使用
射影を用いたクエリーの使用
16.8.12. Hot Rod C++ クライアントでのニアキャッシュの使用 リンクのコピーリンクがクリップボードにコピーされました!
ニアキャッシュは Hot Rod C++ クライアントの任意のキャッシュで、ユーザーの近くに最近アクセスされたデータを保持することで、頻繁に使用されるデータへのアクセスをより迅速にします。このキャッシュは、バックグラウンドでリモートサーバーに同期されたローカルの Hot Rod クライアントキャッシュとして動作します。
ニアキャッシュをプログラムを使用して ConfigurationBuilder で有効にするには、以下の例のように nearCache() メソッドを使用します。
ニアキャッシュの動作の設定には、以下のメソッドが使用されます。
-
nearCache()- さらに変更を追加できるNearCacheConfigurationBuilderを定義します。 -
mode(NearCacheMode mode)-NearCacheModeを渡す必要があります。デフォルトはDISABLEDで、ニアキャッシュはすべて無効になります。 -
maxEntries(int maxEntries)- ニヤキャッシュに含まれるエントリーの最大数を示します。ニアキャッシュが満杯になると、最も古いエントリーがエビクトされます。この値を0に設定すると、バインドされないニアキャッシュが定義されます。
ニアキャッシュのエントリーは、イベントを介してリモートキャッシュとのアライメントを維持します。サーバーで変更が発生すると、適切なイベントがクライアントへ送信され、ニアキャッシュを更新します。
16.8.13. Hot Rod C++ クライアントを使用したスクリプトの実行 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C++ クライアントを使用すると、リモート実行を介してタスクを直接 JBoss Data Grid サーバーで実行できます。この機能はデータに近いロジックを実行し、クラスターのノードすべてのリソースを利用します。タスクはサーバーインスタンスにデプロイでき、デプロイ後にプログラムを使用して実行できます。
リモート実行は、Red Hat JBoss Data Grid 7.2 の Hot Rod C++ クライアントではテクノロジープレビューの機能となります。
タスクのインストール
___script_cache の put(std::string name, std::string script) メソッドが使用されると、タスクはサーバーにインストールされます。スクリプト名の拡張はスクリプトの実行に使用されるエンジンを判断しますが、これはスクリプト自体のメタデータによって上書きされます。
以下の例はスクリプトをインストールします。
C++ クライアントでのタスクのインストール
タスクの実行
インストール後、タスクは execute(std::string name, std::map<std::string, std::string> args) メソッドを使用して実行されます。このメソッドには、実行するスクリプトの名前と実行に必要な引数を指定します。
以下の例はスクリプトを実行します。
C++ クライアントでのスクリプトの実行
16.9. Hot Rod C# クライアント リンクのコピーリンクがクリップボードにコピーされました!
16.9.1. Hot Rod C# クライアント リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C# クライアントでは、.NET ランタイムアプリケーションは Red Hat JBoss Data Grid サーバーへ接続し、対話できます。Hot Rod C# クライアントは、クラスタートポロジーとハッシュスキームを認識し、Hot Rod Java クライアントと Hot Rod C++ クライアントに類似した単一のホップでサーバー上のエントリーにアクセスできます。
Hot Rod C# クライアントは、.NET Framework が Microsoft Visual Studio 2015 によりサポートされる 64 ビットのオペレーティングシステムと互換性があります。NET 4.6.2 は Hot Rod C# クライアントに必須です。
16.9.2. Hot Rod C# クライアントのダウンロードとインストール リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C# クライアントは、Red Hat JBoss Data Grid でダウンロード用にパッケージされた .msi ファイル jboss-datagrid-<version>-hotrod-dotnet-client.msi に含まれます。Hot Rod C# クライアントをインストールするには、以下の手順を実行してください。
Hot Rod C# クライアントのインストール
管理者として、Hot Rod C# .msi ファイルがダウンロードされた場所に移動します。.msi ファイルを実行してウィンドウインストーラーを起動し、Next をクリックします。
図16.1 Hot Rod C# クライアントのセットアップの開始
使用許諾契約書の内容を確認します。I accept the terms in the License Agreement (使用許諾契約に同意します) チェックボックスを選択し、Next をクリックします。
図16.2 Hot Rod C# クライアントの使用許諾契約
デフォルトのディレクトリーを変更するには、Change… または Next をクリックしてデフォルトのディレクトリーをインストールします。
図16.3 Hot Rod C# クライアントの宛先フォルダー
Install をクリックして、Hot Rod C# クライアントのインストールを開始します。
図16.4 Hot Rod C# クライアントのインストールを開始
Finish をクリックして Hot Rod C# クライアントのインストールを完了します。
図16.5 Hot Rod C# クライアントのセットアップの完了
16.9.3. Hot Rod C# .NET プロジェクトの作成 リンクのコピーリンクがクリップボードにコピーされました!
.NET プロジェクトで Hot Rod C# クライアントを使用するには、以下の手順を実行する必要があります。
Hot Rod C# プロジェクトの設定
Path 環境変数の追加
PATH 環境変数に以下のフォルダーを追加する必要があります。
C:\path\to\infinispan-hotrod-dotnet 8.5.0.Final\bin C:\path\to\infinispan-hotrod-dotnet 8.5.0.Final\lib
C:\path\to\infinispan-hotrod-dotnet 8.5.0.Final\bin C:\path\to\infinispan-hotrod-dotnet 8.5.0.Final\libCopy to Clipboard Copied! Toggle word wrap Toggle overflow Prefer 32 bit の削除
Build タブの Project プロパティーにある Prefer 32 bit にチェックマークが入っていないようにしてください。
Hot Rod C# dll の追加
- Solution Explorer ビューで Project を選択します。
- References を選択します。
- 参照を右クリックし、Add Reference を選択します。
- 表示されたウインドウで Browse をクリックし、 C:\path\to\infinispan-hotrod-dotnet 8.5.0.Final\lib\hotrodcs.dll ファイルに移動します。
- OK をクリックします。
Hot Rod C# API が .NET プロジェクトで使用できるようになりました。
16.9.4. Hot Rod C# クライアントの設定 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C# クライアントは ConfigurationBuilder を使用してプログラミングにより設定されます。クライアントが接続する必要があるホストとポートを設定します。
C# ファイルの設定例
以下の例は、ConfigurationBuilder を使用して RemoteCacheManager を設定する方法を示しています。
C# の設定
16.9.5. Hot Rod C# クライアント API リンクのコピーリンクがクリップボードにコピーされました!
RemoteCacheManagerは、RemoteCache への参照を取得する開始点です。
以下の例は、サーバーからのデフォルトキャッシュの取得と基本的な複数の操作を示しています。
16.9.6. Hot Rod C# クライアント非同期 API リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C# クライアントは多くの同期メソッドの非同期のバージョンを提供し、リモートキャッシュと対話するための非ブロッキングメソッドを実現します。
非同期メソッドは同期メソッドと同じ命名規則にしたがいますが、各メソッドの末尾に Async が追加されます。非同期メソッドは操作の結果が含まれる Task を返します。メソッドが String を返す場合は、代わりに Task<String> を返します。
以下に非同期メソッドのリストを示します。
-
ClearAsync -
GetAsync -
PutAsync -
PutAllAsync -
PutIfAbsentAsync -
RemoveAsync -
RemoveWithVersionAsync -
ReplaceAsync -
ReplaceWithVersionAsync
Hot Rod C# 非同期 API の例
以下の例ではこれらのメソッドが使用されます。
16.9.7. Hot Rod C# クライアントのリモートイベントリスナー リンクのコピーリンクがクリップボードにコピーされました!
The Hot Rod C++ クライアントはリモートキャッシュリスナーをサポートします。これらのリスナーを追加するには ClientListener で addListener 関数を使用します。
リモートイベントリスナーは、Red Hat JBoss Data Grid 7.2 の Hot Rod C++ クライアントではテクノロジープレビューの機能となります。
このメソッドは各イベントタイプ (create、modify、remove、expire、または custom) のリスナーを取ります。リモートイベントリスナーの詳細は「リモートイベントリスナー (Hot Rod)」を参照してください。modifiedEvent の例は次のとおりです。
16.9.8. サイトと動作する Hot Rod C# クライアント リンクのコピーリンクがクリップボードにコピーされました!
複数の Red Hat JBoss Data Grid サーバークラスターをデプロイし、各クラスターが異なるサイトに属するようにすることができます。このようなデプロイメントは、あるクラスターから別のクラスター (地理的に異なる場所にある可能性がある) にデータをバックアップできるようにするために行われます。C# クライアント実装はクラスター内のノードの間でフェイルオーバーでき、元のクラスターが応答しなくなった場合は全体を他のクラスターにフェイルオーバーできます。クラスター間でのフェイルオーバーを可能にするには、すべての Red Hat JBoss Data Grid サーバーがクロスデータセンターレプリケーションで設定されている必要があります。この手順は、Red Hat JBoss Data Grid 『Administration and Configuration Guide』を参照してください。
フェイルオーバーが発生した場合、クライアントの代替クラスターへの接続は、例外が発生して代替クラスターが利用できなくなるまで維持されます。元のクラスターが操作可能になっても、クライアントは接続を自動的に切り替えません。元のクラスターに接続を切り替える場合は、以下の SwitchToDefaultCluster() メソッドを使用します。
クロスデータセンターレプリケーションがサーバー上で設定されたら、クライアントは代替クラスターの設定を提供し、設定した各クラスターに対して 1 つ以上のホスト/ポートペアの詳細情報を指定する必要があります。以下に例を示します。
16.9.8.1. 手動クラスター切り替え リンクのコピーリンクがクリップボードにコピーされました!
自動サイトフェイルオーバーの他にも、C++ クライアントは以下のメソッドのいずれかを呼び出してクラスターの切り替えを行うことができます。
-
SwitchToCluster(clusterName)- クライアントを事前定義されたクラスター名に強制的に切り替えます。 -
SwitchToDefaultCluster()- クライアントをクライアント設定で定義された最初のサーバーに強制的に切り替えます。
16.9.9. Hot Rod C# クライアントを用いたリモートクエリーの実行 リンクのコピーリンクがクリップボードにコピーされました!
Protobuf マーシャラーで RemoteCacheManager が設定された後、Hot Rod C# クライアントでは Google の Protocol Buffers を使用してリモートクエリーを実行できます。
リモートクエリーの実行は、Red Hat JBoss Data Grid 7.2 の Hot Rod C# クライアントではテクノロジープレビューの機能となります。
Hot Rod C# クライアントでのリモートクエリーの有効化
Protobuf マーシャラーを設定に渡し、リモートの Red Hat JBoss Data Grid サーバーへの接続を取得します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Protobuf エンティティーモデルをインストールします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow このステップは、この実証の目的でデータをキャッシュに追加します。リモートキャッシュを単にクエリーする場合、これは無視されることがあります。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow リモートキャッシュをクエリーします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 結果を処理するには、protobuf を C# オブジェクトに変換します。以下の例はこの変換を示しています。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
16.9.10. Hot Rod C# クライアントでのニアキャッシュの使用 リンクのコピーリンクがクリップボードにコピーされました!
ニアキャッシュは Hot Rod C# クライアントの任意のキャッシュで、ユーザーの近くに最近アクセスされたデータを保持することで、頻繁に使用されるデータへのアクセスをより迅速にします。このキャッシュは、バックグラウンドでリモートサーバーに同期されたローカルの Hot Rod クライアントキャッシュとして動作します。
ニアキャッシュをプログラムを使用して ConfigurationBuilder で有効にするには、以下の例のように NearCache() メソッドを使用します。
ConfigurationBuilder conf = new ConfigurationBuilder();
conf.AddServer().Host("127.0.0.1").Port(11222)
// Define a Near Cache that contains up to 10 entries
.NearCache().Mode(NearCacheMode.INVALIDATED).MaxEntries(10);
ConfigurationBuilder conf = new ConfigurationBuilder();
conf.AddServer().Host("127.0.0.1").Port(11222)
// Define a Near Cache that contains up to 10 entries
.NearCache().Mode(NearCacheMode.INVALIDATED).MaxEntries(10);
ニアキャッシュの動作の設定には、以下のメソッドが使用されます。
-
NearCache()- さらに変更を追加できるNearCacheConfigurationBuilderを定義します。 -
Mode(NearCacheMode mode)-NearCacheModeを渡す必要があります。デフォルトはDISABLEDで、ニアキャッシュはすべて無効になります。 -
MaxEntries(int maxEntries)- ニヤキャッシュに含まれるエントリーの最大数を示します。ニアキャッシュが満杯になると、最も古いエントリーがエビクトされます。この値を0に設定すると、バインドされないニアキャッシュが定義されます。
ニアキャッシュのエントリーは、イベントを介してリモートキャッシュとのアライメントを維持します。サーバーで変更が発生すると、適切なイベントがクライアントへ送信され、ニアキャッシュを更新します。
16.9.11. Hot Rod C# クライアントを使用したスクリプトの実行 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C# クライアントを使用すると、リモート実行を介してタスクを直接 Red Hat JBoss Data Grid サーバーで実行できます。この機能はデータに近いロジックを実行し、クラスターのノードすべてのリソースを利用します。タスクはサーバーインスタンスにデプロイでき、デプロイ後にプログラムを使用して実行できます。
タスクのインストール
___script_cache の Put(string name, string script) メソッドが使用されると、タスクはサーバーにインストールされます。スクリプト名の拡張はスクリプトの実行に使用されるエンジンを判断しますが、これはスクリプト自体のメタデータによって上書きされます。
以下の例はスクリプトをインストールします。
タスクの実行
インストール後、タスクは Execute(string name, Dictionary<string, string> scriptArgs) メソッドを使用して実行されます。このメソッドには、実行するスクリプトの名前と実行に必要な引数を指定します。
以下の例はスクリプトを実行します。
Hot Rod C# クライアントを使用したスクリプトの実行は、JBoss Data Grid 7.2 ではテクノロジープレビューの機能となります。
16.9.12. 相互運用性を維持するための文字列マーシャラー リンクのコピーリンクがクリップボードにコピーされました!
文字列互換性マーシャラーを使用するには、以下の例のように CompatibilityMarshaller のインスタンスを ConfigurationBuilder オブジェクトの Marshaller() メソッドに渡します。
非文字列キー/値を格納または取得しようとすると、HotRodClientException が発生します。
16.10. Hot Rod Node.js クライアント リンクのコピーリンクがクリップボードにコピーされました!
16.10.1. Hot Rod Node.js クライアント リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod Node.js クライアントは非同期型のイベント駆動クライアントで、Node.js ユーザーは Red Hat JBoss Data Grid サーバーとの通信が可能です。このクライアントは、スクリプトの実行および格納、キャッシュリスナーの利用、完全なクラスタートポロジーの受信など、Java クライアントの多くの機能をサポートします。
非同期操作の結果は Promise インスタンスで提供されるため、クライアントは簡単に複数の呼び出しをチェーンでき、エラーの処理を一元化できます。
16.10.2. Hot Rod Node.js クライアントのインストール リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod Node.js クライアントは別のディストリビューションに含まれているため、Red Hat JBoss Data Grid とは別にダウンロードする必要があります。以下の手順にしたがってこのクライアントをインストールします。
手順: Hot Rod Node.js クライアントのインストール
-
Red Hat カスタマーポータルから
jboss-datagrid-7.2.1-nodejs-client.zipをダウンロードします。 - ダウンロードしたアーカイブを展開します。
以下のコマンドのように、
npmを使用して tarball をインストールします。npm install /path/to/jboss-datagrid-7.2.0-nodejs-client/infinispan-7.2.0-Final-redhat-9.tgz
npm install /path/to/jboss-datagrid-7.2.0-nodejs-client/infinispan-7.2.0-Final-redhat-9.tgzCopy to Clipboard Copied! Toggle word wrap Toggle overflow
16.10.3. Hot Rod Node.js の要件 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod Node.js を使用するには、以下の要件を満たす必要があります。
- Node.js バージョン 0.10 以上。
- Red Hat JBoss Data Grid サーバーインスタンス 7.0.0 以上。
16.10.4. Hot Rod Node.js の基本機能 リンクのコピーリンクがクリップボードにコピーされました!
以下の例は Red Hat JBoss Data Grid サーバーに接続し、データの配置や取得などの基本操作を実行する方法を示しています。以下の例では、Red Hat JBoss Data Grid サーバーがデフォルトの localhost:11222 で利用できることを前提としています。
名前付きキャッシュへの接続
特定のキャッシュに接続するには、以下の例のように Red Hat JBoss Data Grid サーバーインスタンスの場所を指定するときに cacheName 属性を定義します。
データセットの使用
putAll および getAll メソッドを使用すると、単一のエントリーだけでなく、データセットを配置または取得できます。この操作の例を以下に示します。
16.10.5. Hot Rod Node.js の条件付き操作 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod プロトコルは、キーに関連する各値だけでなく、メタデータも格納します。getWithMetadata は値とキーに関連するメタデータを取得します。
以下はメタデータを利用する例になります。
16.10.6. Hot Rod Node.js のデータセット リンクのコピーリンクがクリップボードにコピーされました!
クライアントは接続を定義するときに複数のサーバーアドレスを指定できます。複数のサーバーが定義されると、正常にノードへの接続が確立されるまで各サーバーをループします。この設定の例を以下に示します。
16.10.7. Hot Rod Node.js のリモートイベント リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod Node.js クライアントはリモートキャッシュリスナーをサポートします。これらのリスナーは addListener メソッドを使用して追加できます。このメソッドはイベントタイプ (create、modify、remove、および expiry) と関数コールバックをパラメーターとして取ります。リモートイベントリスナーの詳細は、「リモートイベントリスナー (Hot Rod)」を参照してください。例を以下に示します。
16.10.8. クラスターと動作する Hot Rod Node.js リンクのコピーリンクがクリップボードにコピーされました!
複数の Red Hat JBoss Data Grid サーバーインスタンスをクラスター化してフェイルオーバーおよびスケールアップの機能を提供できます。クラスターとの動作は単一インスタンスを使用した場合と大変似ていますが、以下を考慮する必要があります。
- クライアントは、クラスターの大きさに関わらず、サーバークラスター全体の情報を受け取るために単一のサーバーのアドレスのみを認識する必要があります。
- 分散キャッシュでは、サーバーによって使用される一貫した同じハッシュアルゴリズムを使用してキーベースの操作がクラスターでルーティングされます。そのため、追加のネットワークホップを必要とせずに、クライアントはキーの場所を特定できます。
- 分散キャッシュでは、複数キー操作またはキーなし操作はラウンドロビン形式でルーティングされます。
- レプリケートされたキャッシュおよびインバリデートされたキャッシュでは、キーベース、複数キー、またはキーなしであるかに関わらず、すべての操作はラウンドロビン形式でルーティングされます。
すべてのルーティングとフェイルオーバーはクライアントに透過的であるため、クラスターに対して実行された操作は上記で実行されたコードサンプルと同じように見えます。
以下の例を使用するとクラスタートポロジーを取得できます。
16.10.9. サイトと動作する Hot Rod Node.js リンクのコピーリンクがクリップボードにコピーされました!
複数の Red Hat JBoss Data Grid サーバークラスターをデプロイし、各クラスターが異なるサイトに属するようにすることができます。このようなデプロイメントは、あるクラスターから別のクラスター (地理的に異なる場所にある可能性がある) にデータをバックアップできるようにするために行われます。Node.js クライアント実装はクラスター内のノードの間でフェイルオーバーでき、元のクラスターが応答しなくなった場合は全体を他のクラスターにフェイルオーバーできます。クラスター間でのフェイルオーバーを可能にするには、すべての Red Hat JBoss Data Grid サーバーがクロスデータセンターレプリケーションで設定されている必要があります。この手順は、Red Hat JBoss Data Grid の『Administration and Configuration Guide』を参照してください。
フェイルオーバーが発生した場合、クライアントの代替クラスターへの接続は、例外が発生して代替クラスターが利用できなくなるまで維持されます。利用できなくなると、元のサーバー設定を含む定義された他のクラスターを試行します。
クロスデータセンターレプリケーションがサーバー上で設定されたら、クライアントは代替クラスターの設定を提供し、設定した各クラスターに対して 1 つ以上のホスト/ポートペアの詳細情報を指定する必要があります。以下に例を示します。
16.10.9.1. 手動クラスター切り替え リンクのコピーリンクがクリップボードにコピーされました!
自動サイトフェイルオーバーの他にも、Node.js クライアントは以下のメソッドのいずれかを呼び出してサイトクラスターの手動で切り替えることができます。
-
switchToCluster(clusterName)- クライアントを事前定義されたクラスター名に強制的に切り替えます。 -
switchToDefaultCluster()- クライアントをクライアント設定で定義された最初のサーバーに強制的に切り替えます。
たとえば、手動で NYC クラスターへ切り替える場合は以下を使用できます。
16.11. Hot Rod C++ と Hot Rod Java クライアント間の相互運用性 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は、構造化データにアクセスするために Hot Rod Java と Hot Rod C++ クライアント間の相互運用性を提供します。これは、Google の Protobuf 形式を使用してデータを構造化およびシリアライズすることにより可能になります。
たとえば、言語間の相互運用性を使用すると、Hot Rod C++ クライアントが Protobuf を使用して構造化およびシリアライズされた次の Person オブジェクトを記述し、Hot Rod Java クライアントが Protobuf として構造化された同じ Person オブジェクトを読み取ることができます。
言語間の相互運用性の使用
package sample;
message Person {
required int32 age = 1;
required string name = 2;
}
package sample;
message Person {
required int32 age = 1;
required string name = 2;
}
C++ と Hot Rod Java クライアント間の相互運用性は基本データタイプ、文字列、バイトアレイにおいて完全にサポートされています。Protobuf と Protostream はこれらのタイプの相互運用性のために必要ありません。
16.12. サーバーと Hot Rod クライアントバージョン間の互換性 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod Java、Hot Rod C++、および Hot Rod C# などの Hot Rod クライアントは異なるバージョンの Red Hat JBoss Data Grid サーバーと互換性があります。このサーバーのバージョンは、複数の異なる Hot Rod クライアントと共に実行するために最新バージョンである必要があります。
既知の問題を防ぐために、移行またはアップグレードの場合を除き、同じバージョンの Hot Rod クライアントおよび Red Hat JBoss Data Grid サーバーを使用することをお勧めします。
以下のシナリオを見てみましょう。
シナリオ 1: サーバーが Hot Rod クライアントよりも新しいバージョンで実行される。
以下の影響がクライアント側に及ぶことが考えられます。
- クライアントには、プロトコルの最新改良によるメリットはない。
- クライアントはサーバー側のバージョンで修正されている既知の問題に直面する可能性がある。
- クライアントは現在のバージョンと以前のバージョンで利用可能な機能のみを使用できる。
シナリオ 2: Hot Rod クライアントがサーバーよりも新しいバージョンで実行される。
Hot Rod クライアントが Red Hat JBoss Data Grid サーバーに接続される場合、その接続は例外エラーを出して拒否されます。クライアント側のプロパティー infinispan.client.hotrod.protocol_version を設定するか、ConfigurationBuilder の protocolVersion(String version) を使用すると、クライアントを既知のプロトコルバージョンにダウングレードできます。どちらかの方法でクライアントのバージョンをダウングレードすると、適切なバージョンが含まれる String が渡されるはずです。この場合、クライアントはサーバーに接続できますが、そのバージョンの機能に制限されます。このプロトコルのバージョンでサポートされないコマンドは機能せず、例外が発生します。さらに、この場合のトポロジー情報は効率的でない可能性があります。
クライアントの Hot Rod プロトコルバージョンのダウングレード
以下のコード例は、protocolVersion(String version) メソッドを使用してバージョンをダウングレードする方法を示しています。
Configuration config = new ConfigurationBuilder()
[...]
.protocolVersion("2.2")
.build();
Configuration config = new ConfigurationBuilder()
[...]
.protocolVersion("2.2")
.build();
Red Hat サポートの指示を受けずにこの方法を使用することは推奨されません。
以下の表は、異なる Hot Rod クライアントとサーバーのバージョン間の互換性についての詳細情報です。
| Red Hat JBoss Data Grid サーバーのバージョン | Hot Rod プロトコルのバージョン |
|---|---|
|
Red Hat JBoss Data Grid 7.2.0 |
Hot Rod 2.5 以上 |
|
Red Hat JBoss Data Grid 7.1.0 |
Hot Rod 2.5 以上 |
|
Red Hat JBoss Data Grid 7.0.0 |
Hot Rod 2.5 以上 |
パート II. Red Hat JBoss Data Grid での Infinispan クエリーの作成および使用 リンクのコピーリンクがクリップボードにコピーされました!
第17章 Infinispan クエリーの使用 リンクのコピーリンクがクリップボードにコピーされました!
17.1. はじめに リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のライブラリーモードで Querying API を使用すると、キーではなく値のプロパティーを使用してグリッドでエントリーを検索できます。以下のような機能が提供されます。
- キーワード、範囲、ファジー、ワイルドカード、およびフレーズのクエリー
- クエリーの組み合わせ
- クエリー結果のソート、フィルター、およびページ編集
Apache Lucene および Hibernate Search をベースとしたこの API は Red Hat JBoss Data Grid でサポートされます。さらに、Red Hat JBoss Data Grid はインデックスを使用しない検索とインデックスを使用する検索の両方を許可する代替のメカニズムを提供します。詳細は「Infinispan Query DSL」を参照してください。
クエリーの有効化
リモートクライアントサーバーモードでは、Querying API はデフォルトで有効になっています。ライブラリーモードで有効にする方法は Red Hat JBoss Data Grid の『Administration and Configuration Guide』を参照してください。
17.2. Red Hat JBoss Data Grid のクエリーのインストール リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、クエリーの実行に必要な JAR ファイルは Red Hat JBoss Data Grid のライブラリーモードおよびリモートクライアントサーバーモードのダウンロード内にパッケージ化されています。
Red Hat JBoss Data Grid の ダウンロードおよびインストールに関する詳細は、 『Getting Started Guide』の「Download and Install JBoss Data Grid」の章を参照してください。
さらに、以下の Maven 依存関係を定義する必要があります。
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-embedded-query</artifactId>
<version>${version.infinispan}</version>
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-embedded-query</artifactId>
<version>${version.infinispan}</version>
</dependency>
Infinispan Query API は Hibernate Search と Lucene API を直接公開し、infinispan-embedded-query.jar ファイル内に埋め込むことはできません。他のバージョンの Hibernate Search と Lucene が infinispan-embedded-query と同じデプロイメントに含まれないようにしてください。これらが含まれると、クラスパスの競合が発生する原因となり、予期せぬ動作が実行されます。
17.3. Red Hat JBoss Data Grid でのクエリー リンクのコピーリンクがクリップボードにコピーされました!
17.3.1. Hibernate Search およびクエリーモジュール リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、ユーザーは特定の項目を保存されたデータセット全体でクエリーできます。アプリケーションは常に特定のキーを認識できるわけではありませんが、クエリーモジュールを使用すると値の異なる部分をクエリーできます。
プロパティーの一部を基にしてオブジェクトを検索することができます。例を以下に示します。
- 赤い車をすべて読み出し (メタデータの完全一致)。
- 特定トピックに関するすべての本を検索 (完全テキスト検索および関連度スコア)
データの完全一致は、MapReduce 関数で実装することもできますが、完全テキストおよび関連度ベースのスコアはクエリーモジュールを介してのみ実行できます。
現在、クエリー機能はリッチドメインオブジェクトを対象にしており、プリミティブ値は現在クエリーではサポートされていません。'
17.3.2. Apache Lucene およびクエリーモジュール リンクのコピーリンクがクリップボードにコピーされました!
分散されたグリッドに保存されたデータセット全体でクエリーを実行するため、Red Hat JBoss Data Grid は Apache Lucene のインデックス化ツールと Hibernate Search の機能を利用します。
- Apache Lucene はドキュメントインデックス化ツールおよび検索エンジンです。JBoss Data Grid は Apache Lucene 5.5.1 を使用します。
- JBoss Data Grid のクエリーモジュールは、Hibernate Search をベースとしたツールキットです。Java オブジェクトを、Apache Lucene によってインデックス化およびクエリー可能なドキュメントと似た形式に縮小します。
JBoss Data Grid では、クエリーモジュールは Hibernate Search のインデックス化アノテーションが付けられた値をインデックス化し、Apache Lucene を基にインデックスを更新します。
Hibernate Search は、データに保存されたエントリーの変更を阻止し、対応するインデックス化操作を生成します。
17.4. インデックス化 リンクのコピーリンクがクリップボードにコピーされました!
17.4.1. インデックス化 リンクのコピーリンクがクリップボードにコピーされました!
インデックス化が設定されると、クエリーモジュールは追加、更新、または削除されたキャッシュエントリーを透過的にインデックス化します。インデックスはクエリーのパフォーマンスを向上しますが、更新中は追加のオーバーヘッドが発生します。インデックスを使用しないクエリーに関する詳細は、「Infinispan Query DSL」を参照してください。
グリッドにすでに存在するデータに対しては、最初の Lucene インデックスを作成します。関連するプロパティーとアノテーションが追加された後、「インデックスの再構築」に示された最初のバッチインデックスをトリガーします。
17.4.2. トランザクションおよび非トランザクションキャッシュによるインデックス化 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、トランザクションとインデックス化の関係は次のようになります。
- トランザクションキャッシュである場合、コミット処理の後にリスナーを使用して (コミット後のリスナー) インデックスの更新が適用されます。インデックスの更新に失敗しても書き込みに失敗しません。
- 非トランザクションキャッシュである場合、イベント完了後に動作するリスナー (イベント後のリスナー) を使用してインデックスの更新が適用されます。インデックスの更新に失敗しても書き込みに失敗しません。
17.4.3. プログラムを使用したインデックス化設定 リンクのコピーリンクがクリップボードにコピーされました!
インデックス化は、XML 設定ファイルを使用せずにプログラムを使用して設定できます。
この例では、Red Hat JBoss Data Grid はプログラムによって起動されます。また、グリッドに格納され、クラスにアノテーションを付けずに 2 つのプロパティーを使用して検索可能な Author オブジェクトもマップします。
プログラムを使用したインデックス化設定
17.4.4. インデックスの再構築 リンクのコピーリンクがクリップボードにコピーされました!
Lucene インデックスは、キャッシュ内のデータストアから再構築することによって、必要な場合に再構築できます。
インデックスは以下の場合に再構築する必要があります。
- タイプでインデックス化されている内容の定義が変更されている。
-
Analyserなどのインデックスの定義方法に影響を与えるパラメーターが変更されている。 - インデックスがシステム管理者のエラーにより、破壊または破損している。
インデックスを再構築するには、以下のように MassIndexer への参照を取得し、開始します。
SearchManager searchManager = Search.getSearchManager(cache); searchManager.getMassIndexer().start();
SearchManager searchManager = Search.getSearchManager(cache);
searchManager.getMassIndexer().start();
この操作はグリッド内のすべてのデータを再処理するため、時間がかかる場合があります。
17.5. 検索 リンクのコピーリンクがクリップボードにコピーされました!
検索を実行するには、Lucene クエリーを作成します (「Lucene ベースのクエリー API を使用した Lucene クエリーの構築」を参照)。クエリーを org.infinispan.query.CacheQuery でラップして Lucene ベースの API から必要な機能を取得します。以下のコードはインデックス化されたフィールドに対してクエリーを準備します。このコードを実行すると、Book のリストが返されます。
Infinispan クエリーを使用した検索の作成および実行
第18章 オブジェクトのアノテーション付けおよびクエリー リンクのコピーリンクがクリップボードにコピーされました!
18.1. オブジェクトのアノテーション付けおよびクエリー リンクのコピーリンクがクリップボードにコピーされました!
インデックス化が有効になったら、Red Hat JBoss Data Grid に保存されたカスタムオブジェクトに適切なアノテーションを割り当てる必要があります。
基本的な要件として、インデックス化されるすべてのオブジェクトに以下のアノテーションを付ける必要があります。
-
@Indexed
さらに、検索されるオブジェクト内のすべてのフィールドに @Field アノテーションを付ける必要があります。
@Field アノテーションをオブジェクトに追加
その他のアノテーションおよびオプションについては、「ドメインオブジェクトのインデックス構造へのマッピング」を参照してください。
JBoss EAP モジュールを JBoss Data Grid と使用し、ドメインモデルをモジュールとして使用する場合、スロット 7.2 の org.infinispan.query 依存関係を module.xml ファイルに追加します。org.infinispan.query 依存関係がないと、カスタムアノテーションはクエリーによって取得されず、エラーが発生します。
18.2. アノテーションによるトランスフォーマーの登録 リンクのコピーリンクがクリップボードにコピーされました!
各値のキーもインデックス化する必要があり、キーインスタンスを文字列に変換する必要があります。
Red Hat JBoss Data Grid には共通のプリミティブをエンコードするためにデフォルトのトランスメーションルーティングが一部含まれていますが、カスタムキーを使用するには org.infinispan.query.Transformer の実装を提供する必要があります。
以下の例は、org.infinispan.query.Transformer を使用してキータイプにアノテーションを付ける方法を示しています。
キータイプのアノテーション付け
2 つのメソッドは 1 対 1 の対応関係 (Biunique correspondence) を実装する必要があります。
たとえば、オブジェクト A は以下が true である必要があります。
1 対 1 の対応関係 (Biunique correspondence)
A.equals(transformer.fromString(transformer.toString(A));
A.equals(transformer.fromString(transformer.toString(A));
これは、トランスフォーマーはタイプ A のオブジェクトの適切なトランスフォーマー実装であることを前提とします。
18.3. クエリーの例 リンクのコピーリンクがクリップボードにコピーされました!
以下は、Red Hat JBoss Data Grid でクエリーを設定および実行する方法の例になります。
この例では、Person オブジェクトは以下を使用してアノテーションが付けられています。
Person オブジェクトのアノテーション付け
複数の Person オブジェクトが JBoss Data Grid に保存されていることを前提とした場合、クエリーを使用してこれらのオブジェクトを検索できます。以下のコードは SearchManager および QueryBuilder インスタンスを作成します。
SearchManager および QueryBuilder の作成
The SearchManager および QueryBuilder は Lucene クエリーの構築に使用されます。Lucene クエリーは CacheQuery インスタンスを取得するために SearchManager に渡されます。
クエリーの実行
CacheQuery query = manager.getQuery(luceneQuery);
List<Object> results = query.list();
for (Object result : results) {
System.out.println("Found " + result);
}
CacheQuery query = manager.getQuery(luceneQuery);
List<Object> results = query.list();
for (Object result : results) {
System.out.println("Found " + result);
}
この CacheQuery インスタンスにはクエリーの結果が含まれ、リストの作成やクエリーの繰り返しに使用できます。
第19章 ドメインオブジェクトのインデックス構造へのマッピング リンクのコピーリンクがクリップボードにコピーされました!
19.1. 基本のマッピング リンクのコピーリンクがクリップボードにコピーされました!
19.1.1. 基本のマッピング リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、すべての @Indexed オブジェクトの識別子は値の保存に使用されるキーになります。キーがインデックス化される方法は、@Transformable、@ProvidedId、カスタムタイプ、およびカスタム FieldBridge 実装の組み合わせを使用するとカスタマイズできます。
@DocumentId 識別子は JBoss Data Grid の値には適用されません。
Lucene ベースの Query API は、以下の一般的なアノテーションを使用してエンティティーをマップします。
- @Indexed
- @Field
- @NumericField
19.1.2. @Indexed リンクのコピーリンクがクリップボードにコピーされました!
@Indexed アノテーションはキャッシュされたエントリーをインデックス可能であると宣言します。@Indexed アノテーションが付いてないエントリーはすべて無視されます。
@Indexed でクラスをインデックス可能にする
@Indexed
public class Essay {
}
@Indexed
public class Essay {
}
任意で @Indexed アノテーションの index 属性を指定して、インデックスのデフォルト名を変更することもできます。
19.1.3. @Field リンクのコピーリンクがクリップボードにコピーされました!
エンティティーの各プロパティーまたは属性をインデックス化できます。プロパティーや属性はデフォルトではアノテーションが付けられていないため、インデックス化の処理では無視されます。@Field アノテーションはプロパティーをインデックス化されたプロパティーとして宣言し、以下の属性を 1 つ以上設定するとインデックス化処理の内容を設定できます。
name- この名前でプロパティーが Lucene Document に保存されます。デフォルトでは JavaBeans の慣例に準拠し、この属性はプロパティー名と同じになります。
storeプロパティーが Lucene インデックスに保存されるかどうかを指定します。プロパティーが保存されると、Lucene Document から元の値で読み出すことができます。これは、要素のインデックス化の有無には関係ありません。有効なオプションは次のとおりです。
-
Store.YES: より多くのインデックス領域を消費しますが、射影を許可します。「射影」を参照してください。 -
Store.COMPRESS: プロパティーを圧縮して格納します。この属性は CPU をより消費します。 -
Store.NO: ストレージはありません。これは store 属性のデフォルト設定になります。
-
indexプロパティーがインデックス化されたかどうかを示します。以下の値を適用できます。
-
Index.NO: インデックス化は適用されません。クエリーで見つけることができません。この設定は検索可能である必要がなく、射影可能なプロパティーに使用されます。 -
Index.YES: 要素はインデックス化され検索可能です。これは index 属性のデフォルト設定になります。
-
analyzeプロパティーが分析されるかどうかを判断します。analize 属性は、そのコンテンツでプロパティーを検索できるようにします。たとえば、テキストフィールドを分析する必要があっても日付フィールドは分析する必要がない場合があります。以下を使用して analyze 属性を有効または無効にします。
-
Analyze.YES -
Analyze.NO
-
analyze 属性はデフォルトで有効になっています。Analyze.YES 設定では、Index.YES 属性でプロパティーがインデックス化される必要があります。
以下の属性はソートに使用され、分析してはいけません。
normsインデックス時間のブースティング情報を格納するかどうかを判断します。有効な設定は次のとおりです。
-
Norms.YES -
Norms.NO
-
この属性のデフォルトは Norms.YES です。norms を無効にするとメモリーを節約できますが、インデックス時のブースティング情報は利用できません。
termVector単語 (term) と出現頻度 (frequency) のペアを示します。この属性を使用すると、インデックス化中にドキュメント内で term vector を保存できます。デフォルト値は
TermVector.NOです。この属性に使用できる設定は次のとおりです。-
TermVector.YES: 各ドキュメントに term vector を保存します。これにより、同期された 2 つのアレイが生成されます (1 つのアレイには document term が含まれ、もう 1 つのアレイには term の頻度が含まれます)。 -
TermVector.NO: term vector を保存しません。 -
TermVector.WITH_OFFSETS: term vector およびトークンオフセット情報を保存します。これは、TermVector.YESと同じですが、言葉の開始および終了オフセット位置情報が含まれます。 -
TermVector.WITH_POSITIONS: term vector およびトークン位置情報を保存します。これは、TermVector.YESと同じですが、ドキュメントで言葉が発生する順序位置 (ordinal position) が含まれます。 -
TermVector.WITH_POSITION_OFFSETS: term vector、トークン位置、およびオフセット情報を保存します。これはYES、WITH_OFFSETS、およびWITH_POSITIONSの組み合わせです。
-
indexNullAsこの属性は null プロパティーの置換値を提供します。この値は以下の形式要件に準拠する必要があります。
- 文字列の値の形式要件はありません。
-
数値にはフィールドタイプに応じて
Double.parseDouble()、Integer.parseInteger()、およびその他のプリミティブ解析メソッドが受け入れる形式を使用する必要があります。 -
ブール値は
trueまたはfalseのいずれかである必要があります。 -
java.util.Calendar、java.util.Date、およびjava.time.*は ISO-8601 形式を使用する必要があります。
19.1.4. @NumericField リンクのコピーリンクがクリップボードにコピーされました!
@NumericField アノテーションは @Field と同じ範囲で指定できます。
@NumericField アノテーションは、Integer、Long、Float、および Double プロパティーに対して指定できます。インデックス化するときにトライ木の構造を使用して値がインデックス化されます。プロパティーが数値のフィールドとしてインデックス化されると、効率的な範囲のクエリーおよびソートが有効になり、標準の @Field プロパティーで同じクエリーを実行するよりも高速に順序付けできます。@NumericField アノテーションは以下の任意のパラメーターを許可します。
-
forField: 数値としてインデックス化される関連する@Fieldの名前を指定します。プロパティーに 1 つの@Field宣言以外が含まれる場合は必須になります。 -
precisionStep: トライ木構造がインデックスに保存される方法を変更します。precisionStepsを小さくするとディスク領域の使用量が増え、範囲およびソートクエリーが高速になります。値を大きくすると使用される領域が少なくなり、範囲クエリーのパフォーマンスが通常の@Fieldsの範囲クエリーに近くなります。precisionStepのデフォルト値は 4 です。
@NumericField は、Double、Long、Integer、および Float のみをサポートします。他の数値型に対して Lucene の同様の機能を使用できないため、他の型はデフォルトまたはカスタムの TwoWayFieldBridge を用いた文字列のエンコーディングを使用する必要があります。
カスタムの NumericFieldBridge を使用することもできます。カスタム設定は、型の変換中に近似が必要になります。以下は、カスタム NumericFieldBridge を定義する例になります。
カスタム NumericFieldBridge の定義
19.2. プロパティーを複数回マッピング リンクのコピーリンクがクリップボードにコピーされました!
異なるインデックス化ストラテジーを使用して、プロパティーをインデックスごとに複数回マッピングする必要があることがあります。たとえば、フィールドでクエリーをソートするには、フィールドが分析されていない必要があります。このプロパティーで単語を基に検索し、ソートを行うには、このプロパティーを 2 回インデックス化する必要があります (分析する回と分析しない回)。@Fields を使用してこの検索を実行できます。例を以下に示します。
@Fields を使用してプロパティーを複数回マッピング
上記の例では、summary が 2 回インデックス化されます。summary としてトークン化される方法で 1 度インデックス化され、summary_forSort として非トークン化される方法でもう 1 度インデックス化されます。@Field が使用される場合、@Fields は 2 つの属性をサポートします。
- analyzer: プロパティーごとではなくフィールドごとに @Analyzer アノテーションを定義します。
- bridge: プロパティーごとではなくフィールドごとに @FieldBridge アノテーションを定義します。
19.3. 埋め込みオブジェクトおよび関連するオブジェクト リンクのコピーリンクがクリップボードにコピーされました!
19.3.1. 埋め込みオブジェクトおよび関連するオブジェクト リンクのコピーリンクがクリップボードにコピーされました!
関連するオブジェクトと埋め込みオブジェクトはルートエンティティーインデックスの一部としてインデックス化できます。これにより、関連するオブジェクトのプロパティーを基にしたエンティティーの検索が可能になります。
19.3.2. 関連するオブジェクトのインデックス化 リンクのコピーリンクがクリップボードにコピーされました!
以下の例の目的は、Lucene クエリー address.city:Atlanta を使用して、関連する市がアトランタである場所を返すことです。場所フィールドは Place インデックスでインデックス化されます。Place インデックスドキュメントには以下のフィールドも含まれます。
-
address.street -
address.city
これらのフィールドはクエリーも可能です。
関連付けのインデックス化
19.3.3. @IndexedEmbedded リンクのコピーリンクがクリップボードにコピーされました!
@IndexedEmbedded を使用する場合、データは Lucene インデックスで非正規化されます。そのため、Place および Address オブジェクトの変更を反映するために Lucene ベースの Query API を更新し、インデックスを最新の状態にする必要があります。Address の変更時に Lucene ドキュメントが確実に更新されるようにするため、双方向の関係の逆側に @ContainedIn を付けます。@ContainedIn は、エンティティーを示す関連付けと埋め込みオブジェクトを示す関連付けの両方に使用できます。
@IndexedEmbedded アノテーションは入れ子にすることができます。属性には @IndexedEmbedded アノテーションを付けることができます。関連するクラスの属性はメインエントリーインデックスに追加されます。下記の例では、インデックスに以下のフィールドが含まれます。
- name
- address.street
- address.city
- address.ownedBy_name
入れ子の @IndexedEmbedded および @ContainedIn の使用法
デフォルトの接頭辞は propertyName. で、従来のオブジェクトナビゲーションの慣例に従います。これをオーバーライドするには ownedBy プロパティーで示されたように prefix 属性を使用します。
接頭辞を空の文字列に設定することはできません。
オブジェクトグラフにクラスの循環依存関係が含まれる場合、depth プロパティーが使用されます。たとえば、Owner が Place を示す場合がこれに該当します。予期された深さまたはオブジェクトグラフの境界に達した後、クエリーモジュールは属性の追加を停止します。自己参照クラスは循環依存関係の例の 1 つになります。この例では、深さが 1 に設定されているため、Owner の @IndexedEmbedded 属性はすべて無視されます。
オブジェクトの関連付けに @IndexedEmbedded を使用すると、Lucene のクエリー構文を使用してクエリーを表現できます。例を以下に示します。
名前に JBoss が含まれ、住所の市が Atlanta である場所を返す場合、Lucene クエリーでは次のようになります。
+name:jboss +address.city:atlanta
+name:jboss +address.city:atlantaCopy to Clipboard Copied! Toggle word wrap Toggle overflow 名前に JBoss が含まれ、所有者の名前に Joe が含まれる場所を返す場合、Lucene クエリーでは次のようになります。
+name:jboss +address.ownedBy_name:joe
+name:jboss +address.ownedBy_name:joeCopy to Clipboard Copied! Toggle word wrap Toggle overflow
この操作は関係結合操作と似ていますが、データが重複されません。そのままの状態では、Lucene インデックスには関連付けの観念がなく、結合操作は存在しません。完全テキストのインデックス速度や機能充実の利点を活かしながら正規化されたリレーショナルモデルを維持すると有用であることがあります。
関連したオブジェクトは @Indexed であることもあります。@IndexedEmbedded がエンティティーを示す場合、関連付けは指向性を持つ必要があり、逆側に @ContainedIn アノテーションを付ける必要があります。このアノテーションを付けないと、関連したエンティティーが更新されたときに Lucene ベースのクエリー API はルートインデックスを更新できません。この例では、 関連する Address インスタンスが更新されると Place インデックスドキュメントが更新されます。
19.3.4. targetElement プロパティー リンクのコピーリンクがクリップボードにコピーされました!
targetElement パラメーターを使用すると目的のオブジェクト型をオーバーライドできます。 このメソッドは、@IndexedEmbedded アノテーションが付けられたオブジェクト型がデータグリッドおよび Lucene ベースの Query API が目的とするオブジェクト型ではない場合に使用されます。これは、実装の代わりにインターフェースが使用されると発生します。
@IndexedEmbedded の targetElement プロパティーの使用
19.4. ブースティング リンクのコピーリンクがクリップボードにコピーされました!
19.4.1. ブースティング リンクのコピーリンクがクリップボードにコピーされました!
Lucene はブースティングを使用して特定のフィールドやドキュメントの重要度を上げます。Lucene はインデックス時のブースティングと検索時のブースティングを区別します。
19.4.2. 静的なインデックス時ブースティング リンクのコピーリンクがクリップボードにコピーされました!
インデックス化されたクラスまたはプロパティーの静的なブースト値を定義するには、@Boost アノテーションを使用します。このアノテーションは @Field 内で使用でき、メソッドやクラスレベルで直接指定することもできます。
下記の例は以下を意味します。
- Essay が検索リストの最上部に達する可能性が 1.7 倍になります。
-
プロパティーの
@Field.boostおよび@Boostは累積的であるため、summary フィールドは 3.0 倍 (2 x 1.5) になり、ISBN フィールドよりも重要度が高くなります。 - text フィールドの重要度は ISBN フィールドの 1.2 倍になります。
@Boost の異なる使用方法
19.4.3. 動的なインデックス時ブースティング リンクのコピーリンクがクリップボードにコピーされました!
@Boost アノテーションは静的ブースト係数を定義します。この係数は、実行時のインデックス化されたエンティティーの状態とは関係ありません。ただし、場合によってはブースト係数がエンティティーの実際の状態に依存することがあります。この場合、 @DynamicBoost アノテーションをカスタム BoostStrategy とともに使用します。
@Boost および @DynamicBoost アノテーションはエンティティーとの関連で使用することができ、定義されたブースト係数はすべて累積的です。@DynamicBoost をクラスまたはフィールドレベルで置くことができます。
以下の例では、インデックス化するときに使用される BoostStrategy インターフェースの実装として VIPBoostStrategy を指定することにより、動的なブーストがクラスレベルで定義されます。エンティティー全体が defineBoost メソッドに渡されるか、またはアノテーションが付けられたフィールド/プロパティーの値のみが渡されるかはアノテーションの配置によります。渡されたオブジェクトを正しい型にキャストする必要があります。
動的なブーストの例
この例では、VIP のインデックス化された値すべての重要度は VIP でない値の 2 倍になります。
指定の BoostStrategy 実装は、パブリックの引数のないコンストラクターを定義する必要があります。
19.5. 分析 リンクのコピーリンクがクリップボードにコピーされました!
19.5.1. 分析 リンクのコピーリンクがクリップボードにコピーされました!
19.5.2. デフォルトのアナライザーおよびクラス別のアナライザー リンクのコピーリンクがクリップボードにコピーされました!
デフォルトのアナライザークラスはトークン化されたフィールドをインデックス化するために使用され、default.analyzer プロパティーを用いて設定が可能です。このプロパティーのデフォルト値は org.apache.lucene.analysis.standard.StandardAnalyzer です。
アナライザークラスはエンティティー、プロパティー、および @Field ごとに定義できます。これは、1 つのプロパティーから複数のフィールドがインデックス化されるときに便利です。
以下の例では、 EntityAnalyzer を使用して、name などのトークン化されたプロパティーがすべてインデックス化されます。例外は summary と body で、これらはそれぞれ PropertyAnalyzer と FieldAnalyzer によってインデックス化されます。
@Analyzer の異なる使用方法
1 つのエンティティーで複数のアナライザーを使用しないようにしてください。特に QueryParser を使用する場合はクエリーの構築が複雑になり、結果の予測が難しくなります。フィールドのインデックス化とクエリーに同じアナライザーを使用してください。
19.5.3. 名前付きのアナライザー リンクのコピーリンクがクリップボードにコピーされました!
クエリーモジュールはアナライザー定義を使用して Analyzer 関数の複雑さに対応します。アナライザー定義は、複数の @Analyzer 宣言による再使用が可能で、以下が含まれます。
- 名前: 定義の参照に使用される一意の文字列。
-
CharFiltersのリスト: 各CharFilterはトークン化の前に入力文字を事前処理します。CharFiltersは文字を追加、変更、および削除できます。一般的な使用例の 1 つが文字の正規化です。 -
Tokenizer: 入力ストリームを個別の単語にトークン化します。 -
フィルターのリスト: 各フィルターは単語を削除または変更します。また、
Tokenizerによって提供されたストリームに単語を追加することもあります。
Analyzer はこれらのコンポーネントを複数のタスクに分類し、以下の手順を使用して各コンポーネントの再使用やコンポーネントの柔軟な構築を実現します。
アナライザーの処理
-
CharFiltersは文字入力を処理します。 -
Tokenizerは文字入力をトークンに変換します。 -
トークンは
TokenFiltersによって処理されます。
Lucene ベースの Query API は、Solr アナライザーフレームワークを利用してこのインフラストラクチャーをサポートします。
19.5.4. アナライザーの定義 リンクのコピーリンクがクリップボードにコピーされました!
アナライザー定義は定義後に @Analyzer アノテーションによって再使用されます。
名前によるアナライザーの参照
@AnalyzerDef によって宣言されたアナライザーインスタンスは、SearchFactory の名前でも利用できます。これは、クエリーの構築時に役立ちます。
Analyzer analyzer = Search.getSearchManager(cache).getAnalyzer("customanalyzer")
Analyzer analyzer = Search.getSearchManager(cache).getAnalyzer("customanalyzer")
クエリーの実行時、フィールドはフィールドのインデックス化に使用されたアナライザーを使用する必要があります。クエリーとインデックス化処理で同じトークンが再使用されます。
19.5.5. Solr の @AnalyzerDef リンクのコピーリンクがクリップボードにコピーされました!
Maven を使用する場合、必要なすべての Apache Solr 依存関係はアーティファクト org.hibernate:hibernate-search-analyzers の依存関係として定義されるようになりました。以下の依存関係を追加します。
<dependency>
<groupId>org.hibernate</groupId>
<artifactId>hibernate-search-analyzers</artifactId>
<version>${version.hibernate.search}</version>
<dependency>
<dependency>
<groupId>org.hibernate</groupId>
<artifactId>hibernate-search-analyzers</artifactId>
<version>${version.hibernate.search}</version>
<dependency>
以下の例では、CharFilter はそのファクトリーによって定義されます。この例では、マッピング文字フィルターが使用され、マッピングファイルに指定されたルールを基にして入力の文字列を置き換えます。この例では、専用の単語プロパティーファイルを読み取って StopFilter フィルターが構築されます。フィルターは大文字と小文字を区別しません。
@AnalyzerDef および Solr フレームワーク
CharFilter の設定
ファクトリーで
CharFilterを定義します。この例では、マッピングCharFilterが使用され、マッピングファイルに指定されたルールを基にして入力の文字を置き換えます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow Tokenizer の定義
TokenizerはStandardTokenizerFactory.classを使用して定義されます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow フィルターのリスト
ファクトリーでフィルターのリストを定義します。この例では、専用の単語プロパティーファイルを読み取って
StopFilterフィルターが構築されます。フィルターは大文字と小文字を区別しません。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
フィルターと CharFilters は、 @AnalyzerDef アノテーションで定義された順に適用されます。
19.5.6. アナライザーリソースのロード リンクのコピーリンクがクリップボードにコピーされました!
Tokenizers、TokenFilters、および CharFilters は StopFilterFactory.class または類義語フィルターを使用して、設定ファイルやメタデータファイルなどのリソースをロードできます。仮想マシンのデフォルトを明示的に指定するには、resource_charset パラメーターを追加します。
特定の文字セットを使用したプロパティーファイルのロード
19.5.7. 動的アナライザーの選択 リンクのコピーリンクがクリップボードにコピーされました!
クエリーモジュールは @AnalyzerDiscriminator アノテーションを使用して動的なアナライザーの選択を有効にします。
インデックス化するエンティティーの現在の状態を基にアナライザーを選択できます。これは、特に多言語のアプリケーションで役に立ちます。たとえば、BlogEntry クラスを使用する場合、アナライザーはエントリーの言語プロパティーに依存することができます。このプロパティーに応じて、テキストのインデックス化に適切な言語固有のステマーが選択されます。
Discriminator インターフェースの実装は既存のアナライザー定義の名前を返す必要がありますが、デフォルトのアナライザーがオーバーライドされない場合は null を返す必要があります。
下記の例は、言語パラメーターが de または en のいずれかで、@AnalyzerDefs で指定されることを前提とします。
@AnalyzerDiscriminator の設定
動的なアナライザーの事前定義
@AnalyzerDiscriminatorには、動的に使用されるすべてのアナライザーを@AnalyzerDefを使用して事前定義する必要があります。動的にアナライザーを選択するために、@AnalyzerDiscriminatorアノテーションをクラスまたはエンティティーの特定のプロパティーに配置できます。Discriminatorインターフェースの実装は、@AnalyzerDiscriminatorimplパラメーターを使用して指定できます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow Discriminator インターフェースの実装
Lucene ドキュメントにフィールドを追加するたびに呼び出される
getAnalyzerDefinitionName()メソッドを実装します。インデックス化されたエンティティーもインターフェースメソッドに渡されます。@AnalyzerDiscriminatorがクラスレベルではなく、プロパティーレベルに配置されるとvalueパラメーターが設定されます。この例では、値はこのプロパティーの現在の値を表します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
19.5.8. アナライザーの読み出し リンクのコピーリンクがクリップボードにコピーされました!
ステミングや音声的近似などを活用するため、ドメインモデルで複数のアナライザーが使用された場合にアナライザーを読み出すことができます。この場合、同じアナライザーを使用してクエリーを構築します。この代わりに、正しいアナライザーを自動的に選択する Lucene ベースの Query API を使用することもできます。詳細は「Lucene クエリーの構築」を参照してください。
エンティティーのスコープ指定されたアナライザーは、Lucene プログラム API または Lucene クエリーパーサーのどちらかを使用して読み出すことができます。スコープ指定されたアナライザーは、インデックス化されたフィールドに応じて正しいアナライザーを適用します。個々のフィールドで動作する複数のアナライザーは 1 つのエンティティーで定義できます。スコープ指定されたアナライザーは、これらのアナライザーをコンテキストを認識するアナライザーに統合します。
以下の例では、曲名は 2 つのフィールドでインデックス化されます。
-
標準のアナライザー:
titleフィールドで使用されます。 -
ステミングアナライザー:
title_stemmedフィールドで使用されます。
クエリーは、検索ファクトリーによって提供されるアナライザーを使用して、目的のフィールドに応じて適切なアナライザーを使用します。
フルテキストクエリーの構築時にスコープ指定されたアナライザーを使用
@AnalyzerDef によって定義されたアナライザーは、searchManager.getAnalyzer(String) を使用して定義名で取得することもできます。
19.5.9. 使用可能なアナライザー リンクのコピーリンクがクリップボードにコピーされました!
Apache Solr と Lucene には、デフォルトの CharFilters、tokenizers、および filters が複数含まれています。CharFilter、tokenizer、および filter ファクトリーの完全リストは http://wiki.apache.org/solr/AnalyzersTokenizersTokenFilters を参照してください。以下の表は、CharFilters、tokenizers、および filters の一部を示しています。
| ファクトリー | 説明 | Parameters | 追加の依存関係 |
|---|---|---|---|
|
|
リソースファイルに指定されたマッピングを基に、1 つ以上の文字を置き換えます。 |
"á" => "a"
"ñ" => "n"
"ø" => "o"
|
なし |
|
|
標準の HTML タグを削除し、テキストは保持します。 |
なし |
なし |
| ファクトリー | 説明 | Parameters | 追加の依存関係 |
|---|---|---|---|
|
|
Lucene の標準トークナイザーを使用します。 |
なし |
なし |
|
|
標準の HTML タグを削除してテキストは保持し、StandardTokenizer へ渡します。 |
なし |
|
|
|
指定の正規表現パターンでテキストを改行します。 |
group: トークンに抽出するパターングループを示します。 |
|
| ファクトリー | 説明 | Parameters | 追加の依存関係 |
|---|---|---|---|
|
|
頭字語からピリオドを削除し、単語からアポストロフィー (') を削除します。 |
なし |
|
|
|
すべての言葉を小文字にします。 |
なし |
|
|
|
ストップワードのリストと一致する言葉 (トークン) を削除します。 |
ignoreCase: ストップワードを比較するときに |
|
|
|
単語を指定言語の語根にします。たとえば、protect、protects、および protection はすべて同じ語根を持ちます。このようなフィルターを使用すると、関連する単語に一致する検索を実行できます。 |
|
|
|
|
フランス語などの言語に使用されるアクセント記号を削除します。 |
なし |
|
|
|
音声的に似ているトークンをトークンストリームに挿入します。 |
inject:
|
|
|
|
各トークンを |
|
|
19.6. ブリッジ リンクのコピーリンクがクリップボードにコピーされました!
19.6.1. ブリッジ リンクのコピーリンクがクリップボードにコピーされました!
エンティティーをマッピングするとき、Lucene はすべてのインデックスフィールドを文字列として表します。@Field アノテーションが付けられたエンティティープロパティーは、すべて文字列に変換され、インデックス化されます。ビルトインブリッジは Lucene ベースの Query API に対してプロパティーを自動的に変換します。ブリッジをカスタマイズすると変換プロセスを制御することができます。
19.6.2. ビルトインブリッジ リンクのコピーリンクがクリップボードにコピーされました!
Lucene ベースの Query API には、Java プロパティー型とそのフルテキスト表現との間のビルドインブリッジが含まれています。
- null
-
デフォルトでは
null要素はインデックス化されません。 Lucene は null 要素をサポートしませんが、場合によってはnullの値を表すカスタムトークンを挿入すると便利なことがあります。詳細は「@Field」を参照してください。 - java.lang.String
文字列は以下としてインデックス化されます。
-
short、Short -
integer、Integer -
long、Long -
float、Float -
double、Double -
BigInteger -
BigDecimal
数字は文字列の表現に変換されます。Lucene では数字を比較できず、そのままの状態で範囲指定のクエリーに使用できないため、パディングを行う必要があります。
-
Range クエリーの使用には欠点があるため、代わりに結果クエリーを適切な範囲にフィルターする Filter クエリーを使用することができます。
クエリーモジュールは、カスタム StringBridge の使用をサポートします。「カスタムブリッジ」を参照してください。
- java.util.Date
日付はグリニッジ標準時 (GMT) で
yyyyMMddHHmmssSSSの形式で保存されます。たとえば、アメリカ東部標準時 (EST) の 2006 年 11 月 7 日午後 4 時 3 分 12 秒は 200611072203012 になります。TermRangeQueryを使用する場合、日付は GMT で表示されます。@DateBridgeはインデックスへの保存に適切な精度 (resolution) を定義します (例:@DateBridge(resolution=Resolution.DAY))。日付パターンはこの定義に従って省略されます。@Indexed public class Meeting { @Field(analyze=Analyze.NO) @DateBridge(resolution=Resolution.MINUTE) private Date date;@Indexed public class Meeting { @Field(analyze=Analyze.NO) @DateBridge(resolution=Resolution.MINUTE) private Date date;Copy to Clipboard Copied! Toggle word wrap Toggle overflow デフォルトの
Dateブリッジは ucene のDateToolsを使用してStringからの変換とStringへの変換を行います。日付を固定のタイムゾーンで保存するには、カスタムの date ブリッジを実装します。- java.net.URI、java.net.URL
- URI および URL は文字列の表現に変換されます。
- java.lang.Class
- クラスは完全修飾クラス名に変換されます。クラスがリハイドレートされるとスレッドコンテキストクラスローダーが使用されます。
19.6.3. カスタムブリッジ リンクのコピーリンクがクリップボードにコピーされました!
19.6.3.1. カスタムブリッジ リンクのコピーリンクがクリップボードにコピーされました!
カスタムブリッジは、ビルトインブリッジやブリッジの文字列表現が、必要なプロパティー型に十分に対応できない場合に使用することができます。
19.6.3.2. FieldBridge リンクのコピーリンクがクリップボードにコピーされました!
柔軟性を向上するため、ブリッジを FieldBridge として実装できます。FieldBridge インターフェースは、Lucene Document でマップできるプロパティー値を提供します。たとえば、1 つのプロパティーを 2 つのドキュメントフィールドに保存できます。
FieldBridge インターフェースの実装
以下の例では、フィールドは直接 Lucene Document に追加されません。代わりに、追加は LuceneOptions ヘルパーに委譲されます。このヘルパーは、Store や TermVector などの @Field で選択されたオプションを適用したり、選択された @Boost の値を適用したりします。
LuceneOptions を委譲してフィールドを Document に追加することが推奨されますが、LuceneOptions を無視して直接 Document を編集することも可能です。
LuceneOptions は、Lucene API の変更がアプリケーションに影響しないようにし、コードを簡易化します。
19.6.3.3. StringBridge リンクのコピーリンクがクリップボードにコピーされました!
org.infinispan.query.bridge.StringBridge インターフェースを使用して、想定される Object の実装で Lucene ベースの Query API を String ブリッジまたは StringBridge に提供します。すべての実装は同時に使用されるため、スレッドセーフである必要があります。
カスタム StringBridge 実装
@FieldBridge アノテーションを使用すると、この例のプロパティーまたはフィールドはブリッジを使用できます。
@FieldBridge(impl = PaddedIntegerBridge.class) private Integer length;
@FieldBridge(impl = PaddedIntegerBridge.class)
private Integer length;
19.6.3.4. 双方向ブリッジ リンクのコピーリンクがクリップボードにコピーされました!
TwoWayStringBridge は StringBridge の拡張バージョンで、ブリッジ実装が ID プロパティーで使用される場合に使用できます。Lucene ベースの Query API は識別子の文字列表現を読み取り、オブジェクトの生成に使用します。 @FieldBridge アノテーションは同様に使用されます。
ID プロパティーの TwoWayStringBridge の実装
object = stringToObject(objectToString(object))) のように、双方向処理はべき等である必要があります。
19.6.3.5. パラメーター化されたブリッジ リンクのコピーリンクがクリップボードにコピーされました!
ParameterizedBridge インターフェースはパラメーターをブリッジ実装に渡し、柔軟性を向上します。ParameterizedBridge は StringBridge、TwoWayStringBridge、および FieldBridge 実装による実行が可能です。すべての実装がスレッドセーフである必要があります。
以下の例は、ParameterizedBridge インターフェースを実装し、パラメーターは @FieldBridge アノテーションによって渡されます。
ParameterizedBridge インターフェースの設定
19.6.3.6. 型対応ブリッジ リンクのコピーリンクがクリップボードにコピーされました!
AppliedOnTypeAwareBridge を実装するすべてのブリッジは、適用またはインジェクトされるブリッジの型を取得します。
- フィールド/ゲッターレベルのブリッジに対するプロパティーの戻り値の型。
- クラスレベルのブリッジに対するクラス型。
インジェクトされた型に特有のスレッドセーフ要件はありません。
19.6.3.7. ClassBridge リンクのコピーリンクがクリップボードにコピーされました!
@ClassBridge アノテーションを使用すると、1 つのエンティティーの 1 つ以上のプロパティーを Lucene インデックスに固有の方法で組み合わせたりインデックス化することができます。@ClassBridge はクラスレベルで定義でき、termVector 属性をサポートします。
以下の例では、カスタムの FieldBridge 実装はエンティティーインスタンスを値パラメーターとして受け取ります。特定の CatFieldsClassBridge が department インスタンスに適用されます。FieldBridge はブランチとネットワークの両方を連結し、その連結をインデックス化します。
ClassBridge の実装
第20章 クエリー リンクのコピーリンクがクリップボードにコピーされました!
20.1. クエリー リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query は Lucene クエリーを実行し、ドメインオブジェクトを Red Hat JBoss Data Grid キャッシュから取得できます。
クエリーの準備および実行
以下のように、インデックス化が有効になっているキャッシュの
SearchManagerを取得します。SearchManager manager = Search.getSearchManager(cache);
SearchManager manager = Search.getSearchManager(cache);Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のように、
QueryBuilderを作成してMyth.classのクエリーを構築します。final org.hibernate.search.query.dsl.QueryBuilder queryBuilder = manager.buildQueryBuilderForClass(Myth.class).get();final org.hibernate.search.query.dsl.QueryBuilder queryBuilder = manager.buildQueryBuilderForClass(Myth.class).get();Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のように、
Myth.classクラスの属性をクエリーする Apache Lucene クエリーを作成します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
20.2. クエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
20.2.1. クエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
クエリーモジュールは Lucene クエリー上で構築されるため、ユーザーはすべての Lucene クエリータイプを使用できます。クエリーが構築されると、Infinispan Query は org.infinispan.query.CacheQuery をクエリー操作 API として使用して、さらにクエリー処理を続行します。
20.2.2. Lucene ベースのクエリー API を使用した Lucene クエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
Lucene API では、クエリーパーサー (簡単なクエリー) または Lucene プログラム API (複雑なクエリー) を使用します。詳細は、Lucene のオンラインドキュメントや「Lucene in Action」または 「Hibernate Search in Action」を参照してください。
20.2.3. Lucene クエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
20.2.3.1. Lucene クエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
Lucene プログラム API を使用すると、フルテキストクエリーを書くことができます。しかし、Lucene プログラム API を使用する場合はパラメーターを同等の文字列に変換し、さらに正しいアナライザーを適切なフィールドに適用する必要があります。たとえば、N-gram アナライザーは複数の N-gram を指定の言葉のトークンとして使用し、そのように検索する必要があります。この作業には QueryBuilder の使用が推奨されます。
Lucene ベースのクエリー API は流動的です。この API には以下の特徴があります。
- メソッド名は英語になります。そのため、API 操作は一連の英語のフレーズや指示として読み取りおよび理解されます。
- 入力した接頭辞の補完を可能にし、ユーザーが適切なオプションを選択できるようにする IDE 自動補完を使用します。
- チェイニングメソッドパターンを頻繁に使用します。
- API 操作の使用および読み取りは簡単です。
API を使用するには、最初に指定のインデックスタイプにアタッチされるクエリービルダーを作成します。この QueryBuilder は、使用するアナライザーと適用するフィールドブリッジを認識します。複数の QueryBuilder を作成できます (クエリーのルートに関係する書くタイプごとに 1 つ)。QueryBuilder は SearchManager から派生します。
Search.getSearchManager(cache).buildQueryBuilderForClass(Myth.class).get();
Search.getSearchManager(cache).buildQueryBuilderForClass(Myth.class).get();
指定のフィールドに使用されるアナライザーをオーバーライドすることもできます。
SearchManager searchManager = Search.getSearchManager(cache);
QueryBuilder mythQB = searchManager.buildQueryBuilderForClass(Myth.class)
.overridesForField("history","stem_analyzer_definition")
.get();
SearchManager searchManager = Search.getSearchManager(cache);
QueryBuilder mythQB = searchManager.buildQueryBuilderForClass(Myth.class)
.overridesForField("history","stem_analyzer_definition")
.get();
Lucene クエリーの構築にクエリービルダーが使用されるようになります。
20.2.3.2. キーワードクエリー リンクのコピーリンクがクリップボードにコピーされました!
以下の例は特定の単語を検索する方法を示しています。
キーワード検索
Query luceneQuery = mythQB.keyword().onField("history").matching("storm").createQuery();
Query luceneQuery = mythQB.keyword().onField("history").matching("storm").createQuery();
| パラメーター | 説明 |
|---|---|
|
keyword() |
このパラメーターを使用して特定の単語を見つけます。 |
|
onField() |
このパラメーターを使用して単語を検索する Lucene フィールドを指定します。 |
|
matching() |
このパラメーターを使用して検索する文字列の一致を指定します。 |
|
createQuery() |
Lucene クエリーオブジェクトを作成します。 |
-
値「storm」は「history」
FieldBridgeから渡されます。これは、数字や日付が関係する場合に便利です。 -
その後、フィールドブリッジの値はフィールド「history」をインデックス化するために使用されるアナライザーへ渡されます。これにより、クエリーがインデックス化と同じ用語変換を使用するようにします (小文字、N-gram、ステミングなど)。分析プロセスが指定の単語に対して複数の用語を生成する場合、ブール値クエリーは
SHOULDロジック (おおよそORロジックと同様) とともに使用されます。
文字列型でないプロパティーを検索します。
プレーンな Lucene では、Date オブジェクトは文字列の表現に変換する必要がありました (この例では年)。
この変換は、FieldBridge に objectToString メソッドがあれば (組み込みの FieldBridge 実装にはすべてこのメソッドがあります) どのオブジェクトに対しても実行できます。
次の例は、N-gram アナライザーを使用するフィールドを検索します。N-gram アナライザーは単語の N-gram の連続をインデックス化します。これは、ユーザーによる誤字を防ぐのに役立ちます。たとえば、単語 hibernate の 3-gram は hib、ibe、ber、rna、nat、ate になります。
N-gram アナライザーを使用した検索
一致する単語「Sisiphus」は小文字に変換され、3-gram (sis、isi、sip、phu、hus) に分割されます。各 N-gram はクエリーの一部になります。その後、ユーザーは Sysiphus (i ではなく y) myth (シーシュポスの神話) を検索できます。ユーザーに対してすべてが透過的に行われます。
特定のフィールドがフィールドブリッジまたはアナライザーを使用しないようにするには、ignoreAnalyzer() または ignoreFieldBridge() 関数を呼び出すことができます。
同じフィールドで可能な単語を複数検索し、すべてを一致する句に追加します。
複数の単語の検索
//search document with storm or lightning in their history
Query luceneQuery =
mythQB.keyword().onField("history").matching("storm lightning").createQuery();
//search document with storm or lightning in their history
Query luceneQuery =
mythQB.keyword().onField("history").matching("storm lightning").createQuery();
複数のフィールドで同じ単語を検索するには、onFields メソッドを使用します。
複数のフィールドでの検索
Query luceneQuery = mythQB
.keyword()
.onFields("history","description","name")
.matching("storm")
.createQuery();
Query luceneQuery = mythQB
.keyword()
.onFields("history","description","name")
.matching("storm")
.createQuery();
同じ用語を検索する場合でも、あるフィールドに必要な処理が他のフィールドとは異なることがあります。このような場合は andField() メソッドを使用します。
andField メソッドの使用
前述の例では、フィールド名のみが 5 にブーストされます。
20.2.3.3. ファジークエリー リンクのコピーリンクがクリップボードにコピーされました!
レーベンシュタイン距離 (Levenshtein Distance) アルゴリズムを基にしてファジークエリーを実行するには、keyword クエリーと同様に起動して fuzzy フラグを追加します。
ファジークエリー
withEditDistanceUpTo は、2 つの用語の一致を考慮するための編集距離 (レーベンシュタイン距離) の最大値です。この値は 0 から 2 までの整数値で、デフォルト値は 2 になります。prefixLength は「ファジーの度合い」によって無視される接頭辞の長さになります。デフォルト値は 0 ですが、異なる用語が大量に含まれるインデックスではゼロ以外の値を指定することが推奨されます。
20.2.3.4. ワイルドカードクエリー リンクのコピーリンクがクリップボードにコピーされました!
ワイルドカードクエリーを実行することもできます (単語の一部が不明のクエリー)。? は単一の文字を表し、* は連続する文字を表します。パフォーマンス上の理由で、クエリーの最初に ? または \* を使用しないことが推奨されます。
ワイルドカードクエリー
Query luceneQuery = mythQB.keyword()
.wildcard()
.onField("history")
.matching("sto*")
.createQuery();
Query luceneQuery = mythQB.keyword()
.wildcard()
.onField("history")
.matching("sto*")
.createQuery();
ワイルドカードクエリーは、アナライザーを一致する用語に適用しません。これは、\* または ? が適切に処理されないリスクが大変高くなるためです。
20.2.3.5. フレーズクエリー リンクのコピーリンクがクリップボードにコピーされました!
これまでは、単語または単語のセットを検索しましたが、完全一致の文または近似の文を検索することも可能です。文の検索には phrase() を使用します。
フレーズクエリー
Query luceneQuery = mythQB.phrase()
.onField("history")
.sentence("Thou shalt not kill")
.createQuery();
Query luceneQuery = mythQB.phrase()
.onField("history")
.sentence("Thou shalt not kill")
.createQuery();
おおよその文はスロップ (slop) 係数を追加すると検索可能になります。スロップ係数は、その文で許可される別の単語の数を表します。これは、within または near 演算子と同様に動作します。
スロップ係数の追加
Query luceneQuery = mythQB.phrase()
.withSlop(3)
.onField("history")
.sentence("Thou kill")
.createQuery();
Query luceneQuery = mythQB.phrase()
.withSlop(3)
.onField("history")
.sentence("Thou kill")
.createQuery();
20.2.3.6. 範囲クエリー リンクのコピーリンクがクリップボードにコピーされました!
範囲クエリーは指定の境界の間、上、または下で値を検索します。
範囲クエリー
20.2.3.7. クエリーの組み合わせ リンクのコピーリンクがクリップボードにコピーされました!
クエリーを集合 (組み合わせ) するとさらに複雑なクエリーを作成できます。以下の集合演算子を使用できます。
-
SHOULD: クエリーにはサブクエリーの一致要素が含まれるはずです。 -
MUST: クエリーにはサブクエリーの一致要素が含まれていなければなりません。 -
MUST NOT: クエリーにサブクエリーの一致要素が含まれてはなりません。
サブクエリーはブール値クエリー自体を含む Lucene クエリーです。例を以下に示します。
サブクエリーの組み合わせ
20.2.3.8. クエリーオプション リンクのコピーリンクがクリップボードにコピーされました!
クエリー型およびフィールドのクエリーオプションの概要は次のとおりです。
-
boostedTo(クエリー型およびフィールド上) は、クエリーまたはフィールドを指定の係数にブーストします。 -
withConstantScore(クエリー上) は、クエリーと一致し、ブーストと等しくなる定数スコアを持つすべての結果を返します。 -
filteredBy(Filter)(クエリー上) はFilterインスタンスを使用してクエリー結果をフィルターします。 -
ignoreAnalyzer(フィールド上) は、このフィールドの処理時にアナライザーを無視します。 -
ignoreFieldBridge(フィールド上) は、このフィールドの処理時にフィールドブリッジを無視します。
以下の例は、これらのオプションの使用方法を表しています。
クエリーオプション
20.2.4. Infinispan Query でのクエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
20.2.4.1. 一般論 リンクのコピーリンクがクリップボードにコピーされました!
Lucene クエリーを構築したら、Infinispan CacheQuery クエリー内でラップします。クエリーは、インデックス化されたエンティティーをすべて検索し、インデックス化されたクラスのすべての型を返します。この挙動を変更するには、明示的に設定する必要があります。
Infinispan CacheQuery での Lucene クエリーのラッピング
CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(luceneQuery);
CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(luceneQuery);
パフォーマンスを向上するには、以下のように戻り値の型を制限します。
エンティティー型での検索結果のフィルター
CacheQuery cacheQuery =
Search.getSearchManager(cache).getQuery(luceneQuery, Customer.class);
// or
CacheQuery cacheQuery =
Search.getSearchManager(cache).getQuery(luceneQuery, Item.class, Actor.class);
CacheQuery cacheQuery =
Search.getSearchManager(cache).getQuery(luceneQuery, Customer.class);
// or
CacheQuery cacheQuery =
Search.getSearchManager(cache).getQuery(luceneQuery, Item.class, Actor.class);
2 つ目の例の最初の部分は、一致する Customer インスタンスのみを返します。同じ例の 2 番目の部分は、一致する Actor および Item インスタンスを返します。型制限は多形です。このため、ベースクラス Person の 2 つのサブクラスである Salesman および Customer が返される場合は、Person.class を指定して結果の型に基づいてフィルターします。
20.2.4.2. ページネーション リンクのコピーリンクがクリップボードにコピーされました!
パフォーマンスの劣化を防ぐため、クエリーごとに返されるオブジェクトの数を制限することが推奨されます。ユーザーがあるページから別のページへ移動するユースケースは大変一般的です。ページネーションを定義する方法は、プレーン HQL または Criteria クエリーでページネーションを定義する方法に似ています。
検索クエリーに対するページネーションの定義
CacheQuery cacheQuery = Search.getSearchManager(cache)
.getQuery(luceneQuery, Customer.class);
cacheQuery.firstResult(15); //start from the 15th element
cacheQuery.maxResults(10); //return 10 elements
CacheQuery cacheQuery = Search.getSearchManager(cache)
.getQuery(luceneQuery, Customer.class);
cacheQuery.firstResult(15); //start from the 15th element
cacheQuery.maxResults(10); //return 10 elements
ページネーションに関係なく、一致する要素の合計数は cacheQuery.getResultSize() で取得できます。
20.2.4.3. ソート リンクのコピーリンクがクリップボードにコピーされました!
Apache Lucene には、柔軟で強力な結果ソートメカニズムが含まれています。デフォルトでは関連性でソートされます。他のプロパティーでソートするようソートメカニズムを変更するには、Lucene Sort オブジェクトを使用して Lucene ソートストラテジーを適用します。
Lucene Sort の指定
org.infinispan.query.CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(luceneQuery, Book.class);
org.apache.lucene.search.Sort sort = new Sort(
new SortField("title", SortField.STRING_FIRST));
cacheQuery.sort(sort);
List results = cacheQuery.list();
org.infinispan.query.CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(luceneQuery, Book.class);
org.apache.lucene.search.Sort sort = new Sort(
new SortField("title", SortField.STRING_FIRST));
cacheQuery.sort(sort);
List results = cacheQuery.list();
ソートに使用されるフィールドはトークン化しないでください。トークン化に関する詳細は 「@Field」を参照してください。
20.2.4.4. 射影 リンクのコピーリンクがクリップボードにコピーされました!
場合によってはプロパティーの小さなサブセットのみが必要になることがあります。以下のように、Infinispan Query を使用してプロパティーのサブセットを返します。
完全なドメインオブジェクトを返す代わりに射影を使用
クエリーモジュールは Lucene インデックスからプロパティーを抽出して、オブジェクト表現に変換してから Object[] のリストを返します。射影により、時間がかかるデータベースのラウンドトリップは回避されますが、以下の制約があります。
-
射影されたプロパティーはインデックス (
@Field(store=Store.YES)) に保存される必要があります。これにより、インデックスのサイズが大きくなります。 射影されたプロパティーは
org.infinispan.query.bridge.TwoWayFieldBridgeまたはorg.infinispan.query.bridge.TwoWayStringBridgeを実装するFieldBridgeを使用する必要があります。org.infinispan.query.bridge.TwoWayStringBridgeはより簡単なバージョンです。注記Lucene ベースのクエリー API の組み込み型はすべて双方向です。
- インデックス化されたエンティティーのシンプルなプロパティーまたは埋め込みされた関連のみを射影できます。埋め込みエンティティー全体は射影できません。
-
射影は、
@IndexedEmbeddedを用いてインデックス化されたコレクションまたはマップでは動作しません。
Lucene はクエリー結果のメタデータ情報を提供します。射影定数を使用してメタデータを読み出します。
射影を使用したメタデータの読み出し
フィールドは、以下の射影定数と組み合わせることができます。
-
FullTextQuery.THISは、射影されていないクエリーのように、初期化および管理されたエンティティーを返します。 -
FullTextQuery.DOCUMENTは、射影されたオブジェクトに関連する Lucene Document を返します。 -
FullTextQuery.OBJECT_CLASSは、インデックス化されたエンティティーのクラスを返します。 -
FullTextQuery.SCOREは、クエリーのドキュメントスコアを返します。スコアを使用して、指定のクエリーの結果の 1 つを他の結果と比較します。スコアは異なる 2 つのクエリーの結果を比較するためのものではありません。 -
FullTextQuery.IDは、射影されたオブジェクトの ID プロパティー値です。 -
FullTextQuery.DOCUMENT_IDは Lucene ドキュメント ID です。Lucene ドキュメント ID は開かれる 2 つの IndexReader の間で変更されます。 -
FullTextQuery.EXPLANATIONは、クエリーの一致するオブジェクト/ドキュメントに対して Lucene Explanation オブジェクトを返します。これは、大量のデータの取得には適していません。FullTextQuery.EXPLANATIONの実行コストは、一致する各要素に対して Lucene クエリーを実行するのに匹敵します。そのため、射影が推奨されます。
20.2.4.5. クエリー時間の制限 リンクのコピーリンクがクリップボードにコピーされました!
次のように、Infinispan Query でクエリーが要する時間を制限します。
- 制限に達したら例外を発生します。
- 時間制限に達したら取得された結果の数を制限します。
20.2.4.6. 時間制限での例外の発生 リンクのコピーリンクがクリップボードにコピーされました!
定義された時間を超えてクエリーが実行される場合に発生する、カスタム例外を定義できます。
CacheQuery API の使用時に制限を定義するには、以下の方法を使用します。
クエリー実行でのタイムアウトの定義
getResultSize()、iterate()、および scroll() はメソッド呼び出しが終了するまでタイムアウトを考慮します。そのため、Iterable または ScrollableResults はタイムアウトを無視します。さらに、explain() はこのタイムアウト期間を考慮しません。このメソッドは、デバッグやクエリーのパフォーマンスが遅い理由をチェックするために使用されます。
サンプルコードは、クエリーが指定された結果の値で停止することを保証しません。
20.3. 結果の読み出し リンクのコピーリンクがクリップボードにコピーされました!
20.3.1. 結果の読み出し リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query は構築後に HQL や Criteria クエリーと同様に実行できます。同じパラダイムとオブジェクトセマンティックが Lucene クエリーおよび list() などの一般的な操作すべてに適用されます。
20.3.2. パフォーマンスに関する注意点 リンクのコピーリンクがクリップボードにコピーされました!
list() を使用すると妥当な数の結果を受信し (たとえば、ページネーションを使用する場合など)、すべてに対応することができます。 list() は batch-size エンティティーが適切に設定されている場合に最適に動作します。list() が使用されると、クエリーモジュールはページネーション内ですべての Lucene Hits 要素を処理します。
20.3.3. 結果サイズ リンクのコピーリンクがクリップボードにコピーされました!
ユースケースによっては、一致するドキュメントの合計数に関する情報が必要になります。以下の例について考えてみましょう。
一致するドキュメントをすべて読み出すには大量のリソースを消費します。Lucene ベースのクエリー API は、ページネーションのパラメーターに関係なく、一致するドキュメントをすべて読み出します。一致するドキュメントをすべて読み出すには大量のリソースが必要であるため、Lucene ベースのクエリー API はページネーションのパラメーターに関係なく、一致するドキュメントの合計数を読み出しできます。一致するすべての要素は、オブジェクトのロードを発生せずに読み出されます。
クエリーの結果サイズの決定
インデックスが適切にデータベースと同期されていない場合、結果の数は近似値になります。この場合の例の 1 つとして非同期クラスターが挙げられます。
20.3.4. 結果の理解 リンクのコピーリンクがクリップボードにコピーされました!
Luke を使用すると、想定されるクエリー結果で結果が表示される (または表示されない) 理由を判断できます。また、クエリーモジュールは指定の結果 (指定のクエリーの) に対する Lucene Explanation オブジェクトも提供します。 これは上級クラスです。次のように Explanation オブジェクトにアクセスします。
cacheQuery.explain(int) メソッド
このメソッドでは、パラメーターとするドキュメント ID が必要で、Explanation オブジェクトを返します。
explanation オブジェクトの構築は、Lucene クエリーの実行と同様にリソースを大量に消費します。実装で必要になる場合のみ、explanation オブジェクトを構築してください。
20.4. フィルター リンクのコピーリンクがクリップボードにコピーされました!
20.4.1. フィルター リンクのコピーリンクがクリップボードにコピーされました!
Apache Lucene は、カスタムのフィルター処理に従ってクエリーの結果をフィルターすることができます。これは、フィルターをキャッシュおよび再使用できるため、データの制限を追加で適用する強力な方法です。該当するユースケースには以下が含まれます。
- セキュリティー
- 一時データ (例: 閲覧専用の先月のデータ)
- 入力 (population) フィルター (例: 指定のカテゴリーに限定される検索)
- その他多くのユースケース
20.4.2. フィルターの定義および実装 リンクのコピーリンクがクリップボードにコピーされました!
Lucene ベースのクエリー API には、パラメーターが含まれる filters という名前の透過キャッシュが含まれます。この API は Hibernate Core フィルターと似ています。
クエリーに対するフルテキストフィルターの有効化
cacheQuery = Search.getSearchManager(cache).getQuery(query, Driver.class);
cacheQuery.enableFullTextFilter("bestDriver");
cacheQuery.enableFullTextFilter("security").setParameter("login", "andre");
cacheQuery.list(); //returns only best drivers where andre has credentials
cacheQuery = Search.getSearchManager(cache).getQuery(query, Driver.class);
cacheQuery.enableFullTextFilter("bestDriver");
cacheQuery.enableFullTextFilter("security").setParameter("login", "andre");
cacheQuery.list(); //returns only best drivers where andre has credentials
この例では、クエリーで 2 つのフィルターが有効になっています。フィルターを有効または無効にしてクエリーをカスタマイズします。
@FullTextFilterDef アノテーションを使用してフィルターを宣言します。このアノテーションは、フィルターのクエリーに関係なく @Indexed エンティティーに適用されます。フィルター定義はグローバルであるため、各フィルターに一意な名前を付ける必要があります。同じ名前を持つ 2 つの @FullTextFilterDef アノテーションが定義された場合、SearchException が発生します。名前の付いた各フィルターにはそのフィルター実装を指定する必要があります。
フィルターの定義および実装
@FullTextFilterDefs({
@FullTextFilterDef(name = "bestDriver", impl = BestDriversFilter.class),
@FullTextFilterDef(name = "security", impl = SecurityFilterFactory.class)
})
public class Driver { ... }
@FullTextFilterDefs({
@FullTextFilterDef(name = "bestDriver", impl = BestDriversFilter.class),
@FullTextFilterDef(name = "security", impl = SecurityFilterFactory.class)
})
public class Driver { ... }
BestDriversFilter はドライバーへの結果セットを減らす Lucene フィルターで、スコアは 5 になります。この例では、フィルターは直接 org.apache.lucene.search.Filter を実装し、引数がないコンストラクターが含まれます。
20.4.3. @Factory フィルター リンクのコピーリンクがクリップボードにコピーされました!
フィルターの作成に追加の手順が必要であったり、フィルターに引数がないコンストラクターがない場合は、以下のファクトリーパターンを使用します。
ファクトリーパターンを使用したフィルターの作成
Lucene ベースのクエリー API は @Factory アノテーションが付いたメソッドを使用してフィルターインスタンスを構築します。ファクトリーには引数がないコンストラクターが含まれる必要があります。
名前付きフィルターは、パラメーターをフィルターに渡す必要がある場合に便利です。たとえば、セキュリティーフィルターが、適用するセキュリティーレベルを認識する場合を考えてみます。
パラメーターを定義されたフィルターに渡す
cacheQuery = Search.getSearchManager(cache).getQuery(query, Driver.class);
cacheQuery.enableFullTextFilter("security").setParameter("level", 5);
cacheQuery = Search.getSearchManager(cache).getQuery(query, Driver.class);
cacheQuery.enableFullTextFilter("security").setParameter("level", 5);
対象となる名前付きフィルター定義のフィルターまたはフィルターファクトリーのいずれかで、関連付けられたセッターが各パラメーターに含まれる必要があります。
実際のフィルター実装でのパラメーターの使用
@Key アノテーションの付いたメソッドは FilterKey オブジェクトを返します。返されたオブジェクトには特別なコントラクトがあります。キーオブジェクトは equals() / hashCode() を実装して、特定の Filter タイプが同じでパラメーターのセットが同じ場合でのみ 2 つのキーが等しくなるようにします。つまり、キーが生成されるフィルターが交換可能な場合のみ 2 つのフィルターキーは等しくなります。キーオブジェクトはキャッシュメカニズムでキーとして使用されます。
20.4.4. キーオブジェクト リンクのコピーリンクがクリップボードにコピーされました!
@Key メソッドは以下の場合のみ必要です。
- フィルターキャッシュシステムが有効である (デフォルトで有効)
- フィルターにパラメーターが含まれる
StandardFilterKey は equals() / hashCode() 実装をパラメーター equals および hashcode メソッドに委譲します。
定義されたフィルターはデフォルトでキャッシュされ、キャッシュはハード参照とソフト参照の組み合わせを使用して必要な場合にメモリーの破棄を許可します。ハード参照キャッシュは最後に使用されたフィルターを追跡し、使用頻度が最も低いフィルターを必要に応じて SoftReferences に変換します。ハード参照キャッシュの制限に達すると、追加のフィルターは SoftReferencesと してキャッシュされます。ハード参照キャッシュのサイズを調整するには、 default.filter.cache_strategy.size (デフォルト値は 128) を使用します。フィルターキャッシュの高度な使用については、独自の FilterCachingStrategy を実装してください。クラス名は default.filter.cache_strategy によって定義されます。
このフィルターキャッシュメカニズムを実際のフィルター結果と混同しないでください。Lucene では、CachingWrapperFilter に IndexReader を使用してフィルターをラップすることが一般的です。このラッパーは、コストがかかる再計算を回避するために getDocIdSet(IndexReader reader) メソッドから返された DocIdSet をキャッシュします。リーダーは開いたときのインデックスの状態を表すため、計算される DocIdSet は同じ IndexReader インスタンスに対してのみキャッシュできることに注意してください。ドキュメントリストは開いた IndexReader 内で変更できません。ただし、別または新しい IndexReader インスタンスが Document の別のセット (別のインデックスのもの、またはインデックスが変更されたため) で動作することがあります。この場合、キャッシュされた DocIdSet は再計算する必要があります。
20.4.5. フルテキストフィルター リンクのコピーリンクがクリップボードにコピーされました!
Lucene ベースのクエリー API は @FullTextFilterDef の cache フラグを使用し、FilterCacheModeType.INSTANCE_AND_DOCIDSETRESULTS に設定します。これは、フィルターインスタンスを自動的にキャッシュし、CachingWrapperFilter の Hibernate 固有の実装にフィルターをラッピングします。Lucene バージョンのこのクラスとは異なり、 SoftReference はハード参照数 (フィルターキャッシュに関する説明を参照) とともに使用されます。ハード参照数は、default.filter.cache_docidresults.size を使用して調整できます (デフォルト値は 5)。ラッピングは @FullTextFilterDef.cache パラメーターを使用して調整されます。このパラメーターには以下の 3 つの値があります。
| Value | 定義 |
|---|---|
|
FilterCacheModeType.NONE |
フィルターインスタンスなしと結果なしは Hibernate Search によってキャッシュされます。フィルターの呼び出しごとに、新しいフィルターインスタンスが作成されます。この設定は、頻繁に変更するデータやメモリーの制約が大きい環境に役に立つことがあります。 |
|
FilterCacheModeType.INSTANCE_ONLY |
フィルターインスタンスはキャッシュされ、同時 |
|
FilterCacheModeType.INSTANCE_AND_DOCIDSETRESULTS |
フィルターインスタンスの結果と |
フィルターは次の状況でキャッシュされる必要があります。
- システムが対象となるエンティティーインデックスを頻繁に更新しない (つまり、IndexReader が頻繁に再利用される)
- フィルターの DocIdSet の計算のコストが高い (クエリーを実行するのにかかる時間と比較して)
20.4.6. シャード化された環境におけるフィルターの使用 リンクのコピーリンクがクリップボードにコピーされました!
シャード化された環境にて、利用可能なシャードのサブセットでクエリーを実行するには、以下の手順にしたがいます。
-
フィルター設定に応じて
IndexManagerのサブセットを選択するため、シャードストラテジーを作成します。 - クエリーの実行時にフィルターをアクティベートします。
以下は、customer フィルターがアクティベートされた場合に特定のシャードをクエリーするシャードストラテジーの例になります。
特定シャードのクエリー
この例では、customer フィルターが存在する場合、クエリーはカスタマー専用のシャードのみを使用します。customer フィルターが見つからない場合は、クエリーはすべてのシャードを返します。シャードストラテジーは提供されたパラメーターに応じて各フィルターに反応します。
クエリーの実行が必要なときに、フィルターをアクティベートします。フィルターは、クエリーの後に Lucene の結果をフィルターする通常のフィルターです (「フィルター」にて定義)。この代わりに、シャードストラテジーに渡され、クエリーの実行中は無視される特別なフィルターを使用できます。ShardSensitiveOnlyFilter クラスを使用してそのフィルターを宣言します。
ShardSensitiveOnlyFilter クラスの使用
ShardSensitiveOnlyFilter フィルターが使用される場合、Lucene フィルターを実装する必要はありません。これらのフィルターに反応するフィルターとシャードストラテジーを使用して、シャード化された環境でクエリーを迅速に実行します。
20.5. 継続的クエリー リンクのコピーリンクがクリップボードにコピーされました!
20.5.1. 継続的クエリー リンクのコピーリンクがクリップボードにコピーされました!
継続的クエリーは、アプリケーションが現在クエリーと一致するエントリーを受信できるようにし、クエリーされたデータセットへの変更が継続して通知されるようにします。これには、追加のキャッシュ操作による、受信の一致 (セットに参加した値に対する) と送信の一致 (セットから離脱した値に対する) の両方が含まれます。継続的なクエリーを使用すると、アプリケーションは安定してイベントを受信するため、変更を発見するために同じクエリーを繰り返し実行しません。そのため、リソースをより効率的に使用できます。
たとえば、以下のユースケースはすべて継続的なクエリーを利用できます。
-
年齢が 18 歳から 25 歳までの人を全員返します (
Personエンティティーにageプロパティーがあり、ユーザーアプリケーションによって更新されることを前提とします)。 - $2000 を超える取引をすべて返します。
-
1:45.00s 未満である F1 レーサーのラップタイムをすべて返します (キャッシュに
Lapエントリーが含まれ、レース中にラップタイムがリアルタイムで入力されることを前提とします)。
20.5.2. 継続的クエリーの評価 リンクのコピーリンクがクリップボードにコピーされました!
継続的クエリーは以下の場合に通知を受け取るリスナーを使用します。
-
エントリーが指定クエリーの一致を開始したとき。
Joinイベントによって表されます。 -
エントリーが指定クエリーの一致を停止したとき。
Leaveイベントによって表されます。
クライアントが継続的クエリーリスナーを登録した直後、現在クエリーと一致する結果の受信が開始されます。前述のとおり、これは Join イベントとして受信されます。さらに、通常は creation、modification、removal、または expiration イベントを生成するキャッシュ操作の結果として、他のエントリーがクエリーに一致すると、Join イベントとして後続の通知も受信され、クエリーの一致が停止されると Leave イベントとして受信されます。
リスナーが Join または Leave イベントを受信するかを判断するため、以下の論理が使用されます。
- 新旧両方の値でクエリーが false と評価された場合、イベントは抑制されます。
- 新旧両方の値でクエリーが true と評価された場合、イベントは抑制されます。
-
古い値でクエリーが false と評価され、新しい値でクエリーが true と評価された場合、
Joinイベントが送信されます。 -
古い値でクエリーが true と評価され、新しい値でクエリーが false と評価された場合、
Leaveイベントが送信されます。 -
古い値でクエリーが true と評価され、エントリーが削除された場合、
Leaveイベントが送信されます。
継続的クエリーはグループ化、集計、およびソート操作を使用できません。
20.5.3. 継続的クエリーの使用 リンクのコピーリンクがクリップボードにコピーされました!
以下の手順は、ライブラリーモードとリモートクライアントサーバーモードの両方に適用されます。
継続的クエリーの追加
継続的クエリーを作成するため、他のクエリーメソッドと同様に Query オブジェクトが作成されますが、Query が org.infinispan.query.api.continuous.ContinuousQuery と登録されるようにし、org.infinispan.query.api.continuous.ContinuousQueryListener が使用されているようにしてください。
キャッシュに関連付けられた ContinuousQuery オブジェクトを取得するには、クライアントサーバーモードで実行している場合は静的メソッド org.infinispan.client.hotrod.Search.getContinuousQuery(RemoteCache<K, V> cache) を呼び出し、ライブラリーモードで実行している場合は org.infinispan.query.Search.getContinuousQuery(Cache<K, V> cache) を呼び出します。
ContinuousQueryListener が定義されたら、ContinuousQuery の addContinuousQueryListener メソッドを使用して追加できます。
continuousQuery.addContinuousQueryListener(query, listener)
continuousQuery.addContinuousQueryListener(query, listener)
以下の例は、ライブラリーモードで継続的クエリーを実装および追加する簡単なメソッドを表しています。
継続的クエリーの定義および追加
Person インスタンスが 21 未満の Age が含まれるキャッシュへ追加されると matches に配置されます。これらのエントリーがキャッシュから削除されると、matches からも削除されます。
継続的クエリーの削除
クエリーの実行を停止するには、リスナーを削除します。
continuousQuery.removeContinuousQueryListener(listener);
continuousQuery.removeContinuousQueryListener(listener);
20.5.4. C++ および C# の継続的クエリー リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid はネイティブの Java ベースの継続的クエリーの他に、C++ および C# ベースの継続的クエリーもサポートします。
20.5.4.1. C++ 継続的クエリー リンクのコピーリンクがクリップボードにコピーされました!
C++ 継続的クエリーは以下のコードを使用して設定できます。
C++ 継続的クエリーのセットアップ
C++ 継続的クエリーは以下のコードを使用して削除できます。
C++ 継続的クエリーの削除
20.5.4.2. C# 継続的クエリー リンクのコピーリンクがクリップボードにコピーされました!
C# 継続的クエリーは以下のコードを使用して設定できます。
C# 継続的クエリーのセットアップ
C# 継続的クエリーは以下のコードを使用して削除できます。
C# 継続的クエリーの削除
20.5.5. 継続的クエリーでのパフォーマンスに関する注意点 リンクのコピーリンクがクリップボードにコピーされました!
継続的クエリーは、アプリケーションが常に最新の状態を保持するよう設計されているため、特に広範囲のクエリーに対して生成されたイベントの数が多くなる可能性があります。さらに、各イベントに対して新たにメモリーが割り当てられます。注意してクエリーを作成しないと、この挙動が原因でメモリーの負荷が発生し、エラーなどを引き起こす可能性があります。
この問題を防ぐため、各クエリーには必要な情報のみを指定し、各 ContinuousQueryListener が受信したすべてのイベントを迅速に処理できるようにすることが強く推奨されます。
20.6. ブロードキャストクエリー リンクのコピーリンクがクリップボードにコピーされました!
20.6.1. ブロードキャストクエリー リンクのコピーリンクがクリップボードにコピーされました!
ブロードキャストクエリー機能は、各ノードが書き込み中に独自のデータをインデックス化し、クエリー時に各ノードにクエリーを送信 (ブロードキャスト) できるようにします。各ノードの結果は、呼び出し元に返される前に組み合わされます。これは、転送されるデータの量はクエリー自体と結果であるため、大きなインデックスを持つ DIST キャッシュに適しています。
20.6.1.1. ブロードキャストクエリーの使用 リンクのコピーリンクがクリップボードにコピーされました!
ブロードキャストクエリーを使用するには、IndexedQueryMode.BROADCAST が引数としてクエリーに含まれるようにします。この例を以下に示します。
CacheQuery<Person> broadcastQuery = Search.getSearchManager(cache).getQuery(new MatchAllDocsQuery(), IndexedQueryMode.BROADCAST); List<Person> result = broadcastQuery.list();
CacheQuery<Person> broadcastQuery = Search.getSearchManager(cache).getQuery(new MatchAllDocsQuery(), IndexedQueryMode.BROADCAST);
List<Person> result = broadcastQuery.list();
第21章 Infinispan Query DSL リンクのコピーリンクがクリップボードにコピーされました!
21.1. Infinispan Query DSL リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query DSL はキャッシュをクエリーするための統一された方法を提供します。これは、ライブラリーモードでインデックス化されたクエリーとインデックスのないクエリーの両方に使用でき、リモートクエリー (Hot Rod Java クライアントを経由) にも使用できます。Infinispan Query DSL では、Lucene ネイティブクエリー API や Hibernate Search クエリー API に依存せずにクエリーを実行できます。
Infinispan Query DSL では、インデックスのないクエリーは JBoss Data Grid リモートおよび埋め込みモードでのみ利用できます。インデックスのないクエリーには設定されたインデックス (「Infinispan Query DSL ベースのクエリー」を参照) は必要ありません。Hibenrate Search や Lucene ベースの API はインデックスのないクエリーを使用できません。
21.2. Infinispan Query DSL を用いたクエリーの作成 リンクのコピーリンクがクリップボードにコピーされました!
新しいクエリー API は org.infinispan.query.dsl パッケージにあります。クエリーは、Search.getQueryFactory() を使用して取得される QueryFactory インスタンスを利用して作成されます。各 QueryFactory インスタンスは 1 つのキャッシュインスタンスにバインドされ、複数の並列クエリーを作成する場合に使用できるステートレスでスレッドセーフなオブジェクトです。
Infinispan Query DSL は以下の手順にしたがってクエリーを実行します。
-
クエリーは
from(Class entityType)メソッドを呼び出して作成されます。これは、特定のキャッシュから指定のエンティティークラスのクエリーを作成するQueryBuilderオブジェクトを返します。 -
QueryBuilderは、DSL メソッドを呼び出して指定される検索基準と設定を累積します。また、構築を完了するQueryBuilder.build()メソッドを呼び出してQueryオブジェクトを構築するために使用されます。QueryBuilderオブジェクトを使用して、入れ子のクエリー以外の複数のクエリーを同時に構築することはできませんが、後で再使用することができます。 -
Queryオブジェクトのlist()メソッドを呼び出してクエリーを実行し、結果を取得します。実行するとQueryオブジェクトは再使用できなくなります。新しい結果を取得する必要がある場合は、QueryBuilder.build()を呼び出して新しいインスタンスを取得します。
クエリーは単一のエンティティー型を対象とし、単一キャッシュの内容全体で評価されます。複数キャッシュでのクエリーの実行や、複数のエンティティー型を対象とするクエリーの作成はサポートされません。
21.3. Infinispan Query DSL ベースのクエリーの有効化 リンクのコピーリンクがクリップボードにコピーされました!
ライブラリーモードでは、Infinispan Query DSL ベースのクエリーの実行は Lucene ベースの API クエリーの実行とほぼ同じです。前提条件は次のとおりです。
- Infinispan Query に必要なすべてのライブラリーがクラスパスにある。詳細は 『Administration and Configuration Guide』を参照してください。
- インデックス化が有効で、キャッシュに対して設定されている (任意)。詳細は、『Administration and Configuration Guide』を参照してください。
- アノテーションが付いた POJO キャッシュ値 (任意)。インデックス化が有効になっていない場合は POJO アノテーションは必要なく、設定されている場合は無視されます。インデックス化が有効になっていない場合、Hibernate Search のアノテーションが付いたフィールドのみではなく、JavaBeans の慣例にしたがうフィールドすべてが検索可能になります。
21.4. Infinispan Query DSL ベースのクエリーの実行 リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query DSL ベースのクエリーが有効になったら、DSL ベースのクエリーを実行するために Search から QueryFactory を取得します。
キャッシュの QueryFactory の取得
ライブラリーモードで、以下のように QueryFactory を取得します。
QueryFactory qf = org.infinispan.query.Search.getQueryFactory(cache)
QueryFactory qf = org.infinispan.query.Search.getQueryFactory(cache)
DSL ベースのクエリーの構築
リモートクエリーをリモートクライアントサーバーモードで使用する場合、Search は org.infinispan.client.hotrod パッケージにあります。詳細は 「Hot Rod Java クライアント経由のリモートクエリーの実行」の例を参照してください。
複数の条件 (サブ条件を含む) をブール値演算子と組み合わせることも可能です。
複数条件の組み合わせ
このクエリー API は、ユーザーに Lucene クエリーオブジェクト構築の詳細内容を公開しないことで、クエリーの作成方法を簡素化します。また、リモート Hot Rod クライアントが利用できる利点もあります。
以下の例は、Book エンティティーのクエリーの書き方を示しています。
Book エンティティーのクエリー
21.5. 射影クエリー リンクのコピーリンクがクリップボードにコピーされました!
多くの場合で、完全なドメインオブジェクトを返す必要はなく、アプリケーションには属性の小さなサブセットのみが必要になります。射影クエリーでは、属性 (または属性のパス) の特定のサブセットを返すことができます。射影クエリーが使用されると、Query.list() はドメインエンティティー全体 (List<Object>) を返さずに、アレイの各エントリーが射影された属性に対応する List<Object[]> を返します。
射影クエリーを定義するには、以下の例のようにクエリーの構築時に select(…) メソッドを使用します。
書名と発行年の取得
21.6. グループ化および集約操作 リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query DSL には、グループ化フィールドのセットを基にしてクエリー結果をグループ化する機能や、値のセットに集約関数を適用して各グループからの結果の集約を構築する機能があります。グループ化と集約は、射影クエリーとのみ使用できます。
グループ化フィールドのセットは、groupBy(field) メソッドを複数回呼び出して指定されます。グループ化フィールドの順番は関係ありません。
射影で選択されたすべての非グループ化フィールドは、以下に説明するグループ化関数の 1 つを使用して集約する必要があります。
著者による本のグループ化とその冊数
集約操作
以下の集約操作を指定のフィールドで実行できます。
-
avg()-Numberのセットの平均を算出し、Doubleとして表します。null 以外の値がない場合、結果は null になります。 -
count()- null でない行の数をLongとして返します。null 以外の値がない場合、結果は 0 になります。 max()- 指定のフィールドで見つかった最も大きな値と、適用されたフィールドと同じ戻り値の型を返します。null 以外の値がない場合は、結果は null になります。注記指定のフィールドの値は、
Comparable型である必要があります。そうでないとIllegalStateExceptionが発生します。min()- 指定のフィールドで見つかった最も小さな値と、適用されたフィールドと同じ戻り値の型を返します。null 以外の値がない場合は、結果は null になります。注記指定のフィールドの値は、
Comparable型である必要があります。そうでないとIllegalStateExceptionが発生します。sum()-Numberのセットの合計を算出し、返します。戻り値の型は指定のフィールド型によります。null で以外の値がない場合、結果は null になります。以下の表は、指定のフィールドを基にした戻り値の型を表しています。
Expand 表21.1 戻り値の型の合計 フィールド型 戻り値の型 Integral (
BigInteger以外)LongFloating Point
DoubleBigIntegerBigIntegerBigDecimalBigDecimal
射影クエリーの特別なケース
射影クエリーでは、以下のケースは特別なユースケースとなります。
- 選択されたフィールドがすべて集約され、グループ化に何も使用されないことが適切である射影クエリー。この場合、集約はグループごとに算出されず、グローバルに算出されます。
- フィールドのグループ化を集約で使用できる。これは、集約が単一のデータポイント上で算出され、値が現在のグループに属する退化したケースになります。
- グループ化フィールドのみを選択し、集約フィールドは選択しないことが適切であるクエリー。
グループ化および集約クエリーの評価
通常のクエリーのように、集約クエリーにフィルター条件を含めることができます。これは、任意でグループ化操作の前後に実行できます。
groupBy メソッドの呼び出し前に指定されたすべてのフィルター条件は、グループ化操作の実行前に直接キャッシュエントリーに適用されます。これらのフィルター条件は、クエリーされたエンティティー型のプロパティーを参照することがあり、後でグループ化に使用されるデータセットを制限するためのものです。
groupBy メソッドの呼び出し後に指定されたすべてのフィルター条件は、グループ化操作によって生じる射影に適用されます。これらのフィルター条件は、 groupBy によって指定されたフィールドまたは集約フィールドを参照できます。select 句に指定されていない集約フィールドの参照は許可されますが、非集約フィールドや非グループ化フィールドの参照は禁止されます。このフェーズをフィルターすると、プロパティーを基にしてグループの数が削減されます。
順序付けも通常のクエリーと同様に指定できます。順序付け操作はグループ化操作の後に実行され、前述のとおりグループ化後のフィルターによって許可されるフィールドを参照できます。
21.7. 名前付きパラメーターの使用 リンクのコピーリンクがクリップボードにコピーされました!
各リクエストに新しいクエリーを作成する代わりに、各実行で置き換えられるパラメーターを含むことが可能です。これにより、クエリーを 1 度に定義でき、必要時にクエリーの変数を調整できます。
having(…) の比較演算子の右側に Expression.param(…) 演算子を使用すると、クエリーの作成時パラメーターが定義されます。
名前付きパラメーターの定義
名前付きパラメーターの値設定
デフォルトでは、宣言されたパラメーターはすべて null となり、クエリーの実行前に定義されたすべてのパラメーターを null でない値に更新する必要があります。パラメーターの宣言後、クエリーで新しい値を指定して setParameter(parameterName, value) または setParameters(parameterMap) を呼び出すと値を更新することができます。また、クエリーを再構築する必要はありません。新しいパラメーターが定義された後に再度実行することができます。
パラメーターを個別に更新
パラメーターのマップとして更新
第22章 Ickle クエリー言語を使用したクエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
22.1. Ickle クエリー言語を使用したクエリーの構築 リンクのコピーリンクがクリップボードにコピーされました!
フルテキスト拡張を持つ JP-QL の軽量小型のサブセットである Ickle を使用すると、ライブラリーモードとリモートクライアントサーバーモードの両方でリレーショナルおよびフルテキストクエリーを作成することができます。Ickleは文字別ベースのクエリー言語で、以下の特徴があります。
- Java クラスをクエリーし、Protocol Buffers をサポートします。
- クエリーは単一のエンティティー型を対象にすることができます。
- クエリーはコレクションを含む、埋め込みオブジェクトのプロパティーでフィルターできます。
- 射影、集約、ソート、名前付きパラメーターをサポートします。
- インデックス化された実行とインデックス化されていない実行をサポートします。
- 複雑なブール式をサポートします。
- フルテキストクエリーをサポートします。
-
user.age > sqrt(user.shoeSize+3)など、式の中での計算はサポートしません。 - 結合をサポートしません。
- サブクエリーをサポートしません。
-
多くの JBoss Data Grid API でサポートされます。継続的クエリーやリスナーのイベントフィルターなど、
QueryBuilderによって作成されたクエリーは許可されます。
API を使用するには、最初に QueryFactory をキャッシュで取得し、.create() メソッドを呼び出してクエリーで使用する文字列を渡します。以下に例を示します。
QueryFactory qf = Search.getQueryFactory(remoteCache);
Query q = qf.create("from sample_bank_account.Transaction where amount > 20");
QueryFactory qf = Search.getQueryFactory(remoteCache);
Query q = qf.create("from sample_bank_account.Transaction where amount > 20");
Ickle を使用する場合、フルテキスト演算子と使用されるすべてのフィールドはインデックス化され、分析される必要があります。
22.2. Lucene クエリーパーサー構文との違い リンクのコピーリンクがクリップボードにコピーされました!
Ickle は JP-QL のサブセットですが、クエリー構文に以下の違いがあります。
- 空白は重要ではありません。
- フィールド名のワイルドカードをサポートしません。
- デフォルトのフィールドがないため、フィールド名またはパスを常に指定する必要があります。
-
フルテキストおよび JPA 述語では、
ANDとORの代わりに&&と||が許可されます。 -
NOTの代わりに!を使用できます。 -
見つからないブール演算子は
ORとして解釈されます。 - 文字列の単語を一重引用符または二重引用符のいずれかで囲む必要があります。
- ファジーとブーストは任意の順番では許可されません。常にファジーが最初になります。
-
<>の代わりに!=が許可されます。 -
ブーストは
>、>=、<、および⇐演算子には適用できません。範囲を使用すると同じ結果を得られます
22.3. ファジークエリー リンクのコピーリンクがクリップボードにコピーされました!
ファジークエリーを実行するには、単語の後に ~ と、単語からの距離を表す整数を追加します。例を以下に示します。
Query fuzzyQuery = qf.create("from sample_bank_account.Transaction where description : 'cofee'~2");
Query fuzzyQuery = qf.create("from sample_bank_account.Transaction where description : 'cofee'~2");
22.4. 範囲クエリー リンクのコピーリンクがクリップボードにコピーされました!
範囲クエリーを実行するには、以下の例のように境界を角括弧で囲んで定義します。
Query rangeQuery = qf.create("from sample_bank_account.Transaction where amount : [20 to 50]");
Query rangeQuery = qf.create("from sample_bank_account.Transaction where amount : [20 to 50]");
22.5. フレーズクエリー リンクのコピーリンクがクリップボードにコピーされました!
単語の組み合わせを検索するには、以下の例のように引用符で囲みます。
Query q = qf.create("from sample_bank_account.Transaction where description : 'bus fare'");
Query q = qf.create("from sample_bank_account.Transaction where description : 'bus fare'");
22.6. 近接クエリー リンクのコピーリンクがクリップボードにコピーされました!
近接クエリーを実行し、特定の距離内にある 2 つの単語を見つけるには、それらの言葉の後に ~ とその距離を追加します。たとえば以下の例では、間に 3 つ以下の言葉が存在する canceling および fee を見つけます。
Query proximityQuery = qf.create("from sample_bank_account.Transaction where description : 'canceling fee'~3 ");
Query proximityQuery = qf.create("from sample_bank_account.Transaction where description : 'canceling fee'~3 ");
22.7. ワイルドカードクエリー リンクのコピーリンクがクリップボードにコピーされました!
単一文字および複数文字のワイルドカード検索を実行できます。
- 単一文字のワイルドカード検索には ? 文字を使用できます。
- 複数文字のワイルドカード検索には * 文字を使用できます。
text または test を検索するには、以下のように単一文字のワイルドカード検索を使用できます。
Query wildcardQuery = qf.create("from sample_bank_account.Transaction where description : 'te?t'");
Query wildcardQuery = qf.create("from sample_bank_account.Transaction where description : 'te?t'");
test、tests、または tester を検索するには、以下のように複数文字のワイルドカード検索を使用できます。
Query wildcardQuery = qf.create("from sample_bank_account.Transaction where description : 'test*'");
Query wildcardQuery = qf.create("from sample_bank_account.Transaction where description : 'test*'");
22.8. 正規表現クエリー リンクのコピーリンクがクリップボードにコピーされました!
正規表現クエリーを実行するには、/ の間にパターンを指定します。Ickle は Lucene の正規表現構文を使用するため、以下を使用して moat または boat を検索できます。
Query regExpQuery = qf.create("from sample_library.Book where title : /[mb]oat/");
Query regExpQuery = qf.create("from sample_library.Book where title : /[mb]oat/");
22.9. ブーストクエリー リンクのコピーリンクがクリップボードにコピーされました!
単語の後に ^ を追加し、クエリーでの関連度を高めると、単語をブーストすることができます。ブースト係数が高いほど単語の関連度も高くなります。たとえば、beer と wine が含まれる書名を検索し、beer の係数が 3 大きい場合、以下を使用できます。
Query boostedQuery = qf.create("from sample_library.Book where title : beer^3 OR wine");
Query boostedQuery = qf.create("from sample_library.Book where title : beer^3 OR wine");
第23章 リモートクエリー リンクのコピーリンクがクリップボードにコピーされました!
23.1. リモートクエリー リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Gird の Hot Rod プロトコルは、 Infinispan Query Domain-specific Language (DSL)または Ickle (JP-QL のサブセット) のいずれかを使用して、リモートの言語中立のクエリーを実現します。どちらを使用した場合でも、リモートの言語中立のクエリーを実行でき、Hot Rod クライアントで現在使用可能なすべての言語に実装できます。
Infinispan Query Domain-specific Language (DSL)
JBoss Data Grid は、内部の DSL を基に独自のクエリー言語を使用します。Infinispan DSL は簡単にクエリーを作成できる方法を提供し、基盤のクエリーメカニズムには依存しません。Infinispan Aquery DSL の詳細情報は「Infinispan Query DSL」を参照してください。
Ickle
Ickle は、フルテキストおよびリレーショナル検索を実行できる文字別ベースのクエリー言語です。Ickleの詳細は、「Building a Query using Ickle, the JP-QL API」を参照してください。
Protobuf エンコーディング
Google の Protocol Buffers は、データの保存およびクエリーのエンコーディング形式として使用されます。Infinispan Query DSL は、Protobuf マーシャラーを使用するよう設定された Hot Rod クライアント経由でリモートで使用できます。Protocol Buffers は、キャッシュエントリーの保存とマーシャリングの共通形式を採用するために使用されます。保存されたエンティティーのインデックス化およびクエリーが必要なリモートクライアントは、Protobuf エンコーディング形式を使用する必要があります。また、インデックス化が必要でない場合はインデックス化を有効にせずにプラットフォームの独立性を確保して Protobuf エンティティーを保存することも可能です。
23.2. クエリーの比較 リンクのコピーリンクがクリップボードにコピーされました!
ライブラリーモードでは、Lucene クエリーベースのクエリーと DSL クエリーの両方を利用できます。リモートクライアントサーバーモードでは、DSL を使用したリモートクエリーのみを使用できます。以下の表は、Lucene クエリーベースのクエリー、Infinispan Query DSL、およびリモートクエリーを比較しています。
| 機能 | ライブラリーモード/Lucene クエリー | ライブラリーモード/DSL クエリー | リモートクライアントサーバーモード/DSL クエリー | ライブラリーモード/Ickle クエリー | リモートクライアントサーバーモード/Ickle クエリー |
|---|---|---|---|---|---|
|
インデックス化 |
必須 |
任意、しかし強く推奨 |
任意、しかし強く推奨 |
任意、しかし強く推奨 |
任意、しかし強く推奨 |
|
インデックスの内容 |
選択されたフィールド |
選択されたフィールド |
選択されたフィールド |
選択されたフィールド |
選択されたフィールド |
|
データストレージ形式 |
Java オブジェクト |
Java オブジェクト |
Protocol Buffers |
Java オブジェクト |
Protocol Buffers |
|
キーワードクエリー |
可 |
不可 |
不可 |
可 |
可 |
|
範囲クエリー |
可 |
可 |
可 |
可 |
可 |
|
ファジークエリー |
可 |
不可 |
不可 |
可 |
可 |
|
ワイルドカード |
可 |
like クエリーに限定 (JPA ルールに従うワイルドカードパターンと一致) |
like クエリーに限定 (JPA ルールに従うワイルドカードパターンと一致) |
可 |
可 |
|
フレーズクエリー |
可 |
不可 |
不可 |
可 |
可 |
|
クエリーの組み合わせ |
AND、OR、NOT、SHOULD |
AND、OR、NOT |
AND、OR、NOT |
AND、OR、NOT |
AND、OR、NOT |
|
結果のソート |
可 |
可 |
可 |
可 |
可 |
|
結果のフィルター |
可 (クエリー内および先頭に追加された演算子) |
クエリー内 |
クエリー内 |
クエリー内 |
クエリー内 |
|
結果のページネーション |
可 |
可 |
可 |
可 |
可 |
|
継続的クエリー |
不可 |
可 |
可 |
不可 |
不可 |
|
クエリーの集約操作 |
不可 |
可 |
可 |
可 |
可 |
23.3. Hot Rod Java クライアント経由のリモートクエリーの実行 リンクのコピーリンクがクリップボードにコピーされました!
RemoteCacheManager が Protobuf マーシャラーと設定された後、Hot Rod 上のリモートクエリーを有効にできます。
以下の手順では、キャッシュでのリモートクエリーを有効にする方法を説明します。
前提条件
Protobuf マーシャラーを使用するよう、RemoteCacheManager を設定する必要があります。
Hot Rod 経由のリモートクエリーの有効化
infinispan-remote.jar の追加
infinispan-remote.jar は uberjar であるため、この機能に必要な他の依存関係はありません。
キャッシュ設定でのインデックス化の有効化
リモートクエリーでは、インデックス化は必須ではありませんが、大量のデータが含まれるキャッシュでの検索が大幅に高速化されるため、強く推奨されます。インデックス化はいつでも設定できます。インデックス化の有効化や設定は、Library モードと同じです。
Infinispan サブシステム要素内にある
cache-container要素内に以下の設定を追加します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow Protobuf スキーマ定義ファイルの登録
Protobuf スキーマ定義ファイルを登録するには、これらのファイルを
___protobuf_metadataシステムキャッシュに追加します。キャッシュキーはファイル名を意味する文字列で、値は文字列としての .proto ファイルです。この代わりに、サーバーのProtobufMetadataManagerMBean のregisterProtofileメソッドを呼び出して Protobuf スキーマを登録することもできます。キャッシュコンテナーごとにこの MBean の 1 つのインスタンスがあり、___protobuf_metadataによってサポートされるため、この 2 つの方法は同等です。___protobuf_metadataシステムキャッシュ経由で Protobuf スキーマを提供する例は、「 Protocol Buffers スキーマファイルの登録」を参照してください。注記___protobuf_metadataキャッシュへの書き込みには、書き込みを実行するユーザーに ___schema_manager ロールを追加する必要があります。以下の例は、
ProtobufMetadataManagerMBean のregisterProtofileメソッドを呼び出す方法を表しています。JMX での Protobuf スキーマ定義ファイルの登録
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
結果
キャッシュに置かれたすべてのデータは、インデックス化が使用されているかどうかに関わらず、即座に検索可能になります。埋め込みクエリーのように、エントリーにアノテーションを付ける必要はありません。エンティティークラスは Java クラスのみに意味があり、サーバー側には存在しません。
リモートのキューが有効になったら、以下を使用して QueryFactory を取得できます。
QueryFactory の取得
これで、ライブラリーモードと同様にクエリーを Hot Rod 上で実行できるようになります。
23.4. Hot Rod C++ クライアントでのリモートクエリー リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C++ クライアントでリモートクエリーを使用する手順は、「Hot Rod C++ クライアントを用いたリモートクエリーの実行」を参照してください。
23.5. Hot Rod C# クライアントでのリモートクエリー リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod C# クライアントでリモートクエリーを使用する手順は、「Hot Rod C# クライアントを用いたリモートクエリーの実行」を参照してください。
23.6. Protobuf エンコーディング リンクのコピーリンクがクリップボードにコピーされました!
23.6.1. Protobuf エンコーディング リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query DSL は Hot Rod 経由で使用できます。これには、Protocol Buffers を使用してキャッシュエントリーの保存およびマーシャリングに共通の形式を採用します。
詳細は、https://developers.google.com/protocol-buffers/docs/overview を参照してください。
23.6.2. Protobuf エンコードされたエンティティーの格納 リンクのコピーリンクがクリップボードにコピーされました!
Protobuf ではデータを構造化する必要があります。これには、.proto ファイルで Protocol Buffer の型を宣言します。
例を以下に示します。
.library.proto
この例では以下が実行されます。
Bookという名前のエンティティーがbook_sampleという名前のパッケージに配置されます。package book_sample; message Book {package book_sample; message Book {Copy to Clipboard Copied! Toggle word wrap Toggle overflow エンティティーは、プリミティブ型の複数のフィールドと
authorsという名前の繰り返し可能なフィールドを宣言します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow AuthorメッセージインスタンスはBookメッセージインスタンスに埋め込みされます。message Author { required string name = 1; required string surname = 2; }message Author { required string name = 1; required string surname = 2; }Copy to Clipboard Copied! Toggle word wrap Toggle overflow
23.6.3. Protobuf メッセージ リンクのコピーリンクがクリップボードにコピーされました!
Protobuf メッセージに関する重要事項は次のとおりです。
- メッセージを入れ子にすることは可能ですが、結果として構造は常にツリーになり、グラフにはなりません。
- 型の継承はありません。
- コレクションはサポートされませんが、繰り返されるフィールドを使用してアレイを簡単にエミュレートできます。
23.6.4. Hot Rod での Protobuf の使用 リンクのコピーリンクがクリップボードにコピーされました!
Protobuf を JBoss Data Grid の Hot Rod と使用するには、以下の 2 つのステップを使用します。
専用のマーシャラー (ここでは
ProtoStreamMarshaller) を使用するようクライアントを設定します。このマーシャラーはProtoStreamライブラリーを使用して、オブジェクトのエンコーディングを手助けします。重要infinispan-remotejar が使用されていない場合、infinispan-remote-query-client Maven 依存関係を追加してProtoStreamMarshallerを使用する必要があります。-
エンティティーごとのマーシャラーを登録し、
ProtoStreamライブラリーにメッセージ型のマーシャル方法を指示します。
ProtoStreamMarshaller を使用したメッセージのエンコードおよびマーシャル
この例では以下が実行されます。
-
SerializationContextがProtoStreamライブラリーによって提供されます。 -
SerializationContext.registerProtofileメソッドは、メッセージ型の定義が含まれる .proto クラスパスリソースファイルの名前を受信します。 -
RemoteCacheManagerに関連するSerializationContextが取得され、ProtoStreamは protobuf 型のマーシャルを指示されます。
ProtoStreamMarshaller を使用するよう設定されていないと、RemoteCacheManager に関連する SerializationContext はありません。
23.6.5. エンティティーごとのマーシャラーの登録 リンクのコピーリンクがクリップボードにコピーされました!
リモートクエリーの目的で ProtoStreamMarshaller を使用する場合、各ドメインモデル型に対してエントリーごとにマーシャラーを登録しないと、マーシャリングに失敗します。マーシャラーの 1 つのインスタンスが使用されるため、ステートレスでスレッドセーフなマーシャラーを作成する必要があります。
以下の例はマーシャラーの書き方を示しています。
BookMarshaller.java
クライアントが設定されたら、リモートキャッシュへの Java オブジェクトの読み書きにはエンティティーマーシャラーが使用されます。関係するすべての型のリモートクライアントでマーシャラーが登録された場合、キャッシュに格納される実際のデータは protobuf でエンコードされます。この例では、Book と Author になります。
protobuf 形式で格納されたオブジェクトは、異なる言語で書かれた互換性のあるクライアントと使用することができます。
23.6.6. Protobuf エンコードされたエンティティーのインデックス化 リンクのコピーリンクがクリップボードにコピーされました!
クライアントが Protobuf を使用するよう設定したら、JBoss Data Grid でキャッシュのインデックス化を設定できます。
キャッシュでエントリーをインデックス化するには、JBoss Data Grid は Protobuf スキーマに定義されたメッセージ型にアクセスできる必要があります。Protobuf スキーマは .proto 拡張子が付いているファイルです。
put、putAll、putIfAbsent、または replace 操作で Protobuf スキーマを ___protobuf_metadata キャッシュに置き、JBoss Data Grid に Protobuf スキーマを提供します。この代わりに、JMX 経由で ProtobufMetadataManager MBean を呼び出すこともできます。
___protobuf_metadata のキーと値は両方 String です。キーはファイル名で、値はスキーマファイルの内容になります。
___protobuf_metadata キャッシュに書き込み操作を実行するユーザーは ___schema_manager ロールが必要です。
Protocol Buffers スキーマファイルの登録
ProtobufMetadataManager は、Protobuf スキーマ定義または [path].proto ファイルのクラスター全体でレプリケートされたリポジトリーです。実行中のキャッシュマネージャーごとに個別の ProtobufMetadataManager MBean インスタンスが存在し、___protobuf_metadata キャッシュによってサポートされます。ProtobufMetadataManager ObjectName は以下のパターンを使用します。
<jmx domain>:type=RemoteQuery,
name=<cache manager<methodname>putAllname>,
component=ProtobufMetadataManager
<jmx domain>:type=RemoteQuery,
name=<cache manager<methodname>putAllname>,
component=ProtobufMetadataManager
以下の署名は、Protobuf スキーマファイルを登録するメソッドによって使用されます。
void registerProtofile(String name, String contents)
void registerProtofile(String name, String contents)
キャッシュのインデックス化が有効になっている場合、Protobuf エンコードされたエントリーのすべてのフィールドがインデックス化されます。Protobuf エンコードされたすべてのエントリーは、インデックス化が有効になっているかどうかに関わらず検索可能です。
インデックス化はパフォーマンスの向上のために推奨されますが、リモートクエリーの使用時には必須ではありません。インデックス化を使用すると検索速度が向上しますが、インデックスの維持に必要なオーバーヘッドにより挿入および更新の速度が低下します。
23.6.7. Protobuf によるカスタムフィールドのインデックス化 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、キャッシュのインデックス化を有効にした後、すべての Protobuf 型フィールドはインデックス化および格納されます。ほとんどの場合でこのインデックス化は適していますが、多くのフィールドまたは非常に大きなフィールドを持つ Protobuf メッセージ型を処理する場合は、パフォーマンスが劣化したり、十分でない可能性があります。
そのため、@Indexed および @Field アノテーションを直接コメント定義内の Protobuf スキーマで使用して、どのフィールドがインデックス化されるかを制御する必要があります。
インデックス化されるフィールドの指定
アノテーションは、アノテーションが付けられる要素 (メッセージまたはフィールドのいずれか) の前にあるコメントの最終行に付けられます。
@Indexed アノテーションに関する説明は次のとおりです。
-
メッセージ型のみに適用され、デフォルトが
true. であるブール値を持ちます。そのため、@Indexedの使用は@Indexed(true)と同等になります。 -
このアノテーションは、インデックス化されたメッセージ型のフィールドの指定を可能にします。
@Indexed(false)の使用はインデックス化されるフィールドがないことを示します。そのため、@Fieldアノテーションは無視されます。
@Field アノテーションに関する説明は次のとおりです。
-
フィールドのみに適用され、
index、store、およびanalyzeの 3 つの属性を持ちます。 デフォルトは
@Field(index=Index.YES, store=Store.NO, analyze=Analyze.NO)です。これらの属性は以下の定義を持ちます。-
index属性はフィールドがインデックスされるべきであるかどうかを示し、インデックス化されたクエリーでの使用を許可します。 -
store属性はフィールドがインデックスに格納されるべきかどうかを示し、プロジェクションでの使用を許可します。 -
analyze属性は、フルテキスト検索にフィールドを使用できるかどうかを示します。
-
すべての Protobuf メッセージ型のインデックス化を無効化
アノテーションが付けられていないすべての Protobuf メッセージ型のインデックス化を無効にすることができます。各スキーマファイルの最初にある indexed_by_default Protobuf スキーマオプションの値を次のように false に設定します。
option indexed_by_default = false; //Disable indexing of all types that are not annotated for indexing.
option indexed_by_default = false; //Disable indexing of all types that are not annotated for indexing.
23.6.8. Java アノテーションでの Protocol Buffers スキーマの定義 リンクのコピーリンクがクリップボードにコピーされました!
Java アノテーションを使用して Protobuf メタデータを宣言できます。MessageMarshaller 実装と .proto スキーマファイルを提供する代わりに、最小限のアノテーションを Java クラスとそのフィールドに追加できます。
この方法の目的は、ProtoStream ライブラリーを使用して Java obujekuto を protobuf にマーシャルすることです。ProtoStream ライブラリーは内部でマーシャラーを生成し、手動で実装されたマーシャラーは必要ありません。Java アノテーションには、Protobuf タグ番号などの最低限の情報が必要になります。その他は常識的なデフォルトを基に推定され (Protobuf 型、Java コレクション型、およびコレクション要素型)、オーバーライドすることができます。
自動生成されたスキーマは SerializationContext で登録され、他の言語のドメインモデルクラスおよびマーシャラーを実装するための参照として使用することもできます。
Java アノテーションの例を以下に示します。
User.Java
Note.Java
ProtoSchemaBuilderDemo.Java
以下は、ProtoSchemaBuilderDemo.java の例によって生成される .proto ファイルになります。
Sample_Schema.Proto
以下の表は、サポートされる Java アノテーションとそのアプリケーションおよびパラメーターを示しています。
| アノテーション | 適用対象 | 目的 | 要件 | Parameters |
|---|---|---|---|---|
|
|
クラス/フィールド/列挙型/列挙型メンバー |
生成された Protobuf スキーマ要素にアタッチされるドキュメンテーションコメントを指定します (メッセージ型、フィールド定義、列挙型、列挙値定義)。 |
任意 |
単一の String パラメーター、ドキュメンテーションテキスト。 |
|
|
クラス |
生成されたメッセージ型の名前を指定します。指定がない場合はクラス名が使用されます。 |
任意 |
名前 (String)、生成されたメッセージ型の名前。指定がない場合はデフォルトで Java クラス名が使用されます。 |
|
|
フィールド、ゲッターまたはセッター |
Protobuf フィールド番号とその Protobuf 型を指定します。また、フィールドが繰り返されるかどうか、任意または必須であるかどうかも示し、任意でデフォルト値を示します。Java フィールド型がインターフェースまたは抽象クラスである場合、その実際の型を示す必要があります。フィールドが繰り返し可能で、宣言されたコレクション型が抽象である場合、実際のコレクション実装型を指定する必要があります。このアノテーションがない場合、マーシャリングでこのフィールドが無視されます (一時的です)。Protobuf がマーシャル可能と見なされるには、クラスに |
必須 |
数 (int、必須)、Protobuf 番号型 (org.infinispan.protostream.descriptors.Type、任意)、Protobuf 型: 通常は必須と推測されます (ブール値、任意)、名前 (String、任意)、 Protobuf namejava型 (Class、任意)、実際の型: 宣言された型が抽象 collectionImplementation の場合のみ必要 (Class、任意)、実際のコレクション型: 宣言された型が抽象 defaultValue の場合のみ必要 (String、任意)、文字列は Java フィールド型に基づいた適切な形式である必要があります。 |
|
|
列挙型 |
生成された列挙型の名前を指定します。指定がない場合は Java 列挙名が使用されます。 |
任意 |
名前 (String)、生成された列挙型の名前。指定がない場合、デフォルトで Java 列挙名が使用されます。 |
|
|
列挙型メンバー |
対応する Protobuf 列挙値の数値を指定します。 |
必須 |
数 (int、必須)、Protobuf 番号名 (String)、Protobuf 名。指定のない場合、Java メンバーの名前が使用されます。 |
@ProtoDoc アノテーションを使用すると、生成されたスキーマでドキュメンテーションコメントを提供できます。また、@Indexed および @Field アノテーションを必要な場所にインジェクトすることもできます。詳細は「Protobuf でのカスタムフィールドのインデックス化」を参照してください。
パート III. Red Hat JBoss Data Grid におけるデータのセキュア化 リンクのコピーリンクがクリップボードにコピーされました!
第24章 Red Hat JBoss Data Grid におけるデータのセキュア化 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、データセキュリティーを以下の方法で実装できます。
ロールベースアクセス制御
JBoss Data Grid には、指定のセキュア化されたキャッシュ上の操作に対応するロールベースのアクセス制御機能が含まれます。ロールは、キャッシュおよびキャッシュマネージャー操作のパーミッションにマップされた状態で、アプリケーションにアクセスするユーザーに割り当てられます。認証されたユーザーのみがこれらのロールで許可されている操作を実行できます。
ライブラリーモードでは、データは、認証がコンテナーまたはアプリケーションに委譲された状態で CacheManager および Cache 用のロールベースのアクセス制御によってセキュア化されます。リモートクライアントサーバーモードでは、JBoss Data Grid は、Identity トークンを Hot Rod クライアントから、Cache および CacheManager のサーバーおよびロールベースのアクセス制御に渡すことによってセキュア化されます。
ノードの認証および承認
ノードレベルのセキュリティーでは、新規ノードやマージされるパーティションがクラスターに参加する前に認証される必要があります。これを実行できるのは、クラスターへの参加が承認された認証済みのノードのみです。これは、不正なサーバーによるデータの保存を防ぐため、データが保護されます。
クラスター内の暗号化通信
JBoss Data Grid では、JCA (Java Cryptography Architecture、Java 暗号化アーキテクチャー) によってサポートされるユーザー指定の暗号化アルゴリズム使用して、ノード間での通信の暗号化がサポートされるようになり、データのセキュリティーが強化されました。
また、JBoss Data Grid は操作の監査ログ、および Transport Layer Security (TLS/SSL) を使用した Hot Rod クライアントとサーバー間の通信を暗号化する機能も提供します。
第25章 Red Hat JBoss Data Grid セキュリティー: 認証および承認 リンクのコピーリンクがクリップボードにコピーされました!
25.1. Red Hat JBoss Data Grid セキュリティー: 認証および承認 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は、CacheManager および Cache での承認を実行できます。JBoss Data Grid 承認は、JAAS および SecurityManager などの JDK で利用できる標準的なセキュリティー機能に基づいています。
アプリケーションがセキュアな CacheManager および Cache と対話する場合、JBoss Data Grid のセキュリティーレイヤーが必須ロールおよびパーミッションのセットに対して検証できるアイデンティティーを指定する必要があります。検証されると、クライアントに後続操作のトークンが発行されます。アクセスが拒否されると、セキュリティー違反を示す例外が発生します。
キャッシュの承認が設定される場合、キャッシュが取得されると SecureCache のインスタンスが返されます。SecureCache はキャッシュの単純なラッパーであり、「現行ユーザー」が操作の実行に必要なパーミッションを持っているかどうかを確認します。「現行ユーザー」は AccessControlContext に関連する Subject です。
JBoss Data Grid はプリンシパル名を、1 つ以上のパーミッションを表すロールにマップします。以下の図はこれらの関係を示しています。
図25.1 ロールとパーミッションのマッピング
25.2. パーミッション リンクのコピーリンクがクリップボードにコピーされました!
CacheManager または Cache へのアクセスは必要なパーミッションセットを使用して制御されます。パーミッションは、操作されているデータのタイプではなく、CacheManager または Cache で実行されるアクションのタイプを制御します。これらのパーミッションの一部は、名前付きキャッシュなどの名前エンティティーにとくに適用されます。エンティティーによって使用できるタイプのパーミッションが異なります。
| パーミッション | 関数 | 説明 |
|---|---|---|
|
CONFIGURATION |
defineConfiguration |
新規キャッシュ設定を定義できるかどうか。 |
|
LISTEN |
addListener |
リスナーをキャッシュマネージャーに対して登録できるかどうか。 |
|
LIFECYCLE |
stop, start |
キャッシュマネージャーを停止または開始できるかどうか。 |
|
ALL |
上記すべてを含む便利なパーミッション。 |
| パーミッション | 関数 | 説明 |
|---|---|---|
|
READ |
get, contains |
エントリーをキャッシュから取得できるかどうか。 |
|
WRITE |
put, putIfAbsent, replace, remove, evict |
データをキャッシュから書き込み、置き換え、エビクトできるかどうか。 |
|
EXEC |
distexec, mapreduce |
コード実行をキャッシュに対して実行できるかどうか。 |
|
LISTEN |
addListener |
リスナーをキャッシュに対して登録できるかどうか。 |
|
BULK_READ |
keySet, values, entrySet,query |
一括取得操作を実行できるかどうか。 |
|
BULK_WRITE |
g |
一括書き込み操作を実行できるかどうか。 |
|
LIFECYCLE |
start, stop |
キャッシュを開始または停止できるかどうか。 |
|
ADMIN |
getVersion, addInterceptor*, removeInterceptor, getInterceptorChain, getEvictionManager, getComponentRegistry, getDistributionManager, getAuthorizationManager, evict, getRpcManager, getCacheConfiguration, getCacheManager, getInvocationContextContainer, setAvailability, getDataContainer, getStats, getXAResource |
基礎となるコンポーネントまたは内部構造へのアクセスが可能かどうか。 |
|
ALL |
上記すべてを含む便利なパーミッション。 | |
|
ALL_READ |
READ と BULK_READ の組み合わせ。 | |
|
ALL_WRITE |
WRITE と BULK_WRITE の組み合わせ。 |
使いやすさを強化するために一部のパーミッションを他のパーミッションに組み合わせることが必要になる場合があります。たとえば、EXEC を READ または WRITE と組み合わせることがあります。
25.3. ロールマッピング リンクのコピーリンクがクリップボードにコピーされました!
Subject のプリンシパルを承認で使用される一連のロールに変換するには、 PrincipalRoleMapper をグローバル設定に指定する必要があります。Red Hat JBoss Data Grid には 3 つのマッパーが含まれ、さらにカスタムマッパーを使用することもできます。
| マッパー名 | Java | XML | 説明 |
|---|---|---|---|
|
IdentityRoleMapper |
org.infinispan.security.impl.IdentityRoleMapper |
<identity-role-mapper /> |
ロール名としてプリンシパル名を使用します。 |
|
CommonNameRoleMapper |
org.infinispan.security.impl.CommonRoleMapper |
<common-name-role-mapper /> |
プリンシパル名が識別名 (DN) の場合、このマッパーは共通名 (CN) を抽出し、これをロール名として使用します。たとえば、DN |
|
ClusterRoleMapper |
org.infinispan.security.impl.ClusterRoleMapper |
<cluster-role-mapper /> |
|
|
Custom Role Mapper |
<custom-role-mapper class="a.b.c" /> |
|
25.4. ログインモジュールを使用した認証およびロールマッピングの設定 リンクのコピーリンクがクリップボードにコピーされました!
LDAP からロールクエリー用の認証 login-module を使用する場合、カスタムクラスは使用中であるため、プリンシパルからロールへの独自のマッピングを実装する必要があります。以下の例は、login-module から取得したプリンシパルをロールにマップする方法を示しています。これは、ユーザープリンシパル名をロールにマッピングし、同様のアクションを IdentityRoleMapper に対して実行します。
プリンシパルのマッピング
LDAP サーバーの設定や LDAP サーバーでのユーザーおよびロールの指定についての詳細は、Red Hat Directory Server の『Administration Guide』を参照してください。
25.5. Red Hat JBoss Data Grid の承認の設定 リンクのコピーリンクがクリップボードにコピーされました!
承認はキャッシュコンテナー (CacheManager) と単一キャッシュの 2 つのレベルで設定されます。
各キャッシュコンテナーは以下を決定します。
- 承認を使用するかどうか。
- プリンシパルをルールセットにマップするクラス。
- 名前付きロールのセットとそれらが表すパーミッション。
コンテナーレベルで定義されたロールのサブセットのみを使用することを選択できます。
ロール
ロールは、以下のようにキャッシュコンテナーのレベルで定義されたロールを使用して、キャッシュごとに適用できます。
認証が必要とされるキャッシュには、ロールの一覧が定義されている必要があります。そうでない場合、キャッシュの承認では非匿名ポリシーは定義されないため、認証は強制されません。
プログラムを使用した CacheManager 承認 (ライブラリーモード)
以下の例は、プログラムによる設定を使用して同じ承認パラメーターをライブラリーモードに対して設定する方法を示しています。
プログラムを使用した CacheManager 承認の設定
REST プロトコルの承認での使用はサポートされておらず、承認を有効にした状態でキャッシュにアクセスしようとすると SecurityException が発生します。
25.6. ライブラリーモードのデータセキュリティー リンクのコピーリンクがクリップボードにコピーされました!
25.6.1. サブジェクトおよびプリンシパルクラス リンクのコピーリンクがクリップボードにコピーされました!
リソースへのアクセスを承認するには、アプリケーションが最初に要求元を認証する必要があります。JAAS フレームワークは、要求元を表す用語サブジェクトを定義します。Subject クラスは JAAS の重要なクラスです。Subject は人やサービスなどの、単一エンティティーの情報を表します。これには、エンティティーのプリンシパル、パブリックのクレデンシャル、プライベートのクレデンシャルなどが含まれます。JAAS API は既存の Java 2 java.security.Principal インターフェースを使用して、型指定された名前であるプリンシパルを表します。
認証プロセス中、サブジェクトには関連するアイデンティティーまたはプリンシパルが入力されます。サブジェクトに複数のプリンシパルが含まれるようにすることができます。たとえば、一個人は名前のプリンシパル (John Doe)、ソーシャルセキュリティー番号のプリンシパル (123-45-6789)、ユーザー名のプリンシパル (johnd) を持つことができ、これらすべてのプリンシパルはサブジェクトを他のサブジェクトから区別するのに役立ちます。1 つのサブジェクトに関連するプリンシパルを取得する方法は 2 つあります。
public Set getPrincipals() {...}
public Set getPrincipals(Class c) {...}
public Set getPrincipals() {...}
public Set getPrincipals(Class c) {...}
getPrincipals() はサブジェクトに含まれるすべてのプリンシパルを返します。getPrincipals(Class c) は、クラス c のインスタンスであるプリンシパルまたはそのサブクラスの 1 つのみを返します。サブジェクトに一致するプリンシパルがない場合は、空のセットが返されます。
java.security.acl.Group インターフェースは java.security.Principal のサブインターフェースであるため、プリンシパルのセットのインスタンスは、他のプリンシパルやプリンシパルのグループの論理グループを表すことがあります。
25.6.2. サブジェクトの取得 リンクのコピーリンクがクリップボードにコピーされました!
ライブラリーモードでセキュア化されたキャッシュを使用するには、javax.security.auth.Subject を取得する必要があります。Subject は、人やサービスなどの単一のキャッシュエンティティーの情報を表します。
Red Hat JBoss Data Grid では、コンテナーの機能またはサードパーティーライブラリーのどちらかを使用して JAAS Subject を取得できます。
JBoss コンテナーの場合は以下を使用して取得します。
Subject subject = SecurityContextAssociation.getSubject();
Subject subject = SecurityContextAssociation.getSubject();
Subject には、LDAP や Active Directory などのセキュリティードメインで属するユーザーおよびグループを表すプリンシパルのセットを指定する必要があります。
Java EE API では、以下のメソッドを用いてコンテナーセットのプリンシパルを取得できます。
-
サーブレット:
ServletRequest.getUserPrincipal() -
EJB:
EJBContext.getCallerPrincipal() -
MessageDrivenBeans:
MessageDrivenContext.getCallerPrincipal()
mapper は、Subject と関連するプリンシパルを識別し、コンテナーレベルで定義したものに対応するロールへの変換に使用されます。
プリンシパルは Subject のコンポーネントの 1 つにすぎず、 java.security.AccessControlContext から取得されます。コンテナーが AccessControlContext の Subject を設定するか、Security.doAs() メソッドを使用して呼び出しを JBoss Data Grid API にラッピングする前にユーザーがプリンシパルを適切なサブジェクトへマップする必要があります。
Subject が取得されると、キャッシュは PrivilegedAction のコンテキスト内で対話できます。
サブジェクトの取得
Security.doAs() メソッドは、通常の Subject.doAs() メソッドの代わりになります。アプリケーションのセキュリティーモデルに固有する理由で AccessControlContext を変更しなければならない場合以外は、Security.doAs() を使用するとパフォーマンスが向上します。
現在の Subject を取得するには、Subject を JBoss Data Grid コンテキストまたは AccessControlContext から取得する Security.getSubject(); を使用します。
25.6.3. サブジェクトの認証 リンクのコピーリンクがクリップボードにコピーされました!
サブジェクトの認証には JAAS ログインが必要です。ログイン手順は次のようになります。
-
アプリケーションは
LoginContextをインスタンス化し、ログイン設定の名前とCallbackHandlerを渡して、設定LoginModuleが必要とするCallbackオブジェクトを追加します。 -
LoginContextは、名前付きログイン設定に含まれるすべてのLoginModulesをロードするためConfigurationを確認します。このような名前付き設定が存在しない場合は、other設定がデフォルトで使用されます。 -
アプリケーションは
LoginContext.loginメソッドを呼び出します。 -
ログインメソッドはロードされたすべての
LoginModuleを呼び出します。各LoginModuleはサブジェクトを認証するため、関連するLoginModuleでハンドルメソッドを呼び出し、認証プロセスに必要な情報を取得します。必要な情報は、Callbackオブジェクトのアレイの形式でハンドルメソッドに渡されます。認証に成功すると、LoginModuleは関連のプリンシパルとクレデンシャルをサブジェクトに関連付けします。 -
LoginContextは認証ステータスをアプリケーションに返します。ログインメソッドから返されると認証が成功したことになります。ログインメソッドによって LoginException が発生すると認証に失敗したことになります。 -
認証に成功すると、アプリケーションは
LoginContext.getSubjectメソッドを使用して認証されたサブジェクトを取得します。 -
サブジェクトの認証が完了した後に
LoginContext.logoutメソッドを呼び出すと、loginメソッドによりサブジェクトに関連付けられたすべてのプリンシパルおよび関連情報を削除できます。
LoginContext クラスは、サブジェクト認証の基本メソッドを提供し、基礎となる認証技術に依存しないアプリケーションの開発方法を提供します。LoginContext は、特定のアプリケーション向けに設定された認証サービスを判断するため Configuration を確認します。LoginModule クラスは認証サービスを表します。そのため、アプリケーション自体を変更しなくても、異なるログインモジュールをアプリケーションにプラグ可能です。次のコードは、アプリケーションによるサブジェクトの認証で必要になる手順を示しています。
開発者は、LoginModule インターフェースの実装を作成することで、認証技術を統合します。これにより、管理者は異なる認証技術を 1 つのアプリケーションにプラグできます。複数の LoginModule をチェーン化し、複数の認証技術を認証プロセスに加えることが可能です。たとえば、1 つの LoginModule がユーザー名およびパスワードベースの認証を行い、別の LoginModule をスマートカードリーダーや生体認証などのハードウェアデバイスへ接続するインターフェースとすることが可能です。
LoginModule のライフサイクルは、クライアントがログインメソッドを作成し公開するLoginContext オブジェクトによって決定されます。このプロセスには 2 つのフェーズがあり、プロセスの手順は次のようになります。
-
LoginContextは引数のないパブリックコンストラクターを使用して、設定されたLoginModuleを作成します。 -
各
LoginModuleは、初期化メソッドへの呼び出しによって初期化されます。Subject引数は null 以外になることが保証されます。初期化メソッドのシグネチャーはpublic void initialize(Subject subject, CallbackHandler callbackHandler, Map sharedState, Map options)です。 -
loginメソッドは、認証プロセスを開始するために呼び出されます。たとえば、あるメソッド実装はユーザーにユーザー名とパスワードの入力を求め、NIS や LDAP などのネーミングサービスに保存されたデータと照合してこの情報を検証することがあります。別の実装は、スマートカードや生体認証デバイスにインターフェースとして接続したり、基礎となるオペレーティングシステムからユーザー情報を抽出したりすることがあります。各LoginModuleによるユーザーアイデンティティーの検証は、JAAS 認証のフェーズ 1 とみなされます。loginメソッドのシグネチャーはboolean login() throws LoginExceptionです。LoginExceptionは失敗を意味します。true の戻り値はメソッドが成功したことを示し、false の戻り値はログインモジュールが無視されることを示します。 -
LoginContextの全体的な認証が成功すると、各LoginModuleでcommitが呼び出されます。フェーズ 1 がLoginModuleに対して成功すると、コミットメソッドはフェーズ 2 を続行し、関連するプリンシパル、パブリッククレデンシャル、プライベートクレデンシャルをサブジェクトに関連付けます。フェーズ 1 がLoginModuleに対して失敗すると、commitはユーザー名やパスワードなどの以前保存した認証状態をすべて削除します。commitメソッドのシグネチャーはboolean commit() throws LoginExceptionです。LoginExceptionの発生は、コミットフェーズの完了に失敗したことを示します。true が返されるとメソッドが成功したことを示し、false が返されるとログインモジュールが無視されることを示します。 -
LoginContextの全体的な認証が失敗すると、各LoginModuleでabortメソッドが呼び出されます。abortメソッドはログインまたは初期化メソッドによって作成されたすべての認証状態を削除または破棄します。abortメソッドのシグネチャーはboolean abort() throws LoginExceptionです。LoginExceptionの発生は、abortフェーズの完了に失敗したことを示します。true が返されるとメソッドが成功したことを示し、false が返されるとログインモジュールが無視されることを示します -
ログイン成功後に認証状態を削除するため、アプリケーションは
LoginContextでlogoutを呼び出します。これにより、各LoginModuleでlogoutメソッドが呼び出されます。logoutメソッドは、commit操作中に当初サブジェクトに関連付けられていたプリンシパルとクレデンシャルを削除します。クレデンシャルは削除時に破棄されるはずです。logoutメソッドのシグネチャーはboolean logout() throws LoginExceptionです。LoginExceptionの発生は、ログアウトプロセスの完了に失敗したことを示します。true が返されるとメソッドが成功したことを示し、false が返されるとログインモジュールが無視されることを示します。
LoginModule がユーザーと通信して認証情報を取得する必要がある場合、CallbackHandler オブジェクトを使用します。アプリケーションはインターフェースを実装して LoginContext に渡し、基礎となるログインモジュールに直接認証情報を送信します。
ログインモジュールは、CallbackHandler を使用して、パスワードやスマートカード PIN などのユーザー入力による情報を取得したり、ステータスなどの情報をユーザーに提供したりします。アプリケーションによる CallbackHandler の指定を可能にすることで、基礎となる LoginModule がアプリケーションとユーザーが対話するさまざまな方法に依存しないようにします。たとえば、GUI アプリケーションの CallbackHandler の実装は、ウィンドウを表示してユーザーの入力を求めることがあります。一方でアプリケーションサーバーなどの GUI でない環境の CallbackHandler 実装は、アプリケーションサーバー API を使用してクレデンシャル情報を取得することがあります。インターフェースには実装するメソッドが 1 つあります。
void handle(Callback[] callbacks)
throws java.io.IOException,
UnsupportedCallbackException;
void handle(Callback[] callbacks)
throws java.io.IOException,
UnsupportedCallbackException;
最後に説明する認証クラスは Callback インターフェースです。これは複数のデフォルト実装が提供されているタグ付けインターフェースで、前述の例で使用した NameCallback と PasswordCallback が含まれます。LoginModule は Callback を使用し、認証メカニズムで必要となる情報を要求します。LoginModule は認証のログインフェーズの間に Callback のアレイを直接 CallbackHandler.handle メソッドに渡します。CallbackHandler がハンドルメソッドに渡された Callback オブジェクトの使用方法を理解できない場合は UnsupportedCallbackException が発生し、ログイン呼び出しが中止されます。
25.7. インターフェースのセキュア化 リンクのコピーリンクがクリップボードにコピーされました!
25.7.1. インターフェースのセキュア化 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod インターフェースはプログラムを使ってセキュア化できますが、memcached および REST インターフェースは宣言的にセキュア化する必要があります。これらのインターフェースをセキュア化する手順は、JBoss Data Grid の『Administration and Configuration Guide』を参照してください。
25.7.2. Hot Rod インターフェースセキュリティー リンクのコピーリンクがクリップボードにコピーされました!
25.7.2.1. Hot Rod サーバーと Hot Rod クライアント間の通信の暗号化 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod は TLS/SSL を使用して暗号化でき、証明書ベースのクライアント認証を必要とするオプションを指定できます。
以下の手順にしたがって、SSL を使用して Hot Rod コネクターをセキュア化します。
SSL/TLS を使用した Hot Rod のセキュア化
プレーンテキストのパスワードが設定またはソースコードに表示されないようにするには、プレーンテキストのパスワードを Vault パスワードに変更する必要があります。Vault パスワードのセットアップ方法についての詳細は、JBoss Enterprise Application Platform『How to Configure Server Security』の「Password Vault」を参照してください。
25.7.2.2. SSL を使用した LDAP サーバーに対する Hot Rod のセキュア化 リンクのコピーリンクがクリップボードにコピーされました!
SSL を有効にして LDAP に接続する際に、適切な証明書が含まれるトラストストアまたはキーストアを指定する必要がある場合があります。
LDAP サーバーに対する Hot Rod クライアントの認証には、SSL 上の PLAIN 認証を使用できます。Hot Rod クライアントはプレーンテキストのクレデンシャルを SSL 上で JBoss Data Grid に送信し、サーバーは提供されたクレデンシャルを指定の LDAP サーバーに対して検証します。さらに、JBoss Data Grid サーバーと LDAP サーバー間にセキュアな接続を設定する必要があります。サーバーが LDAP バックエンドと通信するための設定方法の詳細は、JBoss Data Grid の『Administration and Configuration Guide』を参照してください。以下は、Hot Rod のクライアント側で SSL 上の PLAIN 認証を設定する例になります。
Hot Rod クライアントの LDAP サーバーに対する認証
プレーンテキストのパスワードが設定またはソースコードに表示されないようにするには、プレーンテキストのパスワードを Vault パスワードに変更する必要があります。Vault パスワードのセットアップ方法についての詳細は、『Red Hat Enterprise Application Platform Security Guide』を参照してください。
25.7.2.3. SASL を使用した Hot Rod でのユーザー認証 リンクのコピーリンクがクリップボードにコピーされました!
25.7.2.3.1. SASL を使用した Hot Rod でのユーザー認証 リンクのコピーリンクがクリップボードにコピーされました!
Hot Rod でのユーザー認証は、以下の SASL (Simple Authentication and Security Layer) メカニズムを使用して実装できます。
-
PLAINは、クレデンシャルがプレーンテキスト形式でトランスポートされるため、最も安全性の低いメカニズムになります。ただし、実装が最も単純なメカニズムでもあります。このメカニズムは、セキュリティーを強化するために暗号化 (SSL) と併用できます。 -
DIGEST-MD5は、クレデンシャルをトランスポートする前にハッシュ化するメカニズムです。その結果、PLAINメカニズムよりも安全性が高くなります。 -
GSSAPIは、Kerberos チケットを使用するメカニズムです。その結果、正しく設定された Kerberos Domain Controller (例: Microsoft Active Directory) が必要になります。 -
EXTERNALは、基礎となるトランスポート (例:X.509クライアント証明書) から必要なクレデンシャルを取得するメカニズムであるため、正常に機能するにはクライアント証明書の暗号化が必要です。
25.7.2.3.2. Hot Rod 認証の設定 (GSSAPI/Kerberos) リンクのコピーリンクがクリップボードにコピーされました!
以下の手順を使用し、SASL GSSAPI/Kerberos メカニズムを使用して Hot Rod 認証をセットアップします。
SASL GSSAPI/Kerberos 認証の設定: クライアント側の設定
- サーバー側の設定が完了していることを確認してください。この設定は宣言的に行われ、JBoss Data Grid の『Administration and Configuration Guide』に記載されています。
クライアント側のログイン設定ファイル (gss.conf) にログインモジュールを定義します。
[source],options="nowrap"
GssExample {
com.sun.security.auth.module.Krb5LoginModule required client=TRUE;
};
GssExample {
com.sun.security.auth.module.Krb5LoginModule required client=TRUE;
};
以下のシステムプロパティーを設定します。
java.security.auth.login.config=gss.conf java.security.krb5.conf=/etc/krb5.conf
java.security.auth.login.config=gss.conf java.security.krb5.conf=/etc/krb5.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記krb5.conf ファイルは環境に依存し、Keberos の鍵配布センター (Key Distribution Center) を示している必要があります。
CallbackHandlerを実装します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のように Hot Rod クライアントを設定します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
25.7.2.3.3. Hot Rod 認証 (MD5) の設定 リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがって、SASL MD5 メカニズムを使用して Hot Rod 認証をセットアップします。
- サーバーに MD5 認証が設定されていることを確認してください。この設定を行う手順は、JBoss Data Grid の『Administration and Configuration Guide』に記載されています。
CallbackHandlerを実装します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のように、クライアントを設定された Hot Rod コネクターに接続します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
25.7.2.3.4. Hot Rod C++ 認証の設定 (GSSAPI/Kerberos) リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがって、SASL GSSAPI/Kerberos メカニズムを使用して Hot Rod C++ クライアント認証をセットアップします。
SASL GSSAPI/Kerberos 認証の設定: クライアント側の設定
- サーバー側の設定が完了していることを確認してください。この設定は宣言的に行われ、JBoss Data Grid の『Administration and Configuration Guide』に記載されています。
以下は、Hot Rod C++ クライアントに Kerberos を使用した完全な例になります。
25.7.2.3.5. Hot Rod C++ 認証の設定 (MD5) リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがって、SASL MD5 メカニズムを使用して Hot Rod C++ クライアント認証をセットアップします。
SASL MD5 認証の設定 - クライアント側の設定
- サーバー側の設定が完了していることを確認してください。この設定は宣言的に行われ、JBoss Data Grid の『Administration and Configuration Guide』に記載されています。
以下は、Hot Rod C++ クライアントに SASL MD5 を使用した完全な例になります。
25.7.2.3.6. Hot Rod C++ 認証の設定 (PLAIN) リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがって、SASL PLAIN メカニズムを使用して Hot Rod C++ クライアント認証をセットアップします。
SASL PLAIN 認証の設定 - クライアント側の設定
- サーバー側の設定が完了していることを確認してください。この設定は宣言的に行われ、JBoss Data Grid の『Administration and Configuration Guide』に記載されています。
以下は、Hot Rod C++ クライアントに SASL PLAIN を使用した完全な例になります。
25.7.2.3.7. Hot Rod C# 認証の設定 (EXTERNAL) リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがって、SASL EXTERNAL メカニズムを使用して Hot Rod C# クライアント認証をセットアップします。
SASL EXTERNAL 認証の設定 - クライアント側の設定
- サーバー側の設定が完了していることを確認してください。この設定は宣言的に行われ、JBoss Data Grid の『Administration and Configuration Guide』に記載されています。
以下は、Hot Rod C++ クライアントに SASL EXTERNAL を使用した完全な例になります。
25.7.2.3.8. Hot Rod C# 認証の設定 (MD5) リンクのコピーリンクがクリップボードにコピーされました!
以下の手順にしたがって、SASL MD5 メカニズムを使用して Hot Rod C# クライアント認証をセットアップします。
SASL MD5 認証の設定 - クライアント側の設定
- サーバー側の設定が完了していることを確認してください。この設定は宣言的に行われ、JBoss Data Grid の『Administration and Configuration Guide』に記載されています。
以下は、Hot Rod C# クライアントに SASL MD5 を使用した完全な例になります。
25.7.3. Hot Rod C++ クライアントの暗号化 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、リモートサーバーとの通信はすべて暗号化されていませんが、SslConfigurationBuilder で serverCAFile メソッドを使用してサーバーのキーを定義すると、TLS による暗号化を有効にすることができます。さらに、clientCertificateFile でクライアントの証明書を定義すると、クライアント認証を有効にできます。
以下は、任意のクライアント証明書でサーバーキーを定義する例になります。
Hot Rod C++ での TLS の例
クライアントは、sniHostName 関数に値を提供して TLS/SNI ハンドシェイク処理の開始時に接続を試みるホスト名を示すこともできます。たとえば、以下を使用できます。
[...]
builder.ssl().enable().serverCAFile(argv[1]).sniHostName("sni");
[...]
[...]
builder.ssl().enable().serverCAFile(argv[1]).sniHostName("sni");
[...]
25.7.4. Hot Rod C# クライアントの暗号化 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、リモートサーバーとの通信はすべて暗号化されていませんが、SslConfigurationBuilder で ServerCAFile メソッドを使用してサーバーのキーを定義すると、TLS による暗号化を有効にすることができます。さらに、ClientCertificateFile でクライアントの証明書を定義すると、クライアント認証を有効にできます。
以下は、任意のクライアント証明書でサーバーキーを定義する例になります。
Hot Rod C# での TLS の例
クライアントは、SniHostName に値を提供して TLS/SNI ハンドシェイク処理の開始時に接続を試みるホスト名を示すこともできます。たとえば、ServerCAFile を定義した直後に以下の呼び出しを含めることができます。
[...]
sslConfB.ServerCAFile("resources/infinispan-ca.pem").SniHostName("sni");
[...]
[...]
sslConfB.ServerCAFile("resources/infinispan-ca.pem").SniHostName("sni");
[...]
25.7.5. Hot Rod Node.js の暗号化 リンクのコピーリンクがクリップボードにコピーされました!
The Node.js クライアントは SSL/TLS 経由の暗号化と任意の TLS/SNI をサポートします。クライアントで設定を行うには、JDK に含まれる keytool アプリケーションを使用して Java KeyStore (JKS) を作成する必要があります。作成されたキーストアには、JBoss Data Grid サーバーが接続を承認するために必要なキーと証明書が含まれる必要があり、暗号化に対して JBoss Data Grid サーバーを設定する必要があります。暗号化に対してサーバーを設定するための詳細は、JBoss Data Grid の『Administration and Configuration Guide』を参照してください。
TLS/SSL の Node.js クライアント実装は自己署名証明書を許可しません。以前証明書が自己署名されていた場合は、ローカルの証明機関を設定して証明書に署名するか、オープンな証明機関を使用することが推奨されます。
信頼できる証明書の場所を定義すると、クライアントの接続がサーバーによって承認されます。
また、クライアントは PKCS#12 または PFX 形式のキーストアから信頼できる証明書を読み取ることもできます。
さらに、クライアントを暗号化された認証と設定することもできます。認証を設定するには、クライアントのプライベートキー、パスフレーズ、および証明書キーを提供する必要があります。
クライアントは、sniHostName ディレクティブを含めることで、TLS/SNI ハンドシェイク処理の開始時に接続を試みるホスト名を示すこともできます
sniHostName が提供されない場合、クライアントは localhost を SNI パラメーターとして送信します。サーバーのデフォルトレルムが localhost と一致しない場合、エラーが発生します。
25.8. セキュリティー監査ロガー リンクのコピーリンクがクリップボードにコピーされました!
25.8.1. セキュリティー監査ロガー リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid には、キャッシュまたはキャッシュマネージャーの操作が各種操作で許可または拒否されたかどうかを確認するために、キャッシュのセキュリティーログを監査するロガーが含まれます。
デフォルトの監査ロガーは org.infinispan.security.impl.DefaultAuditLogger です。このロガーは、利用可能なロギングフレームワーク (JBoss Logging など) を使用して監査ログを出力し、TRACE レベルおよび AUDIT カテゴリーで結果を提供します。
AUDIT カテゴリーを、ログファイル、JMS キュー、またはデータベースのいずれかに送信するには、適切なログアペンダーを使用します。
25.8.2. セキュリティー監査ロガーの設定 (ライブラリーモード) リンクのコピーリンクがクリップボードにコピーされました!
以下のように、Red Hat JBoss Data Grid の監査ロガーを設定します。
GlobalConfigurationBuilder global = new GlobalConfigurationBuilder();
global.security()
.authorization()
.auditLogger(new DefaultAuditLogger());
GlobalConfigurationBuilder global = new GlobalConfigurationBuilder();
global.security()
.authorization()
.auditLogger(new DefaultAuditLogger());
25.8.3. カスタム監査ロガー リンクのコピーリンクがクリップボードにコピーされました!
ユーザーは、カスタム監査ロガーを Red Hat JBoss Data Grid のライブラリーおよびリモートクライアントサーバーモードで実装できます。カスタムロガーは org.infinispan.security.AuditLogger インターフェースを実装する必要があります。カスタムロガーが指定されない場合、デフォルトのロガー (DefaultAuditLogger) が使用されます。
第26章 クラスタートラフィックのセキュリティー リンクのコピーリンクがクリップボードにコピーされました!
26.1. ノードセキュリティーの設定 (ライブラリーモード) リンクのコピーリンクがクリップボードにコピーされました!
ライブラリーモードでは、ノード認証は JGroups 設定で直接設定されます。JGroups を設定してノードがクラスターへの参加またはマージの際に相互に認証できるようにします。認証は SASL を使用し、SASL プロトコルを JGroups XML 設定に追加して有効にします。
SASL は、CallbackHandlers などの JAAS の概念に基づいて認証ハンドシェイクに必要な特定の情報を取得します。ユーザーはクライアント側とサーバー側の両方に CallbackHandlers を指定する必要があります。
JAAS API はユーザー認証および承認の設定時にのみ利用でき、ノードのセキュリティーには利用できません。
以下の例は CallbackHandler クラスの実装方法を示しています。この例では、ログインとパスワードは、JBoss Data Grid の起動時に Java プロパティー経由で提供される値と照合してチェックされます。承認は、クラス ("test_user") で定義された role と照合してチェックされます。
コールバックハンドラークラス
認証では、javax.security.auth.callback.NameCallback および javax.security.auth.callback.PasswordCallback コールバックを指定します。
承認では、認証に必要なコールバックと javax.security.sasl.AuthorizeCallback コールバックを指定します。
26.2. ライブラリーモードのノード承認 リンクのコピーリンクがクリップボードにコピーされました!
J Groups の SASL は認証プロセスでのみ関係します。ノードの承認を実装するには、例外を発生させ、サーバーコールバックハンドラー内で行います。
以下の例を示します。
ノード承認の実装
パート IV. Red Hat JBoss Data Grid の高度な機能 リンクのコピーリンクがクリップボードにコピーされました!
第27章 Red Hat JBoss Data Grid の高度な機能 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid には高度な機能が含まれています。これらの機能の一部と基本設定の手順は、『Administration and Configuration Guide』に記載されています。『開発者ガイド』では、これらの機能とその他の機能を詳細に説明し、より高度な使用例の手順を取り上げます。
本ガイドで取り上げる高度な機能は次のとおりです。
- 監視
- Red Hat JBoss Data Grid の Lucene Directory としての使用
- トランザクション
- マーシャリング
- リスナーと通知
- Infinispan CDI モジュール
- Spring Framework との統合
- Apache Spark との統合
- Apache Hadoop との統合
- EAP との統合
- サーバーヒンティングを用いた高可用性
- 分散実行
- ストリーム
- スクリプト
- リモートタスクの実行
- 相互運用性および互換性モード
- データセンター間レプリケーション
- ニアキャッシュ
第28章 監視 リンクのコピーリンクがクリップボードにコピーされました!
28.1. 監視 リンクのコピーリンクがクリップボードにコピーされました!
28.2. Java Management Extensions (JMX) リンクのコピーリンクがクリップボードにコピーされました!
28.2.1. Java Management Extensions (JMX) リンクのコピーリンクがクリップボードにコピーされました!
Java Management Extensions (JMX) は、アプリケーション、デバイス、システムオブジェクト、およびサービス指向ネットワークを管理および監視するツールを提供する Java ベースの技術です。これらの各オブジェクトは MBeans によって管理および監視されます。
JMX はミドルウェア管理の事実上の業界標準です。そのため、Red Hat JBoss Data Grid では管理および統計情報の公開に JMX が使用されます。
28.2.2. Red Hat JBoss Data Grid における JMX の使用 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid インスタンスの管理は、関連する統計情報をできるだけ多く公開することを目的としています。この統計情報により、管理者は各インスタンスの状態を確認することができます。1 つのインストールは数十または数百のインスタンスを構成することがあるため、各インスタンスの統計情報を明確かつ簡潔に公開し、表示する必要があります。
このような統計情報を公開し、管理者に対して適切な情報を見やすく表示するため、JBoss Data Grid では、JMX は JBoss Operations Network (JON) と共に使用されます。
28.2.3. キャッシュインスタンスに対して JMX を有効にする リンクのコピーリンクがクリップボードにコピーされました!
キャッシュレベルでは、宣言的に、またはプログラムを用いて、次のように JMX 統計を有効にすることができます。
キャッシュレベルでプログラムを用いて JMX を有効にする
プログラムを用いて JMX をキャッシュレベルで有効にするには、以下のコードを追加します。
Configuration configuration = new ConfigurationBuilder().jmxStatistics().enable().build();
Configuration configuration = new
ConfigurationBuilder().jmxStatistics().enable().build();
28.2.4. CacheManager に対して JMX を有効にする リンクのコピーリンクがクリップボードにコピーされました!
CacheManager レベルでは、宣言的に、またはプログラムを用いて、次のように JMX 統計を有効にすることができます。
CacheManager レベルでプログラムを用いて JMX を有効にする
プログラムを用いて JMX を CacheManager レベルで有効にするには、以下のコードを追加します。
GlobalConfiguration globalConfiguration = new GlobalConfigurationBuilder().globalJmxStatistics().enable().build();
GlobalConfiguration globalConfiguration = new
GlobalConfigurationBuilder().globalJmxStatistics().enable().build();
28.2.5. 複数の JMX ドメイン リンクのコピーリンクがクリップボードにコピーされました!
複数の CacheManager インスタンスが 1 つの仮想マシンに存在したり、異なる CacheManager のキャッシュインスタンスの名前が競合する場合に、複数の JMX ドメインが使用されます。
この問題を解決するには、JMX や JBoss Operations Network などの監視ツールが簡単に識別および使用できるような名前を各 CacheManager に付けるようにします。
CacheManager の名前をプログラムを用いて設定する
次のコードを追加し、プログラムを用いて CacheManager の名前を設定します。
GlobalConfiguration globalConfiguration = new
GlobalConfigurationBuilder().globalJmxStatistics().enable().
cacheManagerName("Hibernate2LC").build();
GlobalConfiguration globalConfiguration = new
GlobalConfigurationBuilder().globalJmxStatistics().enable().
cacheManagerName("Hibernate2LC").build();
28.2.6. デフォルトでない MBean サーバーでの MBean の登録 リンクのコピーリンクがクリップボードにコピーされました!
使用されるすべての MBean がデフォルトで登録される場所は、標準の JVM MBeanServer プラットフォームです。ユーザーは代替の MBeanServer インスタンスを設定することもできます。MBeanServerLookup インターフェースを実装して、確実に getMBeanServer() メソッドが必要な (デフォルト以外の) MBeanServer を返すようにします。
デフォルト以外の場所を設定して MBean を登録するには、実装を作成し、クラスの完全修飾名を用いて Red Hat JBoss Data Grid を設定します。例は次のとおりです。
完全修飾ドメイン名をプログラムを用いて追加する
以下のコードを追加します。
GlobalConfiguration globalConfiguration = new
GlobalConfigurationBuilder().globalJmxStatistics().enable().
mBeanServerLookup("com.acme.MyMBeanServerLookup").build();
GlobalConfiguration globalConfiguration = new
GlobalConfigurationBuilder().globalJmxStatistics().enable().
mBeanServerLookup("com.acme.MyMBeanServerLookup").build();
28.3. StatisticsInfoMBean リンクのコピーリンクがクリップボードにコピーされました!
StatisticsInfoMBean MBean は、前セクションの説明どおりに Statistics オブジェクトにアクセスします。
第29章 Lucene Directory としての Red Hat JBoss Data Grid リンクのコピーリンクがクリップボードにコピーされました!
29.1. Lucene Directory としての Red Hat JBoss Data Grid リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は、リレーショナルデータベースの Hibernate Search クエリー用の共有インメモリーインデックス (Infinispan Directory) として使用することができます。デフォルトでは、Hibernate Search はローカルファイルシステムを使用して Lucene インデックスを保存しますが、JBoss Data Grid をストレージとして使用するよう設定すると、複数のサーバーノード全体でリアルタイムのレプリケーションを実現できます。
Infinispan Directory では、インデックスはメモリーに保存され、複数のノード全体で共有されます。Infinispan Diretory は、参加するすべてのノードに分散される 1 つのディレクトリーとして動作します。1 つのノードでインデックスが更新されると、すべてのノードのインデックスが更新されます。クラスター全体でノードの更新が行われた直後にインデックスを検索できます。デフォルトの Hibernate Search 設定は、すべてのノードでインデックスを定義するデータをレプリケートします。
大型のインデックスのデータ分散を有効にするとメモリーの消費を少なくすることができますが、ローカルでのクエリー操作の効率が悪くなります。また、インデックス化されたデータを各ノードに設定された CacheStore にオフロードしたり、各ノードが共有する単一の集中型 CacheStore を設定したりすることもできます。
レプリケーションの代わりに分散を有効にするとメモリーを節約できる可能性がありますが、クエリーの速度は遅くなります。CacheStore を有効にすると、さらにメモリーを節約できる可能性がありますが、パッシベーションの使用時にパフォーマンスが低下します。
29.2. 設定 リンクのコピーリンクがクリップボードにコピーされました!
ディレクトリープロバイダーは、インデックスごとに指定して有効にします。default インデックスが指定されると、指定がある場合を除き、すべてのインデックスがディレクトリープロバイダーを使用します。
hibernate.search.[default|<indexname>].directory_provider = infinispan
上記は、クラスターがレプリケートされたインデックスを提供しますが、デフォルト設定はインデックスの永続化を永久にする方法を有効にしません。このような機能を有効にするには、Infinispan 設定ファイルを提供します。
Hibernate Search では、CacheManager が Infinispan を使用する必要があります。JNDI 経由で既存の CacheManager を検索および再使用でき、新しい CacheManager を開始または管理できます。既存の CacheManager を検索するとき、登録された Infinispan サブシステムから提供されます。たとえば、JBoss EAP 経由で登録された場合、JBoss EAP の Infinispan サブシステムが CacheManager を提供します。
JNDI を使用して CacheManager を登録する場合、Red Hat JBoss Data Grid の設定ファイルのみを使用して登録する必要があります。
JNDI 経由で既存の CacheManager を使用する (任意のパラメーター):
hibernate.search.infinispan.cachemanager_jndiname = [jndiname]
設定ファイルから新規の CacheManager を開始する (任意のパラメーター):
hibernate.search.infinispan.configuration_resourcename = [infinispan configuration filename]
両方のパラメーターが定義されると、JNDI が優先されます。どちらも定義されないと、Hibernate Search は永続キャッシュストアにインデックスを格納しないデフォルトの Infinispan 設定を使用します。
29.3. Red Hat JBoss Data Grid モジュール リンクのコピーリンクがクリップボードにコピーされました!
Hibernate Search の Red Hat JBoss Data Grid ディレクトリープロバイダーは、JBoss EAP の JBoss Data Grid ライブラリーモジュールの一部として配布されます。Red Hat カスタマーポータル からファイルをダウンロードします。
目的の JBoss Enterprise Application Platform フォルダーの modules/ ディレクトリーにアーカイブを展開します。
以下のエントリーをプロジェクトアーカイブの MANIFEST.MF ファイルに追加します。
Dependencies: org.hibernate.search.orm services
Dependencies: org.hibernate.search.orm services
詳細は、Red Hat JBoss EAP 『開発ガイド』の「Maven を使用した MANIFEST.MF エントリーの生成」を参照してください。
29.4. レプリケートされたインデックスの Lucene ディレクトリー設定 リンクのコピーリンクがクリップボードにコピーされました!
標準の JPA を使用する場合、以下のプロパティーを Hibernate 設定および永続ユニット設定ファイルで定義します。たとえば、デフォルトのストレージインデックスをすべて変更する場合は、以下のプロパティーを設定できます。
hibernate.search.default.directory_provider=infinispan
hibernate.search.default.directory_provider=infinispan
これを一意なインデックスで実行することもできます。以下の例では、tickets と actors がインデックス名になります。
hibernate.search.tickets.directory_provider=infinispan hibernate.search.actors.directory_provider=filesystem
hibernate.search.tickets.directory_provider=infinispan
hibernate.search.actors.directory_provider=filesystem
Lucene の DirectoryProvider は以下のオプションを使用してキャッシュ名を設定します。
-
locking_cachename- Lucene のロックが保存されるキャッシュの名前。 デフォルトはLuceneIndexesLockingです。 -
data_cachename- 最大のデータチャンクや最大のオブジェクトを含む Lucene のデータが保存されるキャッシュの名前。デフォルトはLuceneIndexesDataです。 -
metadata_cachename- Lucene のメタデータが保存されるキャッシュの名前。デフォルトはLuceneIndexesMetadataです。
ロッキングキャッシュの名前を CustomLockingCache に変更するには、以下を使用します。
hibernate.search.default.directory_provider.locking_cachname="CustomLockingCache"
hibernate.search.default.directory_provider.locking_cachname="CustomLockingCache"
また、インデックスの大型のファイルは設定可能な小型のチャンクに分割されます。通常、インデックスの chunk_size をネットワークが効率的に処理できる最大値に設定することが推奨されます。
Hibernate Search には、レプリケートされたキャッシュを使用してインデックスを処理するデフォルト値がすでに含まれています。
複数のノードが同時にインデックスに書き込みを行う場合は、JMS バックエンドを設定することが重要です。設定の詳細は、Hibernate Search のドキュメントを参照してください。
分散モードを設定する必要がある設定では、LuceneIndexesMetadata と LuceneIndexesLocking キャッシュがすべての場合で常にレプリケーションモードを使用する必要があります。
29.5. JMS マスターおよびスレーブのバックエンド設定 リンクのコピーリンクがクリップボードにコピーされました!
Infinispan ディレクトリーを使用する場合、JMS マスター/スレーブバックエンドの使用が推奨されます。Infinispan では、すべてのノードが同じインデックスを共有します。また、異なるノード上で IndexWriter がアクティブであるため、同じインデックスでロックを取得します。そのため、インデックスへ直接更新を送信する代わりに、JMS へ送信し、1 つのノードが他のノードの代わりにすべての変更を適用するようにします。
JMS ベースのバックエンドを有効にしないと、複数のノードがインデックスへの書き込みを試行するときにタイムアウト例外が発生する原因となります。
JMS スレーブを設定するには、バックエンドのみを置き換え、ディレクトリープロバイダーを Infinispan に設定します。同じディレクトリープロバイダーをマスターで設定すると接続され、ノード全体でコピージョブを設定する必要はありません。
マスターおよびスレーブの設定例は、Red Hat JBoss EAP『Developing Hibernate Applications』の「Back End Setup and Operations」を参照してください。
第30章 トランザクション リンクのコピーリンクがクリップボードにコピーされました!
30.1. Java トランザクション API リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、Java トランザクション API (JTA) に対応するトランザクションの設定、使用、および参加がサポートされます。
JBoss Data Grid は各キャッシュ操作に対して以下を実行します。
- 最初に、現在スレッドに関連付けされているトランザクションを読み出します。
- XAResource が登録されていない場合は、トランザクションマネージャーに登録し、トランザクションがコミットまたはロールバックされたときに通知を受け取るようにします。
30.2. トランザクションの設定 (ライブラリーモード) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、ライブラリーモードのトランザクションは、同期およびトランザクションリカバリーと共に設定できます。トランザクションは全体として (同期およびトランザクションリカバリーを含む)、リモートクライアントサーバーモードでは使用できません。
キャッシュ操作を実行するには、キャッシュに環境のトランザクションマネージャーへの参照が必要となります。TransactionManagerLookup インターフェースの実装に属するクラス名を用いて、キャッシュを設定します。キャッシュが初期化されると、キャッシュは指定クラスのインスタンスを作成し、getTransactionManager() メソッドを呼び出してトランザクションマネージャーへの参照を見つけ、これを返します。
ライブラリーモードでは、トランザクションは以下のように設定されます。
ライブラリーモードでのトランザクションの設定 (プログラムによる設定)
トランザクションの有効化
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - トランザクションモードを設定します。
- ルックアップクラスを選択し、設定します。利用可能なルックアップクラスのリストについては、この手順の下にある表を参照してください。
-
lockingMode値は、楽観的または悲観的ロックを使用するかどうかを決定します。キャッシュが非トランザクションの場合、ロックモードは無視されます。デフォルト値はOPTIMISTICです。 -
useSynchronization値は、トランザクションマネージャーを使って同期化を登録するようにキャッシュを設定するか、またはキャッシュ自体を XA リソースとして登録するようにキャッシュを設定します。デフォルト値はtrue(同期の使用) です。 recoveryパラメーターをtrueに設定すると、キャッシュのリカバリーが有効になります。recoveryInfoCacheNameは、リカバリー情報が保持されるキャッシュの名前を設定します。キャッシュのデフォルト名はRecoveryConfiguration.DEFAULT_RECOVERY_INFO_CACHEによって指定されます。
書き込みスキューチェックの設定
writeSkewチェックは、異なるトランザクションからのエントリーへの変更によってトランザクションがロールバックされるべきかどうかを判別します。書き込みスキューがtrueに設定された場合、isolation_levelをREPEATABLE_READに設定する必要があります。writeSkewおよびisolation_levelのデフォルト値はそれぞれfalseとREAD_COMMITTEDです。Configuration config = new ConfigurationBuilder()/* ... */.locking() .isolationLevel(IsolationLevel.REPEATABLE_READ).writeSkewCheck(true);Configuration config = new ConfigurationBuilder()/* ... */.locking() .isolationLevel(IsolationLevel.REPEATABLE_READ).writeSkewCheck(true);Copy to Clipboard Copied! Toggle word wrap Toggle overflow エントリーのバージョン管理の設定
クラスター化されたキャッシュについては、エントリーのバージョン管理を有効にし、その値を
SIMPLEに設定することにより書き込みスキューのチェックを有効にします。Configuration config = new ConfigurationBuilder()/* ... */.versioning() .enable() .scheme(VersioningScheme.SIMPLE);Configuration config = new ConfigurationBuilder()/* ... */.versioning() .enable() .scheme(VersioningScheme.SIMPLE);Copy to Clipboard Copied! Toggle word wrap Toggle overflow
| クラス名 | 説明 |
|---|---|
|
org.infinispan.transaction.lookup.DummyTransactionManagerLookup |
テスト環境で主に使用されます。このテスト向けのトランザクションマネージャーは実稼働環境では使用されず、特に並列トランザクションやリカバリーなどの機能は厳しく制限されます。 |
|
org.infinispan.transaction.lookup.JBossStandaloneJTAManagerLookup |
Red Hat JBoss Data Grid がスタンドアロン環境で実行される場合のデフォルトのトランザクションマネージャーです。これは、JBoss Transactions ベースの完全に機能するトランザクションマネージャーで、 |
|
org.infinispan.transaction.lookup.GenericTransactionManagerLookup |
GenericTransactionManagerLookup は、トランザクションルックアップクラスが指定されていない場合にデフォルトで使用されます。このルックアップクラスは、JBoss Data Grid を、TransactionManager インターフェースを提供する Java EE 互換環境で使用する場合に推奨されます。このルックアップクラスは、ほとんどの Java EE アプリケーションサーバーでトランザクションマネージャーを見つけることができます。トランザクションマネージャーが見つからない場合、デフォルトは |
|
org.infinispan.transaction.lookup.JBossTransactionManagerLookup |
|
Red Hat JBoss Data Grid を Tomcat または通常の Java Virtual Machine (JVM) と使用する場合、推奨される Transaction Manager Lookup クラスは JBoss Transactions を使用する JBossStandaloneJTAManagerLookup です。
30.3. 複数のキャッシュインスタンス間でのトランザクション リンクのコピーリンクがクリップボードにコピーされました!
各キャッシュは個別のスタンドアロン Java Transaction API (JTA) リソースとして動作します。ただし、コンポーネントは最適化のために Red Hat JBoss Data Grid の内部で共有できますが、この共有は、キャッシュが Java Transaction API (JTA) Manager とどのように対話するかに影響を与えません。
30.4. トランザクションマネージャー リンクのコピーリンクがクリップボードにコピーされました!
以下を使用して、キャッシュから TransactionManager を取得します。
TransactionManager tm = cache.getAdvancedCache().getTransactionManager();
TransactionManager tm = cache.getAdvancedCache().getTransactionManager();
トランザクション内で操作のシーケンスを実行するには、TranspactionManager 上で begin() および commit() メソッド (または rollback() メソッド) への呼び出しを使ってこれらの操作をラップします。
操作の実行
キャッシュメソッドが JTA トランザクションのスコープ内で CacheException (または、CacheException のサブクラス) を返すと、トランザクションはロールバックするよう自動的にマークされます。
Red Hat JBoss Data Grid XAResource への参照を取得するには、以下の API を使用します。
XAResource xar = cache.getAdvancedCache().getXAResource();
XAResource xar = cache.getAdvancedCache().getXAResource();
第31章 マーシャリング リンクのコピーリンクがクリップボードにコピーされました!
31.1. マーシャリング リンクのコピーリンクがクリップボードにコピーされました!
マーシャリングとは、Java オブジェクトを回線上で転送可能な形式に変換するプロセスのことです。アンマーシャリングはこれとは逆のプロセスで、回線上で転送可能な形式から読み取られたデータを Java オブジェクトに変換することを言います。
Red Hat JBoss Data Grid はマーシャリングおよびアンマーシャリングを使用して以下を行います。
- クラスター内の他の JBoss Data Grid ノードへリレーするためにデータを変換します。
- 基盤のキャッシュストアに保存するためにデータを変換します。
31.2. JBoss Marshalling Framework リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は JBoss Marshalling Framework を使用して Java POJO をマーシャリングおよびアンマーシャリングします。JBoss Marshalling Framework は優れたパフォーマンスを提供するため、Java のシリアライゼーションの代わりに使用されます。さらに、JBoss Marshalling Framework は Java クラスを含む Java POJO を効率的にマーシャリングできます。
Java Marshalling Framework は、標準の java.io.ObjectOutputStream や java.io.ObjectInputStream よりも高パフォーマンスな java.io.ObjectOutput および java.io.ObjectInput 実装を使用します。
31.3. シリアライズ不可能なオブジェクトのサポート リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid がシリアライズ不可能なオブジェクトのストレージをサポートするかどうかはユーザーに共通する懸念事項です。JBoss Data Grid では、シリアライズ不可能なキーと値のオブジェクトに対してマーシャリングはサポートされます。ユーザーはシリアライズ不可能なオブジェクトにエクスターナライザー実装を提供できます。
Serializable または Externalizable サポートをクラスに導入できない場合、一例として XStream を使用してシリアライズ不可能なオブジェクトを JBoss Data Grid に格納できる String に変換し、対応することもできます。
必要となる XML トランスフォーメーションが原因で、キーと値のオブジェクトを格納するプロセスが遅くなります。
必要となる XML トランスフォーメーションが原因で、キーと値のオブジェクトを格納するプロセスが遅くなります。
31.4. Hot Rod およびマーシャリング リンクのコピーリンクがクリップボードにコピーされました!
リモートクライアントサーバーモードでは、Red Hat JBoss Data Grid サーバーとクライアントの両方のレベルでマーシャリングが発生しますが、詳細は異なります。
JBoss Data Grid サーバーのクライアントによって保存されるすべてのデーターは、バイトアレイまたは JBoss Data Grid のマーシャリングに対応するプリミティブな形式のいずれかとして提供されます。
JBoss Data Grid のサーバー側では、プリミティブな形式で保存されたデータがバイトアレイに変換され、クラスター周囲でのレプリケートまたはキャッシュストアへの保存が行われるとマーシャリングが発生します。JBoss Data Grid のサーバー側ではマーシャリングの設定は必要ありません。
POJO をシリアライズまたはデシリアライズするには、クライアントレベルでマーシャリングの
Marshaller設定要素が RemoteCacheManager 設定に指定されている必要があります。Hot Rod のバイナリーの性質により、マーシャリングに依存して POJO (キーまたは値) をバイトアレイに変換します。
31.5. RemoteCacheManager を使用したマーシャラーの設定 リンクのコピーリンクがクリップボードにコピーされました!
マーシャラーは RemoteCacheManager の marshaller 設定要素を使用して指定されます。その値は、Marshaller インターフェースを実装するクラスの名前である必要があります。このプロパティーのデフォルト値は org.infinispan.commons.marshall.jboss.GenericJBossMarshaller です。
独自のカスタムマーシャラーを開発する場合は、インスタンス化する前に読み取ったクラス名が想定されるまたは許可されるクラス名であることを検証して、潜在的なインジェクション攻撃から保護してください。
以下の手順は、RemoteCacheManager と使用するマーシャラーの定義方法を示しています。
マーシャラーの定義
設定ビルダーの作成
ConfigurationBuilder を作成し、必要な設定を指定します。
ConfigurationBuilder builder = new ConfigurationBuilder(); //... (other configuration)
ConfigurationBuilder builder = new ConfigurationBuilder(); //... (other configuration)Copy to Clipboard Copied! Toggle word wrap Toggle overflow マーシャラークラスの追加
Marshaller メソッド内に Marshaller クラス仕様を追加します。
builder.marshaller(GenericJBossMarshaller.class);
builder.marshaller(GenericJBossMarshaller.class);Copy to Clipboard Copied! Toggle word wrap Toggle overflow この代わりに、カスタム Marshaller インスタンスを指定することもできます。
builder.marshaller(new GenericJBossMarshaller());
builder.marshaller(new GenericJBossMarshaller());Copy to Clipboard Copied! Toggle word wrap Toggle overflow
RemoteCacheManager の起動
Marshaller が含まれる設定を構築し、その設定で新しい RemoteCacheManager を起動します。
Configuration configuration = builder.build(); RemoteCacheManager manager = new RemoteCacheManager(configuration);
Configuration configuration = builder.build(); RemoteCacheManager manager = new RemoteCacheManager(configuration);Copy to Clipboard Copied! Toggle word wrap Toggle overflow
クライアントレベルでは、POJO は Serializable、Externalizable、またはプリマティブ型のいずれかである必要があります。
Hot Rod Java クライアントは、Externalizer インスタンスの提供による POJO のシリアライズをサポートしません。これは、JBoss Data Grid のライブラリーモードでのみ使用できます。
31.6. デシリアライズを特定 Java クラスに制限 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid サーバーでは、ホワイトリストに指定した Java クラス以外に、標準の Java クラスとプリミティブのみデシリアライズできます。
その一方で、クライアントは、特定クラスのデシリアライズを制限しなければあらゆる Java クラスに属するオブジェクトをデシリアライズできます。これを行うには、org.infinispan.client.hotrod.configuration.ConfigurationBuilder クラスで addJavaSerialWhiteList メソッドを使用します。
たとえば、Person または Employee のいずれかが含まれる完全修飾名を持つ Java クラスのみにデシリアライズを制限するには、以下の設定を指定します。
import org.infinispan.client.hotrod.configuration.ConfigurationBuilder;
...
ConfigurationBuilder configBuilder = ...
configBuilder.addJavaSerialWhiteList(".*Person.*", ".*Employee.*");
import org.infinispan.client.hotrod.configuration.ConfigurationBuilder;
...
ConfigurationBuilder configBuilder = ...
configBuilder.addJavaSerialWhiteList(".*Person.*", ".*Employee.*");
JBoss Data Grid サーバーでデシリアライゼーションホワイトリストを設定するための詳細は、『Administration and Configuration Guide』の「Configuring the Deserialization Whitelist」を参照してください。
31.7. トラブルシューティング リンクのコピーリンクがクリップボードにコピーされました!
31.7.1. マーシャリングのトラブルシューティング リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、ユーザーオブジェクトをマーシャリングまたはアンマーシャリングする時にマーシャリングレイヤーと JBoss Marshalling によってエラーが発生することがあります。問題をデバッグできるようにするため、例外スタックトレースに詳細情報が含まれます。
例外スタックトレース
in object で始まるメッセージとスタックトレースは同様に読み取られます。一番上の in object メッセージは最も内側のもので、最も外側にある in object メッセージは一番下になります。
この例は、java.lang.Object@b40ec4 はシリアライズ可能でないため、org.infinispan.commands.write.PutKeyValueCommand インスタンス内の java.lang.Object はシリアライズできないことを示しています。
しかし、DEBUG または TRACE ロギングレベルが有効である場合、スタックトレースにあるオブジェクトの toString() 表現がマーシャリング例外に含まれます。このような状況を表す例は次のとおりです。
ロギングレベルが有効である場合の例外
アンマーシャリング例外でこのレベルの情報を表示するとリソース的に高価になります。しかし、JBoss Data Grid は可能な場合はクラス型の情報を表示します。以下は、このようなレベルの情報が表示された例を示しています。
アンマーシャリングの例外
上記の例では、内部クラス org.infinispan.marshall.VersionAwareMarshallerTest$1 のインスタンスがアンマーシャルされたときに IOException が発生しました。
DEBUG または TRACE ロギングレベルが有効な場合、マーシャリング例外と似た方法で、クラスタイプのクラスローダー情報が提供されます。このクラスローダー情報の例は次のとおりです。
クラスローダー情報
第32章 Infinispan CDI モジュール リンクのコピーリンクがクリップボードにコピーされました!
32.1. Infinispan CDI モジュール リンクのコピーリンクがクリップボードにコピーされました!
Infinispan の infinispan-cdi モジュールには Context and Dependency Injection (CDI) が含まれています。 infinispan-cdi モジュールは以下を提供します。
- Cache API を使用した設定およびインジェクション。
- キャッシュリスナーと CDI イベントシステム間のブリッジ。
- JCACHE をキャッシュするアノテーションの部分サポート。
32.2. Infinispan CDI の使用 リンクのコピーリンクがクリップボードにコピーされました!
32.2.1. Infinispan CDI の要件 リンクのコピーリンクがクリップボードにコピーされました!
以下は Infinispan CDI モジュールを Red Hat JBoss Data Grid と使用するための要件になります。
- 最新バージョンの infinispan-cdi モジュールを使用してください。
- 依存関係の情報を正しく設定してください。
32.2.2. CDI Maven 依存関係の設定 リンクのコピーリンクがクリップボードにコピーされました!
CDI モジュールは各デプロイメント型の Infinispan jar に含まれています。他に必要な依存関係はありません。
ライブラリーモード
ライブラリーモードでは、infinispan-embedded アーティファクトに CDI モジュールが含まれています。以下の例のように依存関係として追加する必要があります。
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-embedded</artifactId>
<version>${infinispan.version}</version>
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-embedded</artifactId>
<version>${infinispan.version}</version>
</dependency>
リモートクライアントサーバーモード
リモートクライアントサーバーモードでは、infinispan-remote アーティファクトに CDI モジュールが含まれています。以下の例のように依存関係として追加する必要があります。
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-remote</artifactId>
<version>${infinispan.version}</version>
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-remote</artifactId>
<version>${infinispan.version}</version>
</dependency>
32.3. Infinispan CDI モジュールの使用 リンクのコピーリンクがクリップボードにコピーされました!
32.3.1. Infinispan CDI モジュールの使用 リンクのコピーリンクがクリップボードにコピーされました!
Infinispan CDI モジュールは以下の目的に使用できます。
- Infinispan キャッシュを CDI Bean および Java EE コンポーネントに設定およびインジェクトする。
- キャッシュマネージャーの設定。
- CDI アノテーションを使用した格納および取得の制御。
32.3.2. Infinispan キャッシュの設定およびインジェクション リンクのコピーリンクがクリップボードにコピーされました!
32.3.2.1. Infinispan キャッシュのインジェクション リンクのコピーリンクがクリップボードにコピーされました!
Infinispan キャッシュは、プロジェクトの CDI Bean にインジェクトできる複数のコンポーネントの 1 つです。
以下のコードスニペットはキャッシュインスタンスを CDI Bean にインジェクトする方法を示しています。
public class MyCDIBean {
@Inject
Cache<String, String> cache;
}
public class MyCDIBean {
@Inject
Cache<String, String> cache;
}
32.3.2.2. リモート Infinispan キャッシュのインジェクション リンクのコピーリンクがクリップボードにコピーされました!
リモート Infinispan キャッシュをインジェクトするには、普通のキャッシュをインジェクトするコードスニペットを次のように若干変更します。
public class MyCDIBean {
@Inject
RemoteCache<String, String> remoteCache;
}
public class MyCDIBean {
@Inject
RemoteCache<String, String> remoteCache;
}
32.3.2.3. インジェクションのターゲットキャッシュの設定 リンクのコピーリンクがクリップボードにコピーされました!
32.3.2.3.1. インジェクションのターゲットキャッシュの設定 リンクのコピーリンクがクリップボードにコピーされました!
インジェクションのターゲットキャッシュを設定するには、次の 3 つのステップに従います。
- 修飾子アノテーションを作成します。
- プロデューサークラスを追加します。
- 希望のクラスをインジェクトします。
32.3.2.3.2. 修飾子アノテーションの作成 リンクのコピーリンクがクリップボードにコピーされました!
CDI を使用して特定のキャッシュを返すには、次のようにカスタムのキャッシュ修飾子アノテーションを作成します。
カスタムキャッシュ修飾子
@javax.inject.Qualifier
@Target({ElementType.FIELD, ElementType.PARAMETER, ElementType.METHOD})
@Retention(RetentionPolicy.RUNTIME)
@Documented
public @interface SmallCache {}
@javax.inject.Qualifier
@Target({ElementType.FIELD, ElementType.PARAMETER, ElementType.METHOD})
@Retention(RetentionPolicy.RUNTIME)
@Documented
public @interface SmallCache {}
作成した @SmallCache 修飾子を使用して、特定のキャッシュの作成方法を指定します。
32.3.2.3.3. プロデューサークラスの追加 リンクのコピーリンクがクリップボードにコピーされました!
以下のコードスニペットは、@SmallCache 修飾子 (前のステップで作成) がどのようにキャッシュの作成方法を指定するかを示しています。
@SmallCache 修飾子の使用
コードスニペットの要素は次のとおりです。
-
@ConfigureCacheはキャッシュの名前を指定します。 -
@SmallCacheはキャッシュ修飾子です。
32.3.2.3.4. 希望のクラスのインジェクト リンクのコピーリンクがクリップボードにコピーされました!
以下のように @SmallCache 修飾子と新しいプロデューサークラスを使用して、特定のキャッシュを CDI Bean にインジェクトします。
public class MyCDIBean {
@Inject @SmallCache
Cache<String, String> mySmallCache;
}
public class MyCDIBean {
@Inject @SmallCache
Cache<String, String> mySmallCache;
}
32.3.3. CDI を用いたキャッシュマネージャーの設定 リンクのコピーリンクがクリップボードにコピーされました!
32.3.3.1. CDI を用いたキャッシュマネージャーの設定 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のキャッシュマネージャー (組み込みとリモートの両方) は CDI を使用して設定できます。設定するキャッシュマネージャーが組み込みかリモートであるかに関わらず、最初の手順として、アノテーションを付けてプロデューサーとして動作するデフォルト設定を指定します。
32.3.3.2. デフォルト設定の指定 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid 設定に対してプロデューサーとしてアノテーション付けされたメソッドを指定し、デフォルトの Infinispan 設定を置き換えます。以下の設定例はこの手順を示しています。
デフォルト設定の指定
他の修飾子が提供されない場合、CDI は @Default 修飾子を追加します。
@Produces アノテーションが設定インスタンスを返すメソッドに配置された場合、Configuration オブジェクトが必要なときにメソッドが呼び出されます。
この設定例では、作成後に設定され返される新しい Configuration オブジェクトが作成されます。
32.3.3.3. 組み込みキャッシュマネージャーの作成のオーバーライド リンクのコピーリンクがクリップボードにコピーされました!
前提条件
「デフォルト設定の指定」参照してください。
非クラスターキャッシュの作成
プロデューサーメソッドにアノテーションが付けられた後、以下のように EmbeddedCacheManager の作成時にこのメソッドが呼び出されます。
@ApplicationScoped アノテーションはメソッドが 1 度だけ呼び出されることを指定します。
クラスターキャッシュの作成
以下の設定は、クラスターキャッシュの作成が可能な EmbeddedCacheManager の作成に使用できます。
EmbeddedCacheManager を生成するメソッドの呼び出し
非クラスターメソッドの @Produces アノテーションが付けられたメソッドは Configuration オブジェクトを生成します。クラスターキャッシュの例で @Produces アノテーションが付けられたメソッドは EmbeddedCacheManager オブジェクトを生成します。
以下のように CDI Bean にインジェクションを追加し、適切にアノテーションが付けられたメソッドを呼び出します。これにより EmbeddedCacheManager が生成され、起動時にコードにインジェクトされます。
EmbeddedCacheManager の生成
... @Inject EmbeddedCacheManager cacheManager; ...
...
@Inject
EmbeddedCacheManager cacheManager;
...
32.3.3.4. リモートキャッシュマネージャーの設定 リンクのコピーリンクがクリップボードにコピーされました!
RemoteCacheManager は、以下のように EmbeddedCacheManagers と似た方法で設定されます。
リモートキャッシュマネージャーの設定
32.3.3.5. 単一クラスでの複数のキャッシュマネージャーの設定 リンクのコピーリンクがクリップボードにコピーされました!
単一のクラスを使用して、作成された修飾子を基に複数のキャッシュマネージャーおよびリモートキャッシュマネージャーを設定できます。以下に例を示します。
複数のキャッシュマネージャーの設定
32.4. CDI アノテーションを使用した格納および取得 リンクのコピーリンクがクリップボードにコピーされました!
32.4.1. キャッシュアノテーションの設定 リンクのコピーリンクがクリップボードにコピーされました!
特定の CDI アノテーションは JCache (JSR-107) 仕様で受け入れられます。含まれるアノテーションはすべて javax.cache パッケージにあります。
アノテーションインターセプトメソッドは CDI Bean を呼び出し、インターセプトの結果として格納および取得タスクを実行します。
CDI はリモートクライアントサーバーモードとライブラリーモードの両方でサポートされますが、@CachePut、@CacheRemove、@CacheRemoveAll、@CacheResult などのアノテーションはリモードクライアントサーバーモードでは使用できません。
32.4.2. キャッシュアノテーションの有効化 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid には、使用方法に応じてインターセプターが 2 セット含まれています。beans.xml ファイルを使用するとインターセプターを CDI Bean アーカイブに追加できます。
オプション 1: CDI インターセプター
以下のコードを追加すると、InjectedCacheResultInterceptor、InjectedCachePutInterceptor、InjectedCacheRemoveEntryInterceptor、および InjectedCacheRemoveAllInterceptor などのインターセプターが追加されます。
CDI インターセプターの追加
オプション 2: JCache インターセプター
以下のコードを追加すると CacheResultInterceptor、CachePutInterceptor、CacheRemoveEntryInterceptor、および CacheRemoveAllInterceptor などのインターセプターが追加されます。
JCache インターセプターの追加
Red Hat JBoss Data Grid が javax.cache アノテーションを使用するには、記載されているインターセプターが beans.xml ファイルに存在する必要があります。
32.4.3. メソッド呼び出しの結果をキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
32.4.3.1. メソッド呼び出しの結果をキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
今後のアクセスのために結果をキャッシュに保存することは、時間またはリソース集約型の操作で一般的に行われます。以下のコードはこのような操作の例になります。
一般的には、メソッド呼び出しの結果をキャッシュし、次に結果が必要になるときにキャッシュをチェックします。以下は、このような操作の結果をキャッシュで検索するコードスニペットの例になります。結果が見つからない場合、コードスニペットは toCelsiusFormatted を再実行し、結果をキャッシュに格納します。
このような場合、Infinispan CDI モジュールを使用すると、関連する例で余分なコードを削除できます。以下のように、メソッドに @CacheResult アノテーションを付けます。
アノテーションにより、Infinispan はキャッシュをチェックし、結果が見つからなかった場合は toCelsiusFormatted() メソッドを呼び出します。
Infinispan CDI モジュールでは、保存した結果のキャッシュをチェックできますが、これは適用前に注意して考慮する必要があります。呼び出しの結果が常に最新のデータである必要がある場合やキャッシュの読み取りにリモートネットワークの検索やキャッシュローダーからのデシリアライズが必要である場合、コールメソッド呼び出し前のキャッシュのチェックは逆効果になる可能性があります。
32.4.3.2. 使用するキャッシュの指定 リンクのコピーリンクがクリップボードにコピーされました!
以下のオプションの属性 (cacheName) を @CacheResult アノテーションに追加し、メソッドコールの結果をチェックするキャッシュを指定します。
@CacheResult(cacheName = "mySpecialCache")
public String doSomething(String parameter) {
<!-- Additional configuration information here -->
}
@CacheResult(cacheName = "mySpecialCache")
public String doSomething(String parameter) {
<!-- Additional configuration information here -->
}
32.4.3.3. キャッシュされた結果のキャッシュキー リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、@CacheResult アノテーションはキャッシュから取得された結果のキーを作成します。このキーは、関連するメソッドのすべてのパラメーターの組み合わせで構成されます。
次のように @CacheKey アノテーションを使用してカスタムキーを作成します。
カスタムキーの作成
この例では、キャッシュキーの作成に p1 と p2 のみが値として使用されます。キャッシュキーの判断には dontCare の値は使用されません。
32.4.3.4. カスタムキーの生成 リンクのコピーリンクがクリップボードにコピーされました!
次のようにカスタムキーを生成します。
このメソッドはカスタムキーを構築します。このキーは呼び出しコンテキストの最初のパラメーターによって生成された値の一部として渡されます。
カスタムのキー生成スキームを指定するには、以下のように任意のパラメーター cacheKeyGenerator を @CacheResult アノテーションに追加します。
@CacheResult(cacheKeyGenerator = MyCacheKeyGenerator.class)
public void doSomething(String p1, String p2) {
<!-- Additional configuration information here -->
}
@CacheResult(cacheKeyGenerator = MyCacheKeyGenerator.class)
public void doSomething(String p1, String p2) {
<!-- Additional configuration information here -->
}
提供されたメソッドを使用し、p1 にカスタムキーが含まれます。
32.4.4. キャッシュ操作 リンクのコピーリンクがクリップボードにコピーされました!
32.4.4.1. キャッシュエントリーの更新 リンクのコピーリンクがクリップボードにコピーされました!
@CachePut アノテーションが含まれるメソッドが呼び出されると、パラメーター (通常は @CacheValue アノテーションが付けられたメソッドに渡されます) はキャッシュに格納されます。
@CachePut アノテーションが付けられたメソッドの例
@CachePut メソッドの cacheName および cacheKeyGenerator を使用するとさらにカスタマイズすることができます。また、呼び出されたメソッドの一部のパラメーターに @CacheKey アノテーションを付けるとキーの生成を制御できます。
「キャッシュされた結果のキャッシュキー」も参照してください。
32.4.4.2. キャッシュからのエントリーの削除 リンクのコピーリンクがクリップボードにコピーされました!
以下は、キャッシュからエントリーを削除するために使用される @CacheRemoveEntry アノテーションが付けられたメソッドの例になります。
キャッシュからエントリーを削除
このアノテーションは、任意の cacheName および cacheKeyGenerator 属性を受け入れます。
32.4.4.3. キャッシュの消去 リンクのコピーリンクがクリップボードにコピーされました!
@CacheRemoveAll メソッドを呼び出して、キャッシュからすべてのエントリーを消去します。
@CacheRemoveAll を使用してキャッシュからすべてのエントリーを消去
例のとおり、このアノテーションは任意の cacheName 属性を受け入れます。
第33章 Spring Framework との統合 リンクのコピーリンクがクリップボードにコピーされました!
33.1. Spring Framework との統合 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid では、ユーザーは Spring キャッシュプロバイダーを定義できるため、アプリケーションにキャッシュサポートを簡単に追加する方法を提供し、Spring のプログラミングモデルに精通したユーザーは JBoss Data Grid によるキャッシングを実現できます。
33.2. Spring Maven 依存関係の定義 リンクのコピーリンクがクリップボードにコピーされました!
Spring モジュールは、ライブラリーの依存関係およびリモートクライアントサーバーの依存関係とは別にバンドルされます。JBoss Data Grid の使用方法に応じて、以下の Maven 設定を使用する必要があります。
ライブラリーモードの Spring 4 用の pom.xml
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spring4-embedded</artifactId>
<version>${infinispan.version}</version>
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spring4-embedded</artifactId>
<version>${infinispan.version}</version>
</dependency>
リモートクライアントサーバーモードの Spring 4 用の pom.xml
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spring4-remote</artifactId>
<version>${infinispan.version}</version>
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spring4-remote</artifactId>
<version>${infinispan.version}</version>
</dependency>
33.3. プログラミングによる Spring キャッシュサポートの有効化 (ライブラリーモード) リンクのコピーリンクがクリップボードにコピーされました!
Spring のキャッシュサポートは、アプリケーションでプログラミングを使用して有効にできます。Spring のサポートを有効にするには、以下の手順を実行します。
-
使用している Spring 設定クラスに
@EnableCachingアノテーションを追加します。 -
@Beanアノテーションが付けられたSpringEmbeddedCacheManagerを返すメソッドを定義します。
以下のコードスニペットにはこれらの変更が反映されています。
プログラミングによる設定の例
33.4. プログラミングによる Spring キャッシュサポートの有効化 (リモートクライアントサーバーモード) リンクのコピーリンクがクリップボードにコピーされました!
Spring のキャッシュサポートは、以下の手順を実行し、アプリケーションでプログラミングを使用すると有効にできます。
-
使用している Spring 設定クラスに
@EnableCachingアノテーションを追加します。 -
@Beanアノテーションが付けられたSpringRemoteCacheManagerを返すメソッドを定義します。
以下のコードスニペットにはこれらの変更が反映されています。
プログラミングによる設定の例
33.5. アプリケーションコードへのキャッシングの追加 リンクのコピーリンクがクリップボードにコピーされました!
『Spring Cache Abstraction』に記載されている Spring アノテーションを使用すると、キャッシングを各アプリケーションに追加できます。
キャッシュエントリーの追加
キャッシュにエントリーを追加するには、@Cacheable アノテーションをメソッドに追加します。このアノテーションは戻り値を指定のキャッシュに追加します。たとえば、特定のキーを基に Book を返すメソッドの場合、次のように @Cacheable アノテーションを追加します。
@Cacheable(value = "books", key = "#bookId")
public Book findBook(Integer bookId) {...}
@Cacheable(value = "books", key = "#bookId")
public Book findBook(Integer bookId) {...}
findBook(Integer bookId) から返されたすべての Book インスタンスは、bookId を値のキーとして使用し、books という名前のキャッシュに置かれます。
key 属性が指定されていない場合、Spring は提供された引数からハッシュを生成し、生成されたこの値をキャッシュキーとして使用します。アプリケーションが直接エントリーを参照する必要がある場合、エントリーを簡単に取得できるようにするため、key 属性を含めることが推奨されます。
キャッシュエントリーの削除
キャッシュからのこエントリーを削除するには、メソッドに @CacheEvict アノテーションを付けます。このアノテーションを設定すると、キャッシュのすべてのエントリーをエビクトしたり、指定のキーを持つエントリーのみを対象としたりすることができます。以下の例を見てください。
第34章 Apache Spark との統合 リンクのコピーリンクがクリップボードにコピーされました!
34.1. JBoss Data Grid の Apache Spark コネクター リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid には Spark コネクターが含まれ、Apache Spark との密な統合を提供します。また、Java または Scala で書かれたアプリケーションが JBoss Data Grid をバッキングデータストアとして使用できるようにします。
実際には、Apache Spark 1.6.x をサポートするコネクターと、Apache Spark 2.x をサポートするコネクターの 2 つがあり、それぞれ Scala 2.10.x と 2.11.x をサポートします。両方のコネクターは、メインディストリビューションとは別に提供されます。
Apache Spark 1.6 コネクターには以下のサポートが含まれています。
- キャッシュからの RDD の作成
- キーバリュー RDD のキャッシュへの書き込み
- キャッシュレベルイベントからの DStream の作成
- キーバリュー DStream のキャッシュへの書き込み
上記の機能の他に、Apache Spark 2 コネクターは以下の機能もサポートします。
- JDG サーバー側フィルターを使用したキャッシュベースの RDD の作成
- JBoss Marshalling を基にした Spark シリアライザー
- 述語のプッシュダウンをサポートする Dataset API
Apache Spark のサポートは、リモートクライアントサーバーモードでのみ有効です。
34.2. Spark の依存関係 リンクのコピーリンクがクリップボードにコピーされました!
Apache Spark のバージョンに応じて、以下の Maven 設定を使用する必要があります。
Spark 1.6.x の pom.xml
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spark</artifactId>
<version>0.3.0.Final-redhat-2</version>
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spark</artifactId>
<version>0.3.0.Final-redhat-2</version>
</dependency>
Spark 2.x の pom.xml
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spark</artifactId>
<version>0.6.0-redhat-9</version>
</dependency>
<dependency>
<groupId>org.infinispan</groupId>
<artifactId>infinispan-spark</artifactId>
<version>0.6.0-redhat-9</version>
</dependency>
34.3. Spark コネクターの設定 リンクのコピーリンクがクリップボードにコピーされました!
Apache Spark の バージョン 1.6 コネクターとバージョン 2 コネクターは、設定に同じインターフェースを使用しません。バージョン 1.6 コネクターはプロパティーを使用し、バージョン 2 コネクターはメソッドを使用します。
34.3.1. バージョン 1.6 コネクターを設定するプロパティー リンクのコピーリンクがクリップボードにコピーされました!
| プロパティー名 | 説明 | デフォルト値 |
|---|---|---|
|
|
JBoss Data Grid ノードのリスト |
localhost:11222 |
|
|
RDD をバックするキャッシュの名前 |
デフォルトキャッシュ |
|
|
キャッシュから読み取りするときのバッチサイズ (エントリー数) |
10000 |
|
|
キャッシュへ書き込みするときのバッチサイズ (エントリー数) |
500 |
|
|
JBoss Data Grid サーバーごとに作成されるパーティションの数 |
2 |
|
|
protobuf ファイル名およびコンテンツを持つマップ |
エントリーに protobuf エンコーディング情報のアノテーションが付けられている場合は省略できます。protobuf エンコーディングは、クエリーによる RDD のフィルターに必要です。 |
|
|
キャッシュにあるオブジェクトの protostream マーシャラークラスのリスト |
エントリーに protobuf エンコーディング情報のアノテーションが付けられている場合は省略できます。protobuf エンコーディングは、クエリーによる RDD のフィルターに必要です。 |
34.3.2. バージョン 2 コネクターを設定するメソッド リンクのコピーリンクがクリップボードにコピーされました!
以下のメソッドは、バージョン 2 コネクターの設定に使用できます。これらのメソッドは org.infinispan.spark.config.ConnectorConfiguration クラスによって提供されます。
| メソッド名 | 説明 | デフォルト値 |
|---|---|---|
|
|
JBoss Data Grid ノードのリスト |
localhost:11222 |
|
|
RDD をバックするキャッシュの名前 |
デフォルトキャッシュ |
|
|
キャッシュから読み取りするときのバッチサイズ (エントリー数) |
10000 |
|
|
キャッシュへ書き込みするときのバッチサイズ (エントリー数) |
500 |
|
|
JBoss Data Grid サーバーごとに作成されるパーティションの数 |
2 |
|
|
protobuf ファイル名およびコンテンツを持つマップ |
エントリーに protobuf エンコーディング情報のアノテーションが付けられている場合は省略できます。protobuf エンコーディングは、クエリーによる RDD のフィルターに必要です。 |
|
|
キャッシュにあるオブジェクトの protostream マーシャラークラスのリスト |
エントリーに protobuf エンコーディング情報のアノテーションが付けられている場合は省略できます。protobuf エンコーディングは、クエリーによる RDD のフィルターに必要です。 |
|
|
protobuf アノテーションが含まれるクラスの登録 |
|
|
|
protobuf スキーマをサーバーで自動登録 |
なし |
|
|
JBoss Data Grid サーバーとの通信時に追加の Hot Rod クライアントプロパティーを設定 |
なし |
|
|
クエリーターゲットを指定するために Dataset API とともに使用 |
省略した場合、protobuf のアノテーションが付けられた 1 つのクラスのみが設定されていれば、そのクラスが選択されます。 |
34.3.3. セキュアな JDG クラスターへの接続 リンクのコピーリンクがクリップボードにコピーされました!
JDG クラスターがセキュアな場合、Hot Rod にセキュリティーを設定しないと、Spark コネクターは動作しません。Hot Rod セキュリティーを設定するためにセットアップできる Hot Rod プロパティーは複数あります。これらのプロパティーの説明は、『Administration and Configuration Guide』の付録にある「Hot Rod Properties table」の infinispan.client.hotrod.use_ssl 以降に記載されています。
これらのプロパティーは、バージョン 2 Apache Spark コネクターのみに限定されます。
34.4. Spark 1.6 のコード例 リンクのコピーリンクがクリップボードにコピーされました!
34.4.1. Spark 1.6 のコード例 リンクのコピーリンクがクリップボードにコピーされました!
Apache Spark 1.6 のコネクターは、バージョン 2 コネクターとは異なる設定メカニズムを使用し、バージョン 2 コネクターは 1.6 がサポートしない機能を一部サポートするため、各バージョンのコード例は独自のセクションに分割されています。以下のコード例は、バージョン 1.6 のSpark コネクターと動作します。Spark 2 のコード例はこちらを参照してください。
34.4.2. RDD の作成および使用 リンクのコピーリンクがクリップボードにコピーされました!
Apache Spark 1.6 コネクターを使用する場合、RDD は「バージョン 1.6 コネクターを設定するプロパティー」に記載されている設定に Properties インスタンスを指定して作成されます。その後、Spark コンテキストとともに使用して、通常の Spark 操作と使用される InfinispanRDD を作成します。
以下に Java および Scala での例を示します。
34.4.3. RDD の作成 リンクのコピーリンクがクリップボードにコピーされました!
RDD の作成 (Java)
RDD の作成 (Scala)
34.4.4. RDD のクエリー リンクのコピーリンクがクリップボードにコピーされました!
RDD が利用可能になると、Spark RDD 操作または Spark の SQL サポートのいずれかを使用してバッキングキャッシュを取得できます。上記の例を拡張して author (著者) ごとにエントリーをカウントすると、結果となる RDD と SQL クエリーは次のようになります。
RDD のクエリー (Java)
RDD のクエリー (Scala)
34.4.5. RDD のキャッシュへの書き込み リンクのコピーリンクがクリップボードにコピーされました!
静的 InfinispanJavaRDD.write() メソッドを使用すると、あらゆるキーバリューベースの RDD を Data Grid キャッシュに書き込みできます。これにより、RDD の内容がキャッシュにコピーされます。
RDD の書き込み (Java)
RDD の書き込み (Scala)
34.4.5.1. DStreams の作成および使用 リンクのコピーリンクがクリップボードにコピーされました!
DStream は継続するデータのストリームを表し、継続的な一連の RDD によって内部で表されます。各 RDD には特定の時間間隔からのデータが含まれます。
DStream の作成には、以下の例のように StreamingContext が StorageLevel および JBoss Data Grid RDD 設定とともに渡されます。
DStream の作成 (Scala)
InfinispanInputDStream は多くの Spark の DStream 操作を使用して変換でき、StreamingContext で「start」を呼び出した後に処理が発生します。たとえば、最後の 30 秒でキャッシュに挿入された本の数を 10 秒ごとに表示する場合は以下のようになります。
DStream の処理 (Scala)
DStreams での JBoss Data Grid への書き込み
キーバリュー型のすべての DStream は、Java の場合は InfinispanJavaDStream.writeToInfinispan() Java メソッド経由で JBoss Data Grid へ書き込みでき、Scala の場合は暗黙的な writeToInfinispan(properties) メソッドを直接 DStream インスタンスで使用して書き込みできます。両方のメソッドは JBoss Data Grid RDD 設定を入力として取り、DStream 内に含まれる各 RDD を書き込みます。
34.4.6. Spark での Infinispan Query DSL の使用 リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query DSL は InfinispanRDD のフィルターとして使用でき、RDD レベルではなくソースでデータを事前にフィルターできます。
クエリーする DSL が適切に動作するには、キャッシュのデータを protobuf でエンコードする必要があります。protobuf エンコーティングの使用手順は「Protobuf エンコーティング」を参照してください。
著者の名前に Doe 含まれる本のリストを取得する以下の例を見てください。
34.4.7. クエリーによるフィルリング リンクのコピーリンクがクリップボードにコピーされました!
クエリーによるフィルリング (Scala)
射影も完全サポートされます。たとえば、上記の例を調整して著書名と出版年のみを取得し、出版年のフィールドでソートすることができます。
34.4.8. 射影を使用したフィルタリング リンクのコピーリンクがクリップボードにコピーされました!
射影を使用したフィルタリング (Scala)
さらに、フィルターがすでに JBoss Data Grid サーバーにデプロイされている場合は、以下のように名前で参照することもできます。
34.4.9. デプロイされたフィルターを使用したフィルタリング リンクのコピーリンクがクリップボードにコピーされました!
デプロイされたフィルターを使用したフィルタリング (Scala)
val rdd = InfinispanRDD[String,Book] = ....
// "my-filter-factory" filter and converts Book to a String, and has two parameters
val filteredRDD = rdd.filterByCustom[String]("my-filter-factory", "param1", "param2")
val rdd = InfinispanRDD[String,Book] = ....
// "my-filter-factory" filter and converts Book to a String, and has two parameters
val filteredRDD = rdd.filterByCustom[String]("my-filter-factory", "param1", "param2")
34.5. Spark 2 のコード例 リンクのコピーリンクがクリップボードにコピーされました!
34.5.1. Spark 2 のコード例 リンクのコピーリンクがクリップボードにコピーされました!
Apache Spark 2 のコネクターは 1.6 コネクターとは異なる設定メカニズムを使用し、バージョン 2 コネクターは 1.6 がサポートしない機能を一部サポートするため、各バージョンのコード例は独自のセクションに分割されています。以下のコード例は、バージョン 2 のSpark コネクターと動作します。Spark 1.6 のコード例はこちらを参照してください。
34.5.2. RDD の作成および使用 リンクのコピーリンクがクリップボードにコピーされました!
Apache Spark 2 では、RDD (Resilient Distributed Datasets) は「バージョン 2 コネクターを設定するメソッド」に記載されている設定に ConnectorConfiguration インスタンスを指定して作成されます。
以下に Java および Scala での例を示します。
34.5.3. RDD の作成 リンクのコピーリンクがクリップボードにコピーされました!
RDD の作成 (Java)
RDD の作成 (Scala)
34.5.4. RDD のクエリー リンクのコピーリンクがクリップボードにコピーされました!
34.5.4.1. SparkSQL クエリー リンクのコピーリンクがクリップボードにコピーされました!
SparkSQL クエリーの使用 (Java)
SparkSQL クエリーの使用 (Scala)
34.5.5. RDD のキャッシュへの書き込み リンクのコピーリンクがクリップボードにコピーされました!
静的 InfinispanJavaRDD.write() メソッドを使用すると、あらゆるキーバリューベースの RDD を Data Grid キャッシュに書き込みできます。これにより、RDD の内容がキャッシュにコピーされます。
RDD の書き込み (Java)
RDD の書き込み (Scala)
34.5.6. DStreams の作成 リンクのコピーリンクがクリップボードにコピーされました!
DStream は継続するデータのストリームを表し、継続的な一連の RDD によって内部で表されます。各 RDD には特定の時間間隔からのデータが含まれます。
DStream の作成には、以下の例のように StreamingContext が StorageLevel および JBoss Data Grid RDD 設定とともに渡されます。
DStream の作成 (Java)
DStream の作成 (Scala)
DStreams での JBoss Data Grid への書き込み
キーバリュー型のすべての DStream は、Java の場合は InfinispanJavaDStream.writeToInfinispan() Java メソッド経由で JBoss Data Grid へ書き込みでき、Scala の場合は暗黙的な writeToInfinispan(properties) メソッドを直接 DStream インスタンスで使用して書き込みできます。両方のメソッドは JBoss Data Grid RDD 設定を入力として取り、DStream 内に含まれる各 RDD を書き込みます。
34.5.7. Apache Spark Dataset API の使用 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid は、RDD (Resilient Distributed Dataset) プログラミングインターフェースの他に、Apache Spark Dataset API が含まれています。この API には、rdd.filterByQuery と似た述語のプッシュダウンのサポートが含まれます。
Dataset API の例 (Java)
Dataset API の例 (Scala)
34.5.8. Spark での Infinispan Query DSL の使用 リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query DSL は InfinispanRDD のフィルターとして使用でき、RDD レベルではなくソースでデータを事前にフィルターできます。
クエリーする DSL が適切に動作するには、キャッシュのデータを protobuf でエンコードする必要があります。protobuf エンコーティングの使用手順は「Protobuf エンコーティング」を参照してください。
34.5.9. 事前ビルドされたクエリーオブジェクトを使用したフィルタリング リンクのコピーリンクがクリップボードにコピーされました!
事前ビルドされたクエリーオブジェクトを使用したフィルタリング (Java)
事前ビルドされたクエリーオブジェクトを使用したフィルタリング (Scala)
34.5.10. Ickle クエリーを使用したフィルタリング リンクのコピーリンクがクリップボードにコピーされました!
Ickle クエリーを使用したフィルタリング (Java)
Ickle クエリーを使用したフィルタリング (Scala)
import org.infinispan.spark.rdd.InfinispanRDD
val rdd: InfinispanRDD[String, MyEntity] = // Initialize your InfinispanRDD here
val filteredRDD = rdd.filterByQuery("FROM MyEntity e where e.field BETWEEN 10 AND 20")
import org.infinispan.spark.rdd.InfinispanRDD
val rdd: InfinispanRDD[String, MyEntity] = // Initialize your InfinispanRDD here
val filteredRDD = rdd.filterByQuery("FROM MyEntity e where e.field BETWEEN 10 AND 20")
34.5.11. サーバー上でのフィルタリング リンクのコピーリンクがクリップボードにコピーされました!
サーバー上でのフィルタリング (Java)
サーバー上でのフィルタリング (Scala)
import org.infinispan.spark.rdd.InfinispanRDD
val rdd: InfinispanRDD[String, MyEntity] = // Initalize your InfinispanRDD here
// "my-filter-factory" filter and converts MyEntity to a Double, and has two parameters
val filteredRDD = rdd.filterByCustom[Double]("my-filter-factory", "param1", "param2")
import org.infinispan.spark.rdd.InfinispanRDD
val rdd: InfinispanRDD[String, MyEntity] = // Initalize your InfinispanRDD here
// "my-filter-factory" filter and converts MyEntity to a Double, and has two parameters
val filteredRDD = rdd.filterByCustom[Double]("my-filter-factory", "param1", "param2")
34.6. Spark のパフォーマンスに関する注意点 リンクのコピーリンクがクリップボードにコピーされました!
Data Grid の Spark コネクターは、デフォルトでは Data Grid ノードごとに 2 つのパーティションを作成し、各パーティションはそのノードのデータのサブセットを指定します。
これらのパーティションは Spark ワーカーへ送信され、並列処理されます。Spark ワーカーの数が Data Grid ノードよりも少ない場合、各ワーカーにはタスクを並列実行できる最大限度があるため、遅延が発生することがあります。そのため、Spark ワーカーの数を最低でも Data Grid ノードの数と同じにしてこの並行処理を活用することが推奨されます。
また、Spark ワーカーが Data Grid ノードと同じノードに位置する場合、各ワーカーがローカルの Data Grid ノードにあるデータのみを処理するようコネクターによってタスクが分散されます。
第35章 Apache Hadoop との統合 リンクのコピーリンクがクリップボードにコピーされました!
35.1. Apache Hadoop との統合 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid コネクターは、JBoss Data Grid を Hadoop 対応のデータソースにします。この統合は、Hadoop の InputFormat および OutputFormat の実装を提供して実現され、アプリケーションが最適な場所の JBoss Data Grid サーバーに対してデータを読み書きできるようにします。JBoss Data Grid の InputFormat および OutputFormat 実装は、従来の Hadoop Map/Reduce ジョブの実行を可能にしますが、Hadoop の InputFormat データソースをサポートするツールやユーティリティーと使用することもできます。
35.2. Hadoop の依存関係 リンクのコピーリンクがクリップボードにコピーされました!
Hadoop の形式の JBoss Data Grid 実装は以下の Maven 依存関係にあります。
<dependency>
<groupId>org.infinispan.hadoop</groupId>
<artifactId>infinispan-hadoop-core</artifactId>
<version>0.2.2.Final-redhat-1</version>
</dependency>
<dependency>
<groupId>org.infinispan.hadoop</groupId>
<artifactId>infinispan-hadoop-core</artifactId>
<version>0.2.2.Final-redhat-1</version>
</dependency>
35.3. サポートされる Hadoop 設定パラメーター リンクのコピーリンクがクリップボードにコピーされました!
以下のパラメーターがサポートされます。
| パラメーター名 | 説明 | デフォルト値 |
|---|---|---|
|
|
読み取りの前にデータを事前にフィルターするためにサーバーにデプロイされるフィルターファクトリーの名前。 |
null (有効なフィルタリングなし) |
|
|
データが読み取られるキャッシュの名前。 |
___defaultcache |
|
|
以下の形式を使用する、入力キャッシュのサーバーのリスト。 host1:port;host2:port2
|
localhost:11222 |
|
|
データが書き込まれるキャッシュの名前。 |
default |
|
|
以下の形式を使用する、出力キャッシュのサーバーのリスト。 host1:port;host2:port2
|
null (出力キャッシュなし) |
|
|
キャッシュから読み取りするときのバッチサイズ。 |
5000 |
|
|
キャッシュに書き込みするときのバッチサイズ。 |
500 |
|
|
キャッシュから読み取りした後に適用される、 |
null (有効な変換なし)。 |
|
|
書き込みの前に適用される、 |
null (有効な変換なし)。 |
35.4. Hadoop コネクターの使用 リンクのコピーリンクがクリップボードにコピーされました!
InfinispanInputFormat および InfinispanOutputFormat
Hadoop では、InputFormat インターフェースは、特定のデータソースがパーティション化される方法と、各パーティションからのデータの読み取り方法を示します。OutputFormat インターフェースはデータの書き込み方法を指定します。
InputFormat インターフェースには、重要なメソッドが 2 つ定義されています。
getSplitsメソッドは、データの特定セクションに関する情報が含まれる 1 つ以上のInputSplitインスタンスを返すデータパーティショナーを定義します。List<InputSplit> getSplits(JobContext context);
List<InputSplit> getSplits(JobContext context);Copy to Clipboard Copied! Toggle word wrap Toggle overflow InputSplitを使用すると、結果となるデータセットで反復処理を行うために使用されるRecordReaderを取得できます。RecordReader<K,V> createRecordReader(InputSplit split,TaskAttemptContext context);
RecordReader<K,V> createRecordReader(InputSplit split,TaskAttemptContext context);Copy to Clipboard Copied! Toggle word wrap Toggle overflow
これらの 2 つの操作は、複数のノード全体でデータの並列処理を可能にするため、大型のデータセットで Hadoop のスループットが大きくなります。
JBoss Data Grid では、パーティションはセグメントの所有権を基に生成されるため、各パーティションは特定のサーバーのセグメントのセットになります。デフォルトでは、パーティションの数はクラスターのサーバーの数と同じになり、各パーティションにはその特定のサーバーに関連するすべてのセグメントが含まれます。
JBoss Data Grid における Hadoop Map Reduce ジョブの実行
以下に JBoss Data Grid クラスターをターゲットとする Map Reduce ジョブの設定例を示します。
JBoss Data Grid をターゲットとするには、ジョブを InfinispanInputFormat および InfinispanOutputFormat クラスと設定する必要があります。
第36章 EAP との統合 リンクのコピーリンクがクリップボードにコピーされました!
36.1. EAP との統合 リンクのコピーリンクがクリップボードにコピーされました!
EAP には Infinispan モジュールが含まれていますが、内部の EAP で使用することを目的とし、JBoss Data Grid との使用はサポートされていません。EAP 内で JDG を使用するには、JDG が提供する EAP モジュールを使用します。これらのモジュールを使用すると、スロットが異なるため、EAP の内部モジュールとの競合を防ぐことができます。さらに、JDG をデプロイメント内 (WAR、EAR など) にパッケージ化せずにアプリケーションをデプロイできるため、サイズが最小限になります。
36.2. EAP モジュールのインストール リンクのコピーリンクがクリップボードにコピーされました!
EAP のモジュールは、Red Hat カスタマーポータルからダウンロードできます。
手順: EAP モジュールのダウンロード
- https://access.redhat.com のカスタマーポータルにログインします。
- ページの上部にある ダウンロード ボタンをクリックします。
- 製品のダウンロード ページで Red Hat JBoss Data Grid をクリックします。
- Version: ドロップダウンメニューで適切な JBoss Data Grid のバージョンを選択します。
- Red Hat JBoss Data Grid 7.2 Library Module for JBoss EAP を見つけ、対応する Download リンクをクリックします。
zip ファイルを EAP_HOME/modules に展開する必要があります。ファイルが適切に展開されると、Infinispan コアモジュールの場所は EAP_HOME/modules/org/infinispan/core になります。
36.3. EAP の依存関係 リンクのコピーリンクがクリップボードにコピーされました!
Maven を使用してモジュールを設定するには、JDG の依存関係を提供済みとしてマークし、アーティファクトアーカイバーを設定して、以下の pom.xml ファイルを使用して適切な MANIFEST.MF で WAR ファイルを生成します。
pom.xml
36.4. 特定の JDG コンポーネントの依存関係 リンクのコピーリンクがクリップボードにコピーされました!
以下は、JDG の特定の機能を有効にする MANIFEST.MF 設定ファイルの例になります。
36.4.1. コア依存関係 リンクのコピーリンクがクリップボードにコピーされました!
JDG のコア依存関係のみをアプリケーションに公開するには、次のマニフェストを追加します。
MANIFEST.MF
Manifest-Version: 1.0 Dependencies: org.infinispan:jdg-7.2 services
Manifest-Version: 1.0
Dependencies: org.infinispan:jdg-7.2 services
36.4.2. リモート/Hot Rod 依存関係 リンクのコピーリンクがクリップボードにコピーされました!
リモートクエリー実行のために含まれる Hot Rod を介してリモート JDG サーバーに接続するには、org.infinispan.remote モジュールを使用します。このモジュールは、必要な依存関係をすべて自動的に公開します。
MANIFEST.MF
Manifest-Version: 1.0 Dependencies: org.infinispan.remote:jdg-7.2 services
Manifest-Version: 1.0
Dependencies: org.infinispan.remote:jdg-7.2 services
36.4.3. 埋め込みクエリーの依存関係 リンクのコピーリンクがクリップボードにコピーされました!
Infinispan Query DSL、Lucene、および Hibernate Search Queries を含む埋め込みクエリーの場合、以下をマニフェストに追加します。
MANIFEST.MF
Manifest-Version: 1.0 Dependencies: org.infinispan:jdg-7.2 services, org.infinispan.query:jdg-7.2 services
Manifest-Version: 1.0
Dependencies: org.infinispan:jdg-7.2 services, org.infinispan.query:jdg-7.2 services
36.4.4. Lucene ディレクトリーの依存関係 リンクのコピーリンクがクリップボードにコピーされました!
org.apache.lucene.store.Directory を使用してJDG を Lucene のディレクトリーとして使用する場合はクエリーモジュールは必要なく、以下で対応できます。
MANIFEST.MF
Manifest-Version: 1.0 Dependencies: org.infinispan.lucene-directory:jdg-7.2 services
Manifest-Version: 1.0
Dependencies: org.infinispan.lucene-directory:jdg-7.2 services
36.4.5. Hibernate Search ディレクトリープロバイダーの依存関係 リンクのコピーリンクがクリップボードにコピーされました!
JDG の Hibernate Search ディレクトリープロバイダーも JBoss EAP zip ファイルの JBoss Data Grid 7.2 ライブラリーモジュール内に含まれています。Hibernate Search モジュールにはすでに任意の依存関係があるため、マニフェストファイルにエントリーを追加する必要はありません。どの JDG モジュール zip を使用するかを決める場合、どの Hibernate Search が使用されているかをチェックしてから決めてください。
36.4.6. EAP の内部 Hibernate Search モジュールの使用 リンクのコピーリンクがクリップボードにコピーされました!
EAP 7.1 の Hibernate Search モジュールにはバージョン 5.5.x があり、スロットが for-hibernatesearch-5.5 の org.infinispan.hibernate-search.directory-provider モジュールへの任意の依存関係があります。この依存関係は、Infinispan モジュールが インストール されると利用可能になります。
36.4.7. その他の Hibernate Search モジュールとの用途 リンクのコピーリンクがクリップボードにコピーされました!
JDG と配布されるモジュール org.hibernate.search:jdg-7.2 は、Infinispan Query のみと併用し (キャッシュからデータをクエリー)、Hibernate ORM アプリケーションによって使用されないようにします。Hibernate Search を EAP に存在する他のバージョンと使用する場合は、Hibernate Search のドキュメントを参照してください。
org.infinispan.hibernate-search.directory-provider に選択した Hibernate Search のオプションスロットが JBoss Data Grid と配布されるものと一致するようにしてください。
36.5. EAP モジュールの使用 リンクのコピーリンクがクリップボードにコピーされました!
アプリケーションは、ライブラリー (埋め込み) モードまたは EAP サブシステムモードにて EAP 内で JDG を使用できます。
36.5.1. ライブラリーモード リンクのコピーリンクがクリップボードにコピーされました!
ライブラリーモードにて EAP 内で JDG を使用する場合、すべての CacheManager およびキャッシュインスタンスはアプリケーションロジックで作成されます。よって、EmbeddedCacheManager のライフサイクルはアプリケーションのライフサイクルと密に結合しているため、アプリケーションが破棄されると、そのアプリケーションによって作成されたマネージャーインスタンスが破棄されます。
36.5.2. EAP サブシステムモード リンクのコピーリンクがクリップボードにコピーされました!
JDG が EAP のサブシステムである EAP サブシステムモードでは、EAP の domain/configuration/domain.xml 設定の一部としてランタイム前にキャッシュコンテナーおよびキャッシュが作成されるようにすることが可能です。これにより、キャッシュインスタンスを複数のアプリケーション全体で共有することができ、基盤のキャッシュコンテナーのライフサイクルはデプロイされたアプリケーションとは無関係になります。
36.6. EAP サブシステムモードの設定 リンクのコピーリンクがクリップボードにコピーされました!
EAP サブシステムモードを有効にするには、以下を domain/configuration/domain.xml の EAP 設定に追加します。
ローカルキャッシュインスタンスには最初の 2 つの手順のみが必要になります。
-
Infinispan 拡張を
<extensions>セクションに追加します。
- Infinispan を必要とするサーバープロファイルに、必要なすべてのコンテナーおよびキャッシュとともに Infinispan サブシステムを設定します。
必ずモジュール属性が定義されているようにしてください。そうでないと、正しい Infinispan クラスがロードされません。
- JGroups サブシステムが必要な EAP インターフェースおよびソケットバインディングを定義します。
インターフェースの定義:
<interfaces>
<interface name="jdg">
<inet-address value="${jdg.bind.address:127.0.0.1}"/>
</interface>
</interfaces>
<interfaces>
<interface name="jdg">
<inet-address value="${jdg.bind.address:127.0.0.1}"/>
</interface>
</interfaces>
ソケットバインディングの定義:
<socket-binding-group name="full-sockets" default-interface="public">
<socket-binding name="jdg-jgroups-udp" interface="jdg" port="55200" multicast-address="${jdg.default.multicast.address:230.0.0.4}" multicast-port="45688"/>
<socket-binding name="jdg-jgroups-udp-fd" interface="jdg" port="54200"/>
</socket-binding-group>
<socket-binding-group name="full-sockets" default-interface="public">
<socket-binding name="jdg-jgroups-udp" interface="jdg" port="55200" multicast-address="${jdg.default.multicast.address:230.0.0.4}" multicast-port="45688"/>
<socket-binding name="jdg-jgroups-udp-fd" interface="jdg" port="54200"/>
</socket-binding-group>
EAP インターフェースとソケットバインディングの詳細は、JBoss EAP 『設定ガイド』の「ネットワークおよびポート設定」を参照してください。
- 指定されたすべてのプロトコルのモデル属性が定義されるよう、JGroups トランスポートを定義します。
サーバーモードの設定には、コマンドラインスクリプトも使用できます。
キャッシュを追加するには、次のコマンドを使用します。
add a simple cache /profile=full/subsystem=datagrid-infinispan/cache-container=jdg-container/distributed-cache=default:add(configuration=default)
# add a simple cache
/profile=full/subsystem=datagrid-infinispan/cache-container=jdg-container/distributed-cache=default:add(configuration=default)
36.7. コンテナーおよびキャッシュへのリモートアクセス リンクのコピーリンクがクリップボードにコピーされました!
コンテナーがサーバーの設定に定義されたら、 @Resource JNDI ルックアップを使用して CacheContainer または Cache のインスタンスをアプリケーションにインジェクトできます。コンテナーは文字列 java:jboss/datagrid-infinispan/container/<container_name> を使用してアクセスされ、キャッシュも同様に java:jboss/datagrid-infinispan/container/<container_name>/cache/<cache_name> を使用してアクセスされます。
以下の例は、「jdg-container」と呼ばれる CacheContainer と分散キャッシュ「default」をアプリケーションにインジェクトする方法を示しています。
このコード例では、jdg-7.2 モジュールに依存関係があります。
36.8. EAP サブシステムモードでの EAP および JDG のトラブルシューティング リンクのコピーリンクがクリップボードにコピーされました!
36.8.1. ロギングの有効化 リンクのコピーリンクがクリップボードにコピーされました!
org.jboss.modules でトレースを有効にすると、LinkageError や ClassNotFoundException などの問題をデバッグするのに便利です。起動時にトレースロギングを有効にするには、EAP CLI を使用します。
bin/jboss-cli.sh -c '/subsystem=logging/logger=org.jboss.modules:add' bin/jboss-cli.sh -c '/subsystem=logging/logger=org.jboss.modules:write-attribute(name=level,value=TRACE)'
bin/jboss-cli.sh -c '/subsystem=logging/logger=org.jboss.modules:add'
bin/jboss-cli.sh -c '/subsystem=logging/logger=org.jboss.modules:write-attribute(name=level,value=TRACE)'
36.8.2. 依存関係ツリーの出力 リンクのコピーリンクがクリップボードにコピーされました!
以下のコマンドを使用すると、特定モジュールのすべての依存関係を出力できます。たとえば、モジュール org.infinispan:jdg-7.2 のツリーを取得するには、以下を EAP_HOME から実行します。
java -jar jboss-modules.jar -deptree -mp modules/ "org.infinispan:jdg-7.2"
java -jar jboss-modules.jar -deptree -mp modules/ "org.infinispan:jdg-7.2"
第37章 サーバーヒンティングを用いた高可用性 リンクのコピーリンクがクリップボードにコピーされました!
37.1. サーバーヒンティングを用いた高可用性 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、サーバーヒンティングによってデータのバックアップコピーが元データと同じ物理サーバー、ラック、またはデータセンター上に保存されないようにします。トータルレプリケーションはすべてのサーバー、ラックおよびデータセンター上で完全なレプリカの作成を強制するため、サーバーヒンティングはトータルレプリケーションには適用されません。
複数のノードにまたがるデータ分散は一貫したハッシュメカニズムによって制御されます。JBoss Data Grid は、一貫したハッシュアルゴリズムを指定するためのプラグ可能なポリシーを提供します。詳細は「ConsistentHashFactories」を参照してください。
トランスポート設定で machineId、rackId、または siteId を設定すると、TopologyAwareConsistentHashFactory が使用されます。これは、サーバーヒンティングが有効な DefaultConsistentHashFactory と同じです。
サーバーヒンティングは、JBoss Data Grid 実装の高可用性を確実に実現する場合に特に重要になります。
37.2. ConsistentHashFactories リンクのコピーリンクがクリップボードにコピーされました!
37.2.1. ConsistentHashFactories リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は、一貫したハッシュアルゴリズムを選択するためのプラグ可能なメカニズムを提供します。これは 4 つの実装に同梱されていますが、カスタム実装を使用することもできます。
JBoss Data Grid には 4 つの ConsistentHashFactory 実装が同梱されています。
-
DefaultConsistentHashFactory- すべてのノード間でセグメントが均等に分散されるようにします。ただし、キーマッピングは、各キャッシュの履歴に依存するため、複数のキャッシュ間で同じであることは保証されません。consistentHashFactory が指定されない場合は、このクラスが使用されます。 -
SyncConsistentHashFactory- 現在のメンバーシップが同じである場合、各キャッシュでキーマッピングが同じになることを保証します。ただし、この欠点として、キャッシュに参加するノードによって既存ノードもセグメントを交換する可能性があり、その結果、状態遷移のトラフィックが追加で発生したり、データの分散がより不均等になります。 -
TopologyAwareConsistentHashFactory-DefaultConsistentHashFactoryと同等ですが、設定にサーバーヒンティングが含まれる場合に自動的に選択されます。 -
TopologyAwareSyncConsistentHashFactory-SyncConsistentHashFactoryと同等ですが、設定にサーバーヒンティングが含まれる場合に自動的に選択されます。
一貫したハッシュ実装をハッシュ設定で選択できます。
<distributed-cache consistent-hash-factory="org.infinispan.distribution.ch.impl.SyncConsistentHashFactory">
<distributed-cache consistent-hash-factory="org.infinispan.distribution.ch.impl.SyncConsistentHashFactory">
この設定は、同じメンバーを持つキャッシュに同一の一貫したハッシュがあることを保証し、さらに machineId、rackId、または siteId 属性がトランスポート設定で指定される場合に、バックアップコピーを複数の物理マシン、ラック、およびデータセンターにまたがって分散します。
想定される欠点として、この設定により、バランスの再調整時に必要とする数以上のセグメントが移動する可能性があります。ただし、この影響は、多数のセグメントを使用することによって軽減できます。
もう 1 つの想定される欠点として、セグメントが均等に分散されないことや、さらには多数のセグメントを実際に使用することによりセグメントの分散状況が悪化することなどがあります。
上述の欠点がありますが、多くの場合、SyncConsistentHashFactory および TopologyAwareSyncConsistentHashFactory を使用すると、ノードがクラスターに参加した順序に基いてハッシュが計算されないため、クラスター化環境でオーバーヘッドが減少します。また、これらのクラスは通常、各ノードに割り当てられるセグメントの数に大きな違いがあっても許容されるため、デフォルトのアルゴリズムよりも高速になります。
37.2.2. ConsistentHashFactory の実装 リンクのコピーリンクがクリップボードにコピーされました!
カスタム ConsistentHashFactory は、以下のメソッド (これらすべては org.infinispan.distribution.ch.ConsistentHashの実装を返します) を使って、org.infinispan.distribution.ch.ConsistenHashFactory インターフェースを実装する必要があります。
ConsistentHashFactory メソッド
37.3. キーアフィニティーサービス リンクのコピーリンクがクリップボードにコピーされました!
37.3.1. キーアフィニティーサービス リンクのコピーリンクがクリップボードにコピーされました!
キーアフィニティーサービスを使用すると、分散された Red Hat JBoss Data Grid クラスターの特定のノードに値を配置できます。サービスは、識別する指定済みクラスターアドレスに基いて、ハッシュ化されたキーを特定のノードに返します。
キーアフィニティーサービスにより返されたキーは、ユーザー名などの意味を持つことができません。これらは、このレコードのためにアプリケーション全体で使用される無作為の ID にすぎません。提供されたキージェネレーターは、このサービスにより返されるキーが一意であることを保証しません。カスタムキー形式について、KeyGenerator の独自の実装を渡すことができます。
このサービスの参照を取得し、使用する方法の例を以下に示します。
キーアフィニティーサービス
以下の手順は、提供された例の説明です。
キーアフィニティーサービスの使用
- キャッシュマネージャーおよびキャッシュの参照を取得します。
-
これにより、サービスが起動されます。その後、提供された
Executorを使用してキーが生成され、キューに置かれます。 -
ローカルノードにマップされるサービスからキーを取得します (
cacheManager.getAddress()はローカルアドレスを返します)。 -
KeyAffinityServiceから取得されたキーを持つエントリーは常に、提供されたアドレスを持つノードに格納されます。この場合は、ローカルノードになります。
37.3.2. ライフサイクル リンクのコピーリンクがクリップボードにコピーされました!
KeyAffinityService は Lifecycle を拡張します。これにより、キーアフィニティーサービスを停止、起動、および再起動することが可能になります。
キーアフィニティーサービスライフサイクルパラメーター
public interface Lifecycle {
void start();
void stop();
}
public interface Lifecycle {
void start();
void stop();
}
サービスは、KeyAffinityServiceFactory を介してインスタンス化されます。すべてのファクトリーメソッドには非同期キー生成に使用される Executor があるため、呼び出し元のスレッドでは行われません。ユーザーはこの Executor のシャットダウンを制御します。
KeyAffinityService は、不必要になった時点で明示的に停止する必要があります。これにより、バックグラウンドキーの生成が停止され、保持された他のリソースが解放されます。KeyAffinityServce は、登録されているキャッシュマネージャーがシャットダウンした場合のみ停止します。
37.3.3. トポロジーの変更 リンクのコピーリンクがクリップボードにコピーされました!
KeyAffinityService キーの所有権は、トポロジーが変更されると、変わることがあります。キーアフィニティーサービスは、トポロジーの変更と更新を監視し、古いキーまたは指定されたものと異なるノードにマップされるキーを返さないようにします。ただし、キーが使用されたときにノードアフィニティーが変更されないことは保証されません。以下に例を示します。
-
スレッド (
T1) は、ノード (A) にマップされるキー (K1) を読み取ります。 -
トポロジーが変更され、
K1がノードBにマップされます。 -
T1はK1を使用してキャッシュにデータを追加します。この時点では、K1はリクエストされたノードとは異なるBにマップします。
上記のシナリオは理想的ではありませんが、クラスターの変更中にすでに使用中のキーを移動できるため、アプリケーションのサポートされた動作です。KeyAffinityService は安定したクラスターに対してアクセス近接の最適化を提供します。トポロジーの変更が安定的でないときには適用されません。
第38章 分散実行 リンクのコピーリンクがクリップボードにコピーされました!
38.1. 分散実行 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は、標準の JDK ExecutorService インターフェースより分散実行を提供します。実行のために提出されたタスクは、ローカル JVM ではなく、JBoss Data Grid ノードのクラスター全体で実行されます。
JBoss Data Grid の分散タスクエクゼキューターは、JBoss Data Grid キャッシュノードからのデータを実行タスクの入力として使用できます。そのため、中間または最終結果のキャッシュストアを設定する必要がありません。JBoss Data Grid の入力データはすでに負荷分散されているため、タスクも自動的に分散されます。そのため、明示的にタスクを特定のノードに割り当てる必要はありません。
JBoss Data Grid の分散実行フレームワークでは、以下が行われます。
-
各
DistributedExecutorServiceは単一のキャッシュにバインドされます。提出されたタスクがDistributedCallableのインスタンスである場合、そのタスクは特定のキャッシュからキーバリューペアにアクセスできます。 -
タスクの 1 つが実行されるときにタスクが他のノードに移行されないようにするため、提出された各
Callable、Runnable、DistributedCallableは、SerializableまたはExternalizableである必要があります。Callableから返された値もSerializableまたはExternalizableである必要があります。
38.2. 分散エクゼキューターサービス リンクのコピーリンクがクリップボードにコピーされました!
DistributedExecutorService は DistributedCallable と、クラスターの他の Callable および Runnable クラスの実行を制御します。これらのインスタンスは、インストール時に渡される特定キャッシュに関係します。
DistributedExecutorService des = new DefaultExecutorService(cache);
DistributedExecutorService des = new DefaultExecutorService(cache);
「DistributedCallableAPI」の説明にあるとおり、DistributedCallable が拡張されると、DistributedTask はキーのサブセットに対してのみ実行できます。タスクがこのように単一ノードへ提出されると、JBoss Data Gridは指定のキーが含まれるノードを見つけます。さらに、DistributedCallable をこのノードに移行し、CompletableFuture を返します。タスクがこのように利用可能なノードすべてに提出された場合、指定のキーが含まれるノードのみがタスクを受け取ります。
DistributedTask が作成されたら、以下のメソッドの 1 つを使ってクラスターに提出することができます。
submitEverywhereメソッドを使用すると、クラスターの利用可能なノードすべてとキーバリューペアすべてにタスクを提出できます。des.submitEverywhere(task)
des.submitEverywhere(task)Copy to Clipboard Copied! Toggle word wrap Toggle overflow submitEverywhereメソッドは、キーのセットを引数として取ることもできます。このようにキーを渡すと、指定のキーが含まれる利用可能なノードのみにタスクが提出されます。des.submitEverywhere(task, $KEY)
des.submitEverywhere(task, $KEY)Copy to Clipboard Copied! Toggle word wrap Toggle overflow キーが指定された場合、タスクは指定されたキーが 1 つ以上含まれる単一のノードで実行されます。ローカルにないキーは、クラスターから取得されます。このバージョンの
submitメソッドは、以下の例のように操作する 1 つ以上のキーを受け入れます。des.submit(task, $KEY) des.submit(task, $KEY1, $KEY2, $KEY3)
des.submit(task, $KEY) des.submit(task, $KEY1, $KEY2, $KEY3)Copy to Clipboard Copied! Toggle word wrap Toggle overflow ノードの
Addressをsubmitメソッドに渡すと、特定ノードの実行を指示できます。以下は、クラスターのCoordinatorでのみ実行されます。des.submit(cache.getCacheManager().getCoordinator(), task)
des.submit(cache.getCacheManager().getCoordinator(), task)Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記デフォルトではタスクは自動的に分散されるため、通常は、実行の対象となる特定のノードを指定する必要はありません。
38.3. DistributedCallable API リンクのコピーリンクがクリップボードにコピーされました!
DistributedCallable インターフェースは、java.util.concurrent.package からの既存の Callable のサブタイプです。リモート JVM で実行でき、Red Hat JBoss Data Grid からの入力を受け取ることができます。DistributedCallable インターフェースは、JBoss Data Grid のキャッシュデータにアクセスする必要があるタスクのために使用されます。
DistributedCallable API を使用してタスクを実行する場合、タスクのメインアルゴリズムに変更はありませんが、入力ソースは変更になります。
キャッシュへのアクセスや渡したキーセットへのアクセスが必要な場合、Callable インターフェースをすでに実装済みのユーザーは DistributedCallable を拡張する必要があります。
DistributedCallable API の使用
38.4. Callable および CDI リンクのコピーリンクがクリップボードにコピーされました!
DistributedCallable を実装できない場合または DistributedCallable が適切でない場合に DistributedExecutorService で使用される入力キャッシュへの参照が必要であれば、CDI メカニズムによって入力キャッシュをインジェクトするオプションを使用できます。
Callable タスクが Red Hat JBoss Data Grid の実行ノードに到達すると、JBoss Data Grid の CDI メカニズムは適切なキャッシュ参照を提供し、実行している Callable にインジェクトします。
Callable を用いて JBoss Data Grid CDI を使用するには、以下の手順に従います。
-
CallableでCacheフィールドを宣言し、org.infinispan.cdi.Inputでアノテーションを付けます。 -
必須の
@Injectアノテーションを含めます。
Callable および CDI の使用
38.5. 分散タスクのフェイルオーバー リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid の分散実行フレームワークは、以下の場合でタスクのフェイルオーバーをサポートします。
- タスクが実行されている場所でノードの障害によるフェイルオーバーが発生した場合。
-
タスクの障害によるフェイルオーバー。たとえば、
Callableタスクによって例外が発生した場合。
フェイルオーバーポリシーはデフォルトで無効になっており、Runnable、Callable、および DistributedCallable タスクはフェイルオーバーメカニズムを呼び出しせずに失敗します。
JBoss Data Grid は、ランダムノードフェイルオーバーポリシーを提供し、利用可能な場合に別のランダムなノードで Distributed タスクの一部を実行します。
たとえば、以下を使用してランダムフェイルオーバー実行ポリシーを指定できます。
ランダムフェイルオーバー実行ポリシー
DistributedTaskFailoverPolicy インターフェースを実行してフェイルオーバー管理を提供することもできます。
分散タスクのフェイルオーバーポリシーインターフェース
38.6. 分散タスク実行ポリシー リンクのコピーリンクがクリップボードにコピーされました!
DistributedTaskExecutionPolicy は、ノードのサブセットへのタスクの実行をスコープ指定することで、タスクが Red Hat JBoss Data Grid クラスター全体でカスタム実行ポリシーを指定できるようにします。
たとえば、DistributedTaskExecutionPolicy を使用すると、以下の場合でタスクの実行を管理できます。
- バックアップリモートネットワークセンターではなく、ローカルネットワークの場所でのみタスクが実行される場合。
- タスクの実行に特定の JBoss Data Grid ラックノードの専用サブセットのみが必要な場合。
ラックノードを使用した特定タスクの実行
38.7. 分散実行とローカリティー リンクのコピーリンクがクリップボードにコピーされました!
分散環境の所有権では、DistributionManager と ConsistentHash は理論的で、これらのクラスはデータがキャッシュでアクティブであるかを認識しません。代わりに、これらのクラスは指定のキーを格納するノードを判断するために使用されます。
指定のキーのローカリティーを確認するには、以下のオプションの 1 つを使用します。
オプション 1: 以下の例のように、キーがキャッシュにあり、そのキーがローカルであることを
DistributionManagerが示すことを確認します。(cache.getAdvancedCache().withFlags(SKIP_REMOTE_LOOKUP).containsKey(key) && cache.getAdvancedCache().getDistributionManager().getLocality(key).isLocal())
(cache.getAdvancedCache().withFlags(SKIP_REMOTE_LOOKUP).containsKey(key) && cache.getAdvancedCache().getDistributionManager().getLocality(key).isLocal())Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプション 2: 直接
DataContainerをクエリーします。cache.getAdvancedCache().getDataContainer().containsKey(key)
cache.getAdvancedCache().getDataContainer().containsKey(key)Copy to Clipboard Copied! Toggle word wrap Toggle overflow
エントリーがパッシベートされた場合、キーの存在に関わらず DataContainer は False を返します。
38.7.1. 分散実行の例 リンクのコピーリンクがクリップボードにコピーされました!
この例では、Pi () の近似値の算出に並列分散実行が使用されます。
-
以下に示された正方形の面積:
正方形の面積 (S) = 4r2 -
円の面積の方程式:
円の面積 (C) = π x r2 -
最初の式の r について解く:
r2 = S/4 -
この r の値を 2 番目の式に挿入し、Pi の値を算出:
C = Sπ/4 -
方程式を解く:
C = Sπ/4
4C = Sπ
4C/S = π
図38.1 分散実行の例
正方形に大量のダーツを投げ、その正方形の中に円を描き、円の内部に突き刺さったすべてのダーツを破棄すると、C/S の近似値を算出できます。
以前、Pi の値は 4C/S と算出されました。この値を使用して Pi の近似値を求めることができます。投げるダーツの数を最大限にすると近似値がより正確になります。
以下の例では、クラスター全体で並列処理して 1 千万本のダーツを投げます。
分散実行の例
第39章 ストリーム リンクのコピーリンクがクリップボードにコピーされました!
39.1. ストリーム リンクのコピーリンクがクリップボードにコピーされました!
ストリームは Java 8 で導入され、キャッシュ全体などの大変大きなデータセットで操作を効率的に行うことができます。これらの操作は、データセット全体で手順通りに反復操作を行うのではなく、コレクションで実行されます。
さらに、キャッシュが分散されている場合は、クラスター全体で同時に操作を実行できるため、操作の実行がより効率的になります。
Stream を取得するには、単一スレッドのストリームの場合は stream() メソッド、複数スレッドのストリームの場合は parallelStream() メソッドを指定の Map 上で呼び出します。並列ストリームの詳細は 並列処理 で説明します。
39.2. ローカル/インバリデーション/レプリケーションキャッシュでのストリームの使用 リンクのコピーリンクがクリップボードにコピーされました!
ローカル、インバリデーション、またはレプリケーションキャッシュと使用するストリームは、通常のコレクション上のストリームと同じように使用できます。
たとえば複数の Book が含まれるキャッシュで、書名に「JBoss」が含まれるすべてのエントリーが含まれるマップを作成するには、以下を使用できます。
Map<Object, String> jbossBooks = cache.entrySet().stream()
.filter(e -> e.getValue().getTitle().contains("JBoss"))
.collect(Collectors.toMap(Map.Entry::getKey, Map.Entry::getValue));
Map<Object, String> jbossBooks = cache.entrySet().stream()
.filter(e -> e.getValue().getTitle().contains("JBoss"))
.collect(Collectors.toMap(Map.Entry::getKey, Map.Entry::getValue));
39.3. 分散キャッシュでのストリームの使用 リンクのコピーリンクがクリップボードにコピーされました!
ストリーム操作が分散キャッシュで実行されると、中間および終端操作を各ノードに送信し、結果となるデータは元のノードに返信されます。この動作により、操作をリモートノードで実行でき、最終結果のみが返されます。中間値は返されないため、最良のパフォーマンスが実現されます。
リハッシュ対応
ストリームが作成されたら、データはセグメント化され、各ノードはプライマリー所有者として所有するデータでのみ操作を実行します。セグメントの細かさが、ノードごとにデータを均一に分散できる細かさである場合、セグメント全体でデータを均一に処理できます。
データはノード間で再分散されるため、新しいノードが追加されたり、古いノードがクラスターから削除されると、この処理は不安定になります。これにより、データを 2 度処理できる問題が発生することがありますが、分散ストリーム は自動的にデータの再分散を処理するため、ノードを手動で監視する必要はありません。
39.4. タイムアウトの設定 リンクのコピーリンクがクリップボードにコピーされました!
操作リクエストのタイムアウト値を設定することは可能です。これは、リモートリクエストのみで使用され、リクエストごとに設定されます。そのため、ローカルリクエストは常にタイムアウトせず、フェイルオーバーが発生すると後続の各リクエストには新しいタイムアウトが指定されます。
タイムアウトの指定がない場合、デフォルトではレプリケーションタイムアウトが使用されます。以下の例のようにストリームの timeout(long timeout, TimeUnit unit) メソッドを使用すると、手作業で設定できます。
CacheStream<Map.Entry<Object, String>> stream = cache.entrySet().stream(); stream.timeout(1, TimeUnit.MINUTES);
CacheStream<Map.Entry<Object, String>> stream = cache.entrySet().stream();
stream.timeout(1, TimeUnit.MINUTES);
39.5. 分散ストリーム リンクのコピーリンクがクリップボードにコピーされました!
39.5.1. 分散ストリーム リンクのコピーリンクがクリップボードにコピーされました!
分散ストリームは、map reduce と同様に動作します。しかし、分散ストリームでは、ゼロから多数の中間操作があり、その後にワークが実行される各ノードへ送信される単一の終端操作が続きます。この動作には以下の手順が使用されます。
- どのノードが各指定セグメントのプライマリー所有者であるかによって、セグメントはグループ化されます。
リクエストは各リモートノードに対して生成されます。このリクエストには中間と終端操作が処理するセグメントとともに含まれます。
- 終端操作が開始されたスレッドは直接ローカル操作を実行します。
- 各リモートノードは生成されたリクエストを受信し、リモートスレッド上で操作を実行した後、応答を返信します。
- すべてのリクエストが完了したら、ユーザースレッドはすべての応答を収集し、操作によって指定された削減を実行します。
- 最終応答がユーザーに返されます。
39.5.2. マーシャルの可能性 リンクのコピーリンクがクリップボードにコピーされました!
分散キャッシュまたはレプリケートされたキャッシュを使用する場合、キーと値がマーシャル可能である必要があります。また、分散ストリームで実行される操作はクラスターの他のノードに送信されるため、これらの操作もマーシャル可能である必要があります。これらをマーシャル可能にするには、一般的に Serializable である新しいクラスを使用するか、Externalizer が登録済みの新しいクラスを使用します。しかし、FunctionalInterface は Serializable を実装し、すべてのラムダは即座にシリアライズされるため、追加のキャストは必要ありません。
分散ストリームの中間値はマーシャル可能である必要はありません。返信される最終値 (通常は終端操作) はマーシャル可能でなければなりません。
ラムダ関数が使用されている場合、パラメーターを Serializable のインスタンスとしてキャストするとシリアライズできます。たとえば、Book エントリーを格納するキャッシュの場合、以下は特定の著者と一致する Book インスタンスのコレクションを作成します。
List<Book> books = cache.keySet().stream()
.filter(e -> e.getAuthor().equals("authorname"))
.collect(toList());
List<Book> books = cache.keySet().stream()
.filter(e -> e.getAuthor().equals("authorname"))
.collect(toList());
さらに、デフォルトでは作成されたすべての Collectors がマーシャル可能であるとは限りません。JBoss Data Grid には、マーシャリングが必要なときに適切に機能する Collectors の組み合わせを容易に使用できる org.infinispan.stream.CacheCollectors が含まれています。
39.5.3. 並列処理 リンクのコピーリンクがクリップボードにコピーされました!
ストリームを並列処理するメソッドは 2 つあります。
- 並列ストリーム (Parallel Streams) - 単一ノードで各操作が並列して実行されます。
- 並列分散 (Parallel Distribution) - 複数のノードが関係するようにリクエストを並列処理します。
デフォルトでは、分散ストリームは並列分散を有効にしますが、さらに並列 Stream に結合できます。これにより、各ノードで複数のスレッドを使用して、複数のノード全体で同時操作を実行できます。
Stream を並列としてマーク付けするには、parallelStream() で取得するか、parallel() を呼び出して Stream の取得後に有効にします。以下の例は両方の方法を示しています。
リハッシュ対応イテレーターや forEach 操作などの一部の操作では、順次ストリームがローカルで強制されるものがあります。現在、このような操作で並列ストリームを使用することはできません。
39.5.4. 分散演算子 リンクのコピーリンクがクリップボードにコピーされました!
39.5.4.1. 終端演算子の分散結果削減 リンクのコピーリンクがクリップボードにコピーされました!
以下で各終端演算子について説明し、さらに終端演算子に対して分散削減がどのように動作するかも説明します。
allMatch
この演算子は各ノードで実行され、すべての結果はローカルの論理 AND 操作を使用して組み合わされ、最終値が取得されます。通常のストリーム操作が早く返された場合、これらのメソッドも早期に完了します。
noneMatch anyMatch
これらの演算子は各ノードで実行され、すべての結果は論理 OR 操作を使用して組み合わされ、最終値が取得されます。通常のストリーム操作が早く返された場合、これらのメソッドも早期に完了します。
collect
collect メソッドはいくつかの追加ステップを実行できます。他のメソッドと同様に、リモートノードはすべて想定どおりに実行します。しかし、最後の finisher 演算子を実行する代わりに、完全に組み合わされた結果を返信します。ローカルスレッドはすべてのローカルおよびリモートの結果を組み合わせて値にし、finisher 演算子を実行します。さらに、最終値はシリアライズ可能である必要はありませんが、supplier および combiner メソッドによって作成された値はシリアライズする必要があります。
count
count メソッドは各キャッシュから受信した数字を加算します。
findAny findFirst
findAny メソッドは、値がリモートまたはローカルノードからであるかに関わらず、最初に見つかった値を返します。この操作は早期終了をサポートし、最初の値が見つかったら他の値は処理されません。findFirst メソッドの動作と似ていますが、findFirst メソッドには「中間操作の例外」に説明のあるソートされた中間操作が必要になります。
max min
max および min メソッドは、最終削減の実行前に各ノードでそれぞれの値を見つけ、すべてのノード全体の最大値または最小値を判断します。
reduce
さまざまな reduce メソッドは、ローカルでローカルの結果とリモートの結果を累積する (有効な場合は組み合わせを行う) 前に、できるだけ多く結果をシリアライズします。この動作により、combiner から返された値はシリアライズ可能である必要はありません。
39.5.4.2. キーベースのリハッシュ対応演算子 リンクのコピーリンクがクリップボードにコピーされました!
以下の演算子は、他の終端演算子とは異なり、セグメントごとに処理されたキーを追跡するために特別なリハッシュ対応を必要とします。これにより、クラスターのメンバーシップが変更になっても、iterator および spliterator 演算子では各キーが 1 度のみ処理されることが保証され、forEach 演算子では最低でも 1 度処理されることが保証されます。
iterator spliterator
これらの演算子はリモートノードで実行されると、エントリーのバッチを返し、以前のバッチが完全に消費された後でのみ次のバッチが送信されます。この動作は、1 度にメモリーに保持されるエントリーの数を制限します。ユーザーノードは、どのキーが処理されたかを追跡し、セグメントが完了するとこれらのキーはメモリーから解放されます。この動作により、順次処理の使用が推奨され、すべてのノードからのキーを保持する代わりにセグメントキーのサブセットのみをメモリーに保持するようにします。
forEach
forEachはバッチを返しますが、最低でもバッチに値するキーを処理した後でのみバッチを返します。これにより、元のノードは処理済みのキーを認識でき、同じエントリーを再処理する可能性を低減します。しかし、ノードが予期せずダウンした場合に同じセットが繰り返し処理される可能性があります。この場合、ノードがダウンしたときに未完了のバッチの処理中であった可能性があり、リハッシュ障害の操作が発生するときに同じバッチが再度実行される可能性があります。リハッシュのフェイルオーバーはすべての応答が受信されるまで発生しないため、ノードを追加してもこの問題の原因にはなりません。
操作のバッチサイズは、CacheStream の distributedBatchSize によって制御されます。値が設定されていない場合は、状態の遷移で設定された chunkSize がデフォルトとして使用されます。値が大きいと大きなバッチが許可されますが、返信回数が少なくなり、メモリーの使用量が増加します。テストを実行して各アプリケーションに適切なサイズを判断してください。
39.5.4.3. 中間操作の例外 リンクのコピーリンクがクリップボードにコピーされました!
以下の中間操作には特別な例外があります。これらすべてのメソッドのストリーム処理には、適切な処理を保証する人工的なイテレーターのようなものが埋め込まれています。そのため、以下の中間操作を使用すると、パフォーマンスが大幅に劣化する可能性があります。
Skip
人工的なイテレーターは skip 操作まで埋め込まれ、結果はローカルに取り込まれるため、適切な要素の数がスキップされる可能性があります。
Peek
人工的なイテレーターは peek 操作まで埋め込まれます。特定数の peek 処理された要素のみがリモートノードに返され、結果はローカルに取り込まれるため、指定の数のみに peek が行われる可能性があります。
Sorted
人工的なイテレーターは sorted 操作まで埋め込まれ、すべての結果はローカルでソートされます。
警告この操作では、すべてのエントリーをローカルノードのメモリーに格納する必要があります。
Distinct
Distinct は各リモートノードで実行され、すべての結果に distinct 操作が実行された後に人工的なイテレーターは distinct の値を返します。
警告この操作では、すべてのエントリーをローカルノードのメモリーに格納する必要があります。
39.5.5. 分散ストリームの例 リンクのコピーリンクがクリップボードにコピーされました!
典型的な Map/Reduce の例が単語数のカウントです。キーと値に対して String を持つキャッシュがあり、文すべての単語数を数える必要がある場合、以下を使用して実装できます。
Map<String, Long> wordCountMap = cache.entrySet().parallelStream()
.map(e -> e.getValue().split("\\s"))
.flatMap(Arrays::stream)
.collect(CacheCollectors.serializableCollector(() -> Collectors.groupingBy(Function.identity(), Collectors.counting())));
Map<String, Long> wordCountMap = cache.entrySet().parallelStream()
.map(e -> e.getValue().split("\\s"))
.flatMap(Arrays::stream)
.collect(CacheCollectors.serializableCollector(() -> Collectors.groupingBy(Function.identity(), Collectors.counting())));
例を変更して最も頻繁に使用される単語を見つける場合、すべての単語が必要になり、最初にローカルで数える必要があります。以下のスニペットは前述の例を拡張し、この検索を実行します。
この時点で、最後のステップが単一のスレッドで実行されます。ローカルで並列ストリームを使用して最終の操作を実行すると、この操作をさらに最適化できます。
第40章 スクリプト リンクのコピーリンクがクリップボードにコピーされました!
40.1. スクリプト リンクのコピーリンクがクリップボードにコピーされました!
データグリッドにはサーバーにスクリプトを格納するメソッドが含まれています。リモートクライアントは、 JDK の javax.script.ScriptEngines を使用してリモートクライアントがローカルでスクリプトを実行できるようにします。デフォルトでは、JDK には JavaScript を実行できる Nashorn が含まれていますが、これを拡張すると独自の ScriptEngine を提供する JVM 言語を実行できます。
40.2. スクリプトキャッシュへのアクセス リンクのコピーリンクがクリップボードにコピーされました!
スクリプトは ___script_cache という特別な保護されたキャッシュに格納されます。これは保護されたキャッシュであるため、ループバックリクエストや承認が有効になっている接続のみがキャッシュにアクセスできます。
___script_cache へリモートで接続するには、以下の要件を満たす必要があります。
-
ユーザーが
___script_managerロールで定義されている必要があります。 - クライアントはサーバーへセキュアに接続できる必要があります。これを実現するには、「インターフェースのセキュア化」の手順にしたがってください。
- キャッシュコンテナーで承認が有効になっている必要があります。
スクリプトキャッシュへのアクセスをサーバーで設定
以下の例は、Hot Rod コネクターをセキュア化する DIGEST-MD5 メソッドを使用して、スクリプトキャッシュへのアクセスをサーバーで設定する方法を示しています。
以下のように、ユーザーをサーバーに追加します。
- $JDG_HOME/bin/add-user.sh スクリプト (Linux の場合) または $JDG_HOME\bin\add-user.bat スクリプト (Windows の場合) を実行します。
最初のプロンプトで
bを作成し、ApplicationRealmユーザーを作成します。What type of user do you wish to add? a) Management User (mgmt-users.properties) b) Application User (application-users.properties) (a): b
What type of user do you wish to add? a) Management User (mgmt-users.properties) b) Application User (application-users.properties) (a): bCopy to Clipboard Copied! Toggle word wrap Toggle overflow - プロンプトにしたがって、ユーザーのユーザー名とパスワードを定義します。
グループの入力を要求されたら、このユーザーに対して
___script_managerを入力します。What groups do you want this user to belong to? (Please enter a comma separated list, or leave blank for none)[ ]: ___script_manager
What groups do you want this user to belong to? (Please enter a comma separated list, or leave blank for none)[ ]: ___script_managerCopy to Clipboard Copied! Toggle word wrap Toggle overflow
クライアントサーバー間の通信をセキュア化します。この例では
DIGEST-MD5を使用するため、「Hot Rod 認証 (MD5) の設定」の手順にしたがいます。以下のスニペットは必要な xml 設定を示しています。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のコードスニペットのように、セキュアな接続を使用してキャッシュマネージャーを作成します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
40.3. スクリプトのインストール リンクのコピーリンクがクリップボードにコピーされました!
スクリプトを ___script_cache に追加するには、スクリプトの名前をキーとし、スクリプトの内容を値としてキャッシュ自体をスクリプトに追加します。スクリプトの名前に sample.js などのファイル拡張子が含まれている場合、スクリプトを実行するエンジンは拡張子によって決定されます。この動作をオーバーライドするには、スクリプト内部のメタデータを指定します。
スクリプトの内容は ___script_cache の値に格納する必要があり、既存のファイルからロードするか手作業で入力することができます。以下の例はこれらのオプションを示しています。
ファイルからスクリプトをロード
ファイル内にスクリプトが格納されていること前提とした場合、以下のコードサンプルを使用するとファイルの内容を読み出し、スクリプティングキャッシュへ格納することができます。
スクリプトの内容を定義
ファイルからスクリプトをロードする代わりに、手作業でスクリプトを定義し、スクリプティングキャッシュに置くことができます。
RemoteCache<String, String> scriptCache = cacheManager.getCache("___script_cache");
scriptCache.put("multiplication.js",
"// mode=local,language=javascript\n" +
"// parameters=[multiplicand,multiplier]" +
"multiplicand * multiplier\n");
RemoteCache<String, String> scriptCache = cacheManager.getCache("___script_cache");
scriptCache.put("multiplication.js",
"// mode=local,language=javascript\n" +
"// parameters=[multiplicand,multiplier]" +
"multiplicand * multiplier\n");
40.4. メタデータのスクリプト リンクのコピーリンクがクリップボードにコピーされました!
メタデータをスクリプトに格納し、スクリプトの実行方法に関する追加情報をサーバーに提供することができます。このメタデータは、スクリプトの最初の行にある特別書式のコメントに含まれます。
プロパティーは、カンマ区切りのキーバリューペアとして定義され、コメントのスタイルは //、;;、\# など、使用されるスクリプト言語によって異なります。必要な場合はこの情報を複数の行に分散でき、1 重または 2 重引用符を使用して値が区切られます。
以下は有効なメタデータコメントの例になります。
// name=test, language=javascript // mode=local, parameters=[a,b,c]
// name=test, language=javascript
// mode=local, parameters=[a,b,c]
メタデータプロパティー
以下のメタデータプロパティーを使用できます。
mode: スクリプト実行モードを定義します。以下の値の 1 つになります。-
local: スクリプトはリクエストを処理するノードのみによって実行されます。スクリプト自体はクラスター化された操作を呼び出しできます。 -
distributed: 分散エクゼキューターサービスを使用してスクリプトを実行します。
-
-
language: Javascript など、スクリプトの実行に使用されるスクリプトエンジンを定義します。 -
extension: js などのスクリプトの実行に使用されるスクリプトエンジンを指定する代替メソッド。 -
role: スクリプトの実行に必要な特定のロール。 -
parameters: このスクリプトの有効なパラメーター名のアレイ。パラメーター名を指定する呼び出しがこのリストに含まれていないと、例外が発生します。
実行モードはスクリプトの特徴であるため、異なるモードでスクリプトを呼び出しするためにクライアント側で追加の設定を行う必要はありません。
40.5. スクリプトバインディング リンクのコピーリンクがクリップボードにコピーされました!
スクリプトエンジンはスクリプトの実行時に複数の内部オブジェクトを事前定義のバインディングとして公開します。これらの内部オブジェクトは次のとおりです。
-
cache: このキャッシュに対してスクリプトが実行されます。 -
cacheManager: キャッシュの cacheManager。 -
marshaller: キャッシュへデータをマーシャル/アンマーシャルするために使用されるマーシャラー。 -
scriptingManager: スクリプトの実行に使用されているスクリプトマネージャーのインスタンス。これを使用してスクリプトから別のスクリプトを実行できます。
40.6. スクリプトパラメーター リンクのコピーリンクがクリップボードにコピーされました!
スクリプトには、標準のバインディングの他に、バインディングのようにも見える名前付きパラメーターのセットを渡すことができます。パラメーターは、名前と値のペアのマップとして渡され、名前は文字列で、値は使用中のマーシャラーが理解できる値になります。
multiplicand と multiplier の 2 つのパラメーターを取る以下のスクリプトを見てみましょう。
// mode=local,language=javascript // parameters=[multiplicand,multiplier] multiplicand * multiplier
// mode=local,language=javascript
// parameters=[multiplicand,multiplier]
multiplicand * multiplier
最後の操作は評価であるため、その結果はスクリプトインボーカーへ返されます。渡された値はスクリプトの実行方法に応じて変更され、各実行メソッドによって対応されます。
40.7. Hot Rod Java クライアントを使用したスクリプトの実行 リンクのコピーリンクがクリップボードにコピーされました!
サーバー側で承認が無効になっている場合、スクリプトがインストールされると誰でも実行することができます。その他の場合では、EXEC パーミッションを持つユーザーのみがインストール済みのスクリプトを実行することができます。
Hot Rod でスクリプトを実行するにはスクリプトを実行するキャッシュ上で execute(scriptName, parameters) を呼び出します。この場合、scriptName は ___script_cache に格納されたスクリプトの名前で、parameters は名前付きパラメーターの Map<String,Object> になります。
以下は、Hot Rod 経由で上記の multiplication.js スクリプトを実行する例になります。
40.8. スクリプトの例 リンクのコピーリンクがクリップボードにコピーされました!
以下の例は、ユーザーが構文のスクリプト化に関する理解を深め、各環境でスクリプトに適切なタスクを考慮するためのさまざまなタスクを示しています。
分散実行
以下は、分散エクゼキューター内で実行されるスクリプトです。各ノードはそのアドレスを返し、すべてのノードはクライアントに返す List に収集されます。
// mode:distributed,language=javascript cacheManager.getAddress().toString();
// mode:distributed,language=javascript
cacheManager.getAddress().toString();
単語カウントストリーム
以下は、ローカルキャッシュで実行され、結果セットで各単語の発生回数を数え、単語と発生回数をキーバリューペアで返すスクリプトになります。
40.9. 格納されたスクリプト実行時の制限 リンクのコピーリンクがクリップボードにコピーされました!
Java ストリームを DIST モードのクラスターと使用するとエラーが発生します。
クラスターが DIST モードである場合、JavaScript で Stream を作成するスクリプトを使用することはできません。このようなスクリプトを実行しようとすると、シリアライズの際にラムダが失敗し、NotSerializableException が発生します。この問題を回避するため、Iterator を使用してデータ上で手動で繰り返し処理を行うか、データがスクリプトから発信元ノードへ遷移された後にラムダを実行することが推奨されます。
他のモードのクラスターでストリームを使用した場合は問題はありません。
第41章 リモートタスクの実行 リンクのコピーリンクがクリップボードにコピーされました!
41.1. リモートタスクの実行 リンクのコピーリンクがクリップボードにコピーされました!
タスクまたはビジネスロジックは直接 JBoss Data Grid サーバーで実行できるため、タスクの実行はデータに近く、クラスターのすべてのノードにあるリソースを使用します。
タスクを Java 実行可能ファイルにバンドルし、プログラミングで実行可能ファイルを実行できるサーバーインスタンスにデプロイすることができます。
41.2. リモートタスクの作成 リンクのコピーリンクがクリップボードにコピーされました!
リモート実行のタスクを作成するには、 org.infinispan.tasks.ServerTask インターフェースを実装するクラスが含まれる .jar ファイルを作成する必要があります。
実装には以下のメソッドが必要になります。
-
void setTaskContext(TaskContext taskContext): タスクコンテキストを設定します。このメソッドを使用して、キャッシュや必要なその他のリソースにアクセスします。 -
String getName(): タスクに一意な名前を提供します。この名前はTaskManagerによる実行に使用されます。
以下は実装の任意のメソッドになります。
-
TaskExecutionMethod getExecutionMode():TaskExecutionMode.ONE_NODEのようにタスクが 1 つのノードで実行されるか、またはTaskExecutionMode.ALL_NODESのようにすべてのノードで実行されるかを決定します。デフォルトでは 1 つのノードで実行されます。 -
Optional<String> getAllowedRole(): ユーザーがタスクの実行に必要なロールを設定します。デフォルトでは追加のユーザーロールは設定されません。詳細は「リモートタスクの実行」を参照してください。 -
Set<String> getParameters(): タスクに使用する名前付きパラメーターを指定します。
41.3. リモートタスクの例 リンクのコピーリンクがクリップボードにコピーされました!
以下には、org.infinispan.tasks.ServerTask インターフェースを実装するクラスの例が含まれています。
41.4. リモートタスクのインストール リンクのコピーリンクがクリップボードにコピーされました!
リモートタスクを作成し、.jar ファイルにバンドルしたら、以下のオプションの 1 つを使用して JBoss Data Grid サーバーインスタンスにデプロイできます。
オプション 1: deployments ディレクトリーへコピーする
.jarファイルを deployments/ ディレクトリーにコピーします。$] cp /path/to/sample_task.jar $JDG_HOME/standalone/deployments/
$] cp /path/to/sample_task.jar $JDG_HOME/standalone/deployments/Copy to Clipboard Copied! Toggle word wrap Toggle overflow
オプション 2: CLI でコピーする
JBoss Data Grid サーバーに接続します。
[$JDG_HOME] $ bin/cli.sh --connect --controller=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect --controller=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow .jarファイルをデプロイします。deploy /path/to/sample_task.jar
deploy /path/to/sample_task.jarCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記JBoss Data Grid がドメインモードである場合、
--all-server-groupsまたは--server-groupsパラメーターを使用してサーバーグループを市営する必要があります。
41.5. リモートタスクの削除 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid の実行中のインスタンスからリモートタスクを削除するには、以下を行います。
JBoss Data Grid サーバーに接続します。
[$JDG_HOME] $ bin/cli.sh --connect --controller=$IP:$PORT
[$JDG_HOME] $ bin/cli.sh --connect --controller=$IP:$PORTCopy to Clipboard Copied! Toggle word wrap Toggle overflow undeployコマンドを実行して.jarファイルを削除します。undeploy /path/to/sample_task.jar
undeploy /path/to/sample_task.jarCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記JBoss Data Grid がドメインモードである場合、
--all-server-groupsまたは--server-groupsパラメーターを使用してサーバーグループを市営する必要があります。
41.6. リモートタスクの実行 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid サーバーで承認が有効になっている場合、 EXEC パーミッションを持つユーザーのみがリモートタスクを実行できます。承認が有効になっていない場合は、すべてのユーザーがリモートタスクを実行できます。
リモートタスクには、getAllowedRole メソッドで指定された追加のユーザーロールを付与することができます。この場合、ユーザーはそのロールに属さないとリモートタスクを実行できません。
以前デプロイしたタスクを実行するには、対象のキャッシュで execute(String taskName, Map parameters) を呼び出します。
以下の例は、sampleTask という名前のタスクを実行する方法を示しています。
第42章 データの相互運用性 リンクのコピーリンクがクリップボードにコピーされました!
42.1. プロトコルの相互運用性 リンクのコピーリンクがクリップボードにコピーされました!
42.1.1. プロトコルの相互運用性 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のプロトコルの相互運用性により、C++ または Java などの各種プログラミング言語で書かれた REST、Memcacherd、および Hot Rod などの各種プロトコルによる、raw バイト形式のデータへの読み書きアクセスを可能にします。
デフォルトで、各プロトコルはそのプロトコルの最も効率的な形式でデータを保存し、エントリーの取得時に変換が必要とならないようにします。このデータを複数のプロトコルからアクセスする必要がある場合、互換性モードは、共有されるキャッシュで有効にされる必要があります。
互換性モードの有効化
互換性モードを有効にする手順は、『Administration and Configuration Guide』を参照してください。
42.1.2. ユースケースおよび要件 リンクのコピーリンクがクリップボードにコピーされました!
以下の表は、Red Hat JBoss Data Grid におけるデータ相互運用性の一般的なユースケースを示しています。
| ユースケース | クライアント A (リーダーまたはライター) | クライアント B (クライアント A に対する書き込み/読み取りクライアント) |
|---|---|---|
|
1 |
Memcached |
Hot Rod Java |
|
2 |
REST |
Hot Rod Java |
|
3 |
Memcached |
REST |
|
4 |
Hot Rod Java |
Hot Rod C++ |
|
5 |
Hot Rod Java |
Hot Rod C# |
|
6 |
Memcached |
Hot Rod C++ |
これらのユースケースでは、マーシャルはユーザーの判断に委ねられます。JBoss Data Grid は byte[] を格納し、ユーザーはこれを意味のあるデータにマーシャルまたはアンマーシャルします。
たとえばユースケース 1 の場合、相互運用性は Memcached クライアント (A) と Hot Rod Java クライアント (B) の間になります。クライアント A が Person インスタンスなどのアプリケーション固有のオブジェクトをシリアライズする場合、String をキーとして使用できます。
以下の手順はすべてのユースケースに適用されます。
クライアント A 側
-
A は Protobuf や Avro などのサードパーティーマーシャラーを使用して
Personの値を byte[] にシリアライズします。UTF-8 でエンコードされた文字列をキーとして使用する必要があります (Memcached プロトコルの要件のため)。 - A はキーバリューペアをサーバーに書き込みます (キーを UTF-8 文字列、値をバイトアレイとして)。
クライアント B 側
-
B は特定キー (String) の
Personを読み取る必要があります。 - B は同じ UTF-8 キーを対応する byte[] にシリアライズします。
-
B は
get(byte[])を呼び出します。 - B はシリアライズされたオブジェクトを表す byte[] を取得します。
-
B は A と同じマーシャラーを使用して byte[] を対応する
Personオブジェクトにアンマーシャルします。
- ユースケース 4 では、Hot Rod Java クライアントに含まれる Protostream Marshaller の使用が推奨されます。Hot Rod C++ クライアントでは、Google の Protobuf Marshaller (https://developers.google.com/protocol-buffers/docs/overview) が推奨されます。
- ユースケース 5 では、デフォルトの Hot Rod マーシャラーを使用できます。
42.1.3. REST 上のプロトコル相互運用性 リンクのコピーリンクがクリップボードにコピーされました!
JBoss Data Grid の REST インターフェースは、データを格納および読み出しするために Hot Rod および Memcached クライアントがアクセスできるキャッシュを公開します。
各キャッシュは、メディアタイプによって定義された設定可能な形式でデータを格納します。JBoss Data Grid では、クライアントは異なる形式でデータを読み書きでき、必要時に形式を自動的に変換できます。
デフォルトのメディアタイプやメディアタイプの変換などが含まれる REST API の詳細は、『The REST API』を参照してください。
第43章 データセンター間のレプリケーションのセットアップ リンクのコピーリンクがクリップボードにコピーされました!
43.1. データセンター間レプリケーション リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid では、データセンター間レプリケーションにより、管理者は複数のクラスターでデータのバックアップを作成することができます。これらのクラスターは物理的に同じ場所または異なる場所に置くことができます。JBoss Data Grid のサイト間レプリケーションの実装は JGroups の RELAY2 プロトコルをベースとします。
データセンター間レプリケーションにより、クラスター全体におけるデータの冗長性が保証されます。データを復元するためのバックアップを作成する他に、これらのデータセットをアクティブ-アクティブモードで使用することもできます。このように設定されると、あるクラスターに障害が発生したときに別の環境にあるシステムがセッションを処理することができます。各クラスターを他のクラスターとは物理的に異なる場所に置くことが理想的です。
43.2. データセンター間レプリケーションの操作 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のデータセンター間レプリケーションの操作は、以下のような例を使用して説明できます。
図43.1 データセンター間レプリケーションの例
この例では、LON、NYC および SFO の 3 つのサイトが設定されます。それぞれのサイトは、3 つから 4 つの物理ノードから構成される実行中の JBoss Data Grid クラスターをホストします。
Users キャッシュは、LON、NYC および SFO の 3 つのすべてのサイトでアクティブです。これらのサイトのいずれかの Users キャッシュへの変更は、キャッシュが設定で他の 2 つのサイトをバックアップとして定義している限り、それらの他の 2 つのサイトにレプリケートされます。ただし、Orders キャッシュは、他のサイトにレプリケートされないため LON サイトでのみ利用できます。
Users キャッシュは各サイトで異なるレプリケーションメカニズムを使用できます。たとえば、データのバックアップを SFO に同期的に、NYC と LON に非同期的に行います。
さらに、Users キャッシュの設定をサイトごとに変えることもできます。たとえば、LON サイトでは owners を 2 に設定した分散キャッシュとして設定し、NYC サイトではレプリケートされたキャッシュとして、さらに SFO サイトでは owners を 1 に設定した分散キャッシュとして設定することができます。
JGroups は各サイト内の通信やサイト間の通信に使用されます。RELAY2 という JGroups プロトコルは、サイト間の通信を容易にします。詳細は、JBoss Data Grid『Administration Guide』の「RELAY2」を参照してください。
43.3. プログラミングによるデータセンター間レプリケーションの設定 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid でのデータセンター間のレプリケーションを設定するプログラムを用いた方法を以下に示します。
プログラミングによるデータセンター間レプリケーションの設定
ノードの場所を特定します。
ノードが所属するサイトを宣言します。
globalConfiguration.site().localSite("LON");globalConfiguration.site().localSite("LON");Copy to Clipboard Copied! Toggle word wrap Toggle overflow JGroups を設定します。
RELAY プロトコルを使用するように JGroups を設定します。
globalConfiguration.transport().addProperty("configurationFile",“jgroups-with-relay.xml”);globalConfiguration.transport().addProperty("configurationFile",“jgroups-with-relay.xml”);Copy to Clipboard Copied! Toggle word wrap Toggle overflow リモートサイトをセットアップします。
リモートサイトにレプリケートするために JBoss Data Grid キャッシュをセットアップします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプション: バックアップクラッシュを設定します。
JBoss Data Grid は、リモートサイトと同じ名前でデータをキャッシュに暗黙的にレプリケートします。リモートサイトのバックアップキャッシュの名前が異なる場合、データが確実に正しいキャッシュにレプリケートされるようにするため
backupForキャッシュを指定する必要があります。注記この手順は任意であり、リモートサイトのキャッシュの名前が元のキャッシュとは異なる場合にのみ必要になります。
LONからのバックアップデータを受信できるようにサイトNYCのキャッシュを設定します。ConfigurationBuilder NYCbackupOfLon = new ConfigurationBuilder(); NYCbackupOfLon.sites().backupFor().remoteCache("lon").remoteSite("LON");ConfigurationBuilder NYCbackupOfLon = new ConfigurationBuilder(); NYCbackupOfLon.sites().backupFor().remoteCache("lon").remoteSite("LON");Copy to Clipboard Copied! Toggle word wrap Toggle overflow LONからバックアップデータを受信できるようにサイトSFOのキャッシュを設定します。ConfigurationBuilder SFObackupOfLon = new ConfigurationBuilder(); SFObackupOfLon.sites().backupFor().remoteCache("lon").remoteSite("LON");ConfigurationBuilder SFObackupOfLon = new ConfigurationBuilder(); SFObackupOfLon.sites().backupFor().remoteCache("lon").remoteSite("LON");Copy to Clipboard Copied! Toggle word wrap Toggle overflow
設定ファイルの内容を追加します。
デフォルトでは、Red Hat JBoss Data Grid の infinispan-embedded-{VERSION}.jar パッケージに default-configs/default-jgroups-tcp.xml や default-configs/default-jgroups-udp.xml などのJGroups 設定ファイルが含まれています。
JGroups 設定ファイルを新規ファイル (この例ではファイル名は jgroups-with-relay.xml) にコピーし、指定の設定情報をこのファイルに追加します。relay.RELAY2 プロトコル設定は設定スタックの最新のプロトコルである必要があります。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow relay.xml ファイルを設定します。
relay.xml ファイルで relay.RELAY2 設定をセットアップします。このファイルにはグローバルクラスター設定が記述されています。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow グローバルクラスターを設定します。
relay.xml で参照される jgroups-global.xml ファイルには、グローバルクラスター、つまりサイト間の通信で使用される別の JGroups 設定が含まれます。
グローバルクラスターは、通常 TCP ベースで、TCPPING プロトコル (PING や MPING ではなく) を使用してメンバーを検索します。default-configs/default-jgroups-tcp.xml の内容を jgroups-global.xml にコピーし、TCPPING を設定するために以下の設定を追加します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow TCPPING.initial_hostsのホスト名 (または IP アドレス) をサイトマスターに使用されるものに置き換えます。ポート (この例では7800) はTCP.bind_portと一致する必要があります。TCPPING プロトコルの詳細は、JBoss Data Grid の『Administration and Configuration Guide』を参照してください。
43.4. サイトをオフラインにする リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid のデータセンター間のレプリケーション設定では、一定の時間間隔に 1 つのサイトへのバックアップが複数回失敗する場合、そのサイトを自動的にオフラインとすることができます。この機能により、サイトをオフラインとする管理者による手動の介入が不要になります。
プログラムを用いて Red Hat JBoss Data Grid でデータセンター間のレプリケーションサイトを自動的にオフラインにするよう設定するには、以下を行います。
サイトをオフラインにする (プログラムを使用)
43.5. Hot Rod サイト間クラスターフェイルオーバー リンクのコピーリンクがクリップボードにコピーされました!
クラスター内のフェイルオーバーに加えて、Hot Rod クライアントは、それぞれが独立したサイトを表す異なるクラスターにフェイルオーバーできます。Hot Rod サイト間クラスターフェイルオーバーは自動および手動モードの両方で利用できます。
自動サイト間フェールオーバー
メイン/プライマリークラスターノードが利用できない場合、クライアントアプリケーションは、代替方法で定義されたクラスターをチェックし、それらへのフェイルオーバーを試行します。フェイルオーバーが正常に実行されると、クライアントはその代替クラスターが利用不可になるまでそのクラスターに接続されたままになります。その後、クライアントは他の定義済みクラスターにフェイルオーバーし、接続が復元される場合は最終的に元のサーバー設定を持つメイン/プライマリークラスターに切り替わります。
Hot Rod クライアントに代替クラスターを設定するには、以下の例が示す設定済みクラスターのそれぞれに対して 1 つ以上のホスト/ポートのペアの詳細情報を指定します。
代替クラスターの設定
org.infinispan.client.hotrod.configuration.ConfigurationBuilder cb
= new org.infinispan.client.hotrod.configuration.ConfigurationBuilder();
cb.addCluster("remote-cluster").addClusterNode("remote-cluster-host", 11222);
RemoteCacheManager rcm = new RemoteCacheManager(cb.build());
org.infinispan.client.hotrod.configuration.ConfigurationBuilder cb
= new org.infinispan.client.hotrod.configuration.ConfigurationBuilder();
cb.addCluster("remote-cluster").addClusterNode("remote-cluster-host", 11222);
RemoteCacheManager rcm = new RemoteCacheManager(cb.build());
クラスター定義を問わず、デフォルトのサーバーホストおよびポートの詳細を使用して初期サーバーが解決されない場合は初期サーバー設定を指定する必要があります。
手動によるサイト間クラスターフェイルオーバー
手動によるサイトクラスターのスイッチオーバーでは、RemoteCacheManager の switchToCluster(clusterName) または switchToDefaultCluster() を呼び出します。
switchToCluster(clusterName) を使用すると、ユーザーは Hot Rod クライアント設定で事前定義されたクラスターの 1 つへの切り替えをクライアントに対して強制できます。デフォルトのクラスターへ切り替える場合は、代わりに switchToDefaultCluster() を使用します。
第44章 ニアキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
44.1. ニアキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
ニアキャッシュは Rod Rod Java クライアント実装の任意のキャッシュで、ユーザーの近くに最近アクセスされたデータを保持し、頻繁に使用されるデータへのアクセスをより迅速にします。このキャッシュは、get または getVersioned 操作によってリモートエントリーが読み出されると更新されるローカルの Hot Rod クライアントキャッシュとして動作します。
ライブラリーモードのニアキャッシュまたは Hot Rod 以外のインターフェースは、1 次キャッシュを設定して実現します。1 次キャッシュの設定方法は、JBoss Data Grid の『Administration and Configuration Guide』を参照してください。
Red Hat JBoss Data Grid では、エントリーの変更時または削除時にクライアントへ通知を送信するリモートイベントを使用して、ニアキャッシュの整合性を保持します (「リモートイベントリスナー (Hot Rod)」を参照してください)。ニアキャッシュでは、ローカルキャッシュはリモートキャッシュと整合性をとります。サーバーのリモートエントリーが更新または削除されるたびにローカルエントリーは更新またはインバリデートされます。クライアントレベルでは、ニアキャッシュは以下のいずれかとして設定されます。
-
DISABLED: デフォルトのモード。ニアキャッシュが有効になっていないことを示します。 -
INVALIDATED: ニアキャッシュを有効にし、インバリデーションメッセージ経由でリモートキャッシュとの同期を維持します。
デフォルトでは、Hot Rod クライアントに対してニアキャッシュは無効になっています。
図44.1 ニアキャッシュアーキテクチャー
44.2. ニアキャッシュの設定 リンクのコピーリンクがクリップボードにコピーされました!
ニアキャッシュは、Hot Rod クライアントに変更を加えずに、設定から有効または無効にすることができます。ニアキャッシュを有効にするには、ニアキャッシュモードをクライアント側で INVALIDATED として設定し、任意でキャッシュに保持するエントリーの数を指定します。
ニアキャッシュのモードは、NearCacheMode 列挙を使用して設定されます。
以下の例はニアキャッシュの設定方法を表しています。
ニアキャッシュの有効化
maxEntries(int maxEntries) メソッドを使用してニアキャッシュの最大サイズを提供する必要があります。上記の設定では 100 に定義されています。最大サイズに到達した場合、ニアキャッシュのエントリーは LRU (leaset-recently-used、最近最も使われていない) アルゴリズムを使用してエビクトされます。無制限のニアキャッシュを定義するには、ゼロまたは負の値を渡します。
44.3. クラスター環境でのニアキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
ニアキャッシュは Hot Rod リモートイベントを使用して実装され、クラスター化リスナーを利用してクラスター全体からのイベントを受信します。クラスター化リスナーはクラスター内の単一ノード上にインストールされ、残りのノードはリスナーがインストールされるノードにイベントを送信します。そのため、ニアキャッシュがバックアップするクラスター化リスナーを実行しているノードに障害が発生する可能性があります。このような場合、別のノードがクラスター化リスナーを引き継ぎます。
クラスター化リスナーを実行しているノードに障害が発生した場合、クライアントフェイルオーバーイベントコールバックを定義および呼び出しすることができます。ニアキャッシュでは、フェイルオーバー中にイベントを見逃す可能性があるため、このコールバックとその実装がニアキャッシュを消去します。
詳細は、「クラスター化リスナー」を参照してください。
第45章 競合マネージャーの使用方法 リンクのコピーリンクがクリップボードにコピーされました!
45.1. キャッシュの競合の検索および解決 リンクのコピーリンクがクリップボードにコピーされました!
競合マネージャー (Conflict Manager) は通常 パーティション処理 (Partition Handling) とともに使用されます。スプリットブレインは、クラスターのノードがお互いに通信できない複数のグループ (パーティション) に分割されると発生します。場合によっては、ノードに異なるデータを書き込むことが可能になります。このような場合、JBoss Data Grid のパーティション処理を競合マネージャーとともに使用すると、ノード全体で同じ CacheEntries の違いを自動的に解決することができます。競合マネージャーは、手動による競合の検索および解決にも使用できます。
以下のコードは、EmbeddedCacheManager の ConflictManager を取得する方法、指定キーのバージョンをすべて取得する方法、および指定キャッシュ全体で競合をチェックする方法を示しています。
ConflictManager::getConflicts ストリームはエントリーごとに処理されますが、基盤のスプリッテレーター (spliterator) はセグメントごとにキャッシュエントリーをレイジーにロードします。
付録A 参考資料 リンクのコピーリンクがクリップボードにコピーされました!
A.1. エクスターナライザー リンクのコピーリンクがクリップボードにコピーされました!
A.1.1. エクスターナライザーについて リンクのコピーリンクがクリップボードにコピーされました!
Externalizer は以下を実行できるクラスです。
- 該当するオブジェクトタイプをバイトアレイにマーシャリングします。
- バイトアレイの内容のオブジェクトタイプのインスタンスに対するマーシャリングを解除します。
エクスターナライザーは Red Hat JBoss Data Grid により使用され、ユーザーはオブジェクトタイプをどのようにシリアライズするかを指定できます。JBoss Data Grid で使用されるマーシャリングインフラストラクチャーは、JBoss Marshalling に基づいて構築され、効率的なペイロード配信を提供し、ストリームをキャッシュすることを可能にします。ストリームキャッシングを使用すると、データに複数回アクセスできますが、通常はストリームは 1 度だけ読み取ることができます。
A.1.2. 内部エクスターナライザー実装アクセス リンクのコピーリンクがクリップボードにコピーされました!
Externalizable オブジェクトは Red Hat JBoss Data Grid エクスターナライザー実装にアクセスしないようにする必要があります。間違った使用法の例を以下に示します。
エンドユーザーエクスターナライザーは内部のエクスターナライザークラスと対話する必要がありません。正しい使用法の例を以下に示します。
A.2. ハッシュ領域の割り当て リンクのコピーリンクがクリップボードにコピーされました!
A.2.1. ハッシュ領域の割り当てについて リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は、使用可能なハッシュ領域全体の一部を各ノードに割り当てる役割があります。エントリーを格納する必要がある後続の操作中、JBoss Data Grid は関連するキーのハッシュを作成し、その部分のハッシュ領域を所有するノード上にエントリーを格納します。
A.2.2. ハッシュ領域におけるキーの検索 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat JBoss Data Grid は常にアルゴリズムを使用してハッシュ領域のキーを見つけます。そのため、キーを格納するノードを手動で指定することはありません。このスキームにより、キーの所有者情報を配信しなくても、すべてのノードは特定のキーを所有するノードを判断することができます。このスキームによりオーバヘッドの量が削減されます。さらに重要なことに、ノードの障害時に所有者情報をレプリケートする必要がないため、冗長性が向上されます。