3.3. 使用带有远程缓存的分析器


分析器将输入数据转换为您可以索引和查询的术语。您可以使用 Java 类中的 @Field 注释或直接在 Protobuf 模式中指定分析器定义。

流程

  1. 包含 analyzee.YES 属性,以指示分析属性。
  2. 使用 @Analyzer 注释指定分析器定义。

protobuf 模式

/* @Indexed */
message TestEntity {

    /* @Field(store = Store.YES, analyze = Analyze.YES, analyzer = @Analyzer(definition = "keyword")) */
    optional string id = 1;

    /* @Field(store = Store.YES, analyze = Analyze.YES, analyzer = @Analyzer(definition = "simple")) */
    optional string name = 2;
}

Java 类

@ProtoDoc("@Field(store = Store.YES, analyze = Analyze.YES, analyzer = @Analyzer(definition = \"keyword\"))")
@ProtoField(1)
final String id;

@ProtoDoc("@Field(store = Store.YES, analyze = Analyze.YES, analyzer = @Analyzer(definition = \"simple\"))")
@ProtoField(2)
final String description;

3.3.1. 默认分析器定义

Data Grid 提供了一组默认的分析器定义。

定义描述

standard

将文本字段分成令牌,将空格和分页视为分隔符。

simple

Tokenize input 流通过非字母限制,然后将所有字母转换为小写字符。空格和非字母字符将被丢弃。

whitespace

在空格上分割文本流,并将非空格字符的序列返回为令牌。

关键字

将整个文本字段视为单个令牌。

stemmer

使用 Snowball Porter 过滤器的英语词。

ngram

生成默认大小为 3 个 gram 的 n-gram 令牌。

filename

将文本字段分成大于 标准 分析器的大小令牌,将空格视为分隔符,并将所有字母转换为小写字符。

这些分析器定义基于 Apache Lucene,并提供了"as-is"。有关令牌化器、过滤器和 CharFilters 的更多信息,请参阅适当的 Lucene 文档。

3.3.2. 创建自定义分析器定义

创建自定义分析器定义并将其添加到 Data Grid Server 安装中。

先决条件

  • 如果 Data Grid Server 正在运行,则停止它。

    Data Grid Server 仅在启动时加载类。

流程

  1. 实施 ProgrammaticSearchMappingProvider API。
  2. 在以下文件中使用完全限定类(FQN)在 JAR 中打包您的实现:

    META-INF/services/org.infinispan.query.spi.ProgrammaticSearchMappingProvider
  3. 将 JAR 文件复制到您的 Data Grid Server 安装的 server/lib 目录中。
  4. 启动 Data Grid Server。

ProgrammaticSearchMappingProvider 示例

import org.apache.lucene.analysis.core.LowerCaseFilterFactory;
import org.apache.lucene.analysis.core.StopFilterFactory;
import org.apache.lucene.analysis.standard.StandardFilterFactory;
import org.apache.lucene.analysis.standard.StandardTokenizerFactory;
import org.hibernate.search.cfg.SearchMapping;
import org.infinispan.Cache;
import org.infinispan.query.spi.ProgrammaticSearchMappingProvider;

public final class MyAnalyzerProvider implements ProgrammaticSearchMappingProvider {

   @Override
   public void defineMappings(Cache cache, SearchMapping searchMapping) {
      searchMapping
            .analyzerDef("standard-with-stop", StandardTokenizerFactory.class)
               .filter(StandardFilterFactory.class)
               .filter(LowerCaseFilterFactory.class)
               .filter(StopFilterFactory.class);
   }
}

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.