ES中的分析器和IK分词器插件

一些概念 Token(词元) 全文搜索引擎会用某种算法对要建索引的文档进行分析, 从文档中提取出若干Tokenizer(分词器)html Tokenizer(分词器) 这些算法叫作Tokenizer(分词器)java Token Filter(词元处理器) 这些Token会被进一步处理, 好比转成小写等, 这些处理算法被称为TokenFilter(词元处理器)git Term(词) 被处理后的结果
相关文章
相关标签/搜索