Elasticsearch之分词

分词 分词是指将文本装换成一系列单词(term or token)的过程,也可以叫做文本分析,在es里面称为Analysis,如下图所示: 分词器是es中专门处理分词的组件,英文为Analyzer,他的组成如下: - Character Filter - 针对原始文本进行处理,比如去除html特殊标记符 - Tokenizer - 将原始文本按照一定规则切分为单词 - Token Filters
相关文章
相关标签/搜索