ElasticSearch最佳入门实践(六十一)修改分词器以及定制本身的分词器

一、默认的分词器 standardhtml 其他: standard tokenizer:以单词边界进行切分 standard token filter:什么都不作 lowercase token filter:将全部字母转换为小写 stop token filer(默认被禁用):移除停用词,好比a the it等等web 二、基于英语的过滤器 修改分词器的设置 启用english停用词token
相关文章
相关标签/搜索