说明html
·目前的实现方式是以远程词库的内容从新构建CustomDictionary.trie,demo主要是为了实现同步远程词库,对性能暂不做考虑,对性能要求要以CustomDictionary.dat为基础实现java
按hanlp做者述 trie后期可能会取消nginx
目前CustomDictionary使用DAT储存词典文件中的词语,用BinTrie储存动态加入的词语,前者性能高,后者性能低git
之因此保留动态增删功能,一方面是历史遗留特性,另外一方面是调试用;来可能会去掉动态增删特性。github
·ik的方案,远程词库并不含有词性词频等额外信息,这里为了保证词库和复用也保持一致,默认词性为Nature.nz,词频为1 CoreDictionary.Attribute att = new CoreDictionary.Attribute(Nature.nz, 1);web
·ik支持多个远程词库,该示例只支持单项docker
多词库在现方案下,要做任务协做的处理,虽然不难,但改动后和ik原码的差距会比较大apache
项目只是个参考,所以代码尽可能和ik保持一致,一个远程词库,对大部分场景也够用了浏览器
测试curl
启动nginx做为远程词库服务
docker run -d --name nginx -p 1888:80 -v $(pwd)/nlp:/usr/share/nginx/html/nlp nginx:1.13.12
测试是否成功
curl http://127.0.0.1:1888/nlp/words.txt
启动服务
编译
mvn clean package -Dmaven.test.skip=true
执行
java -jar target/hanlp-web-2.0.0.RC2.jar
测试url
http://127.0.0.1:1889/hanlp?sentence=小明北飘在北京
词库同步任务间隔1分钟,服务启动后浏览器多刷新几回便能看到区别
如要扩展至本地项目
1 添加依赖
<dependency>
<groupId>org.apache.httpcomponents</groupId>
<artifactId>httpclient</artifactId>
<version>4.5.2</version>
</dependency>
2 拷贝ExtDictionary,Monitor
3 添加配置resources/hanlp_ext.properties
最后,代码全是抄的,这个项目只是基本的搬运,可能对新手会有点帮助
文章转载自 :https://github.com/cclient/hanlp-remote-dict