本人最近使用SolrCloud存储索引日志条件,便于快速索引,由于个人索引条件较多,天天日志记录较大,索引想到将日志存入到HDFS中,下面就说说怎么讲solr的索引条件数据存储到HDFS中。html
名称 | 配置 |
Solr+Tomcat位置 | /home/anu/page/tomcat8 |
Solr_home位置 | /home/anu/page/tomcat8/solr_home |
HDFS入口地址 | hdfs://192.168.219.13:9000 |
1)首先启动HDFS系统,本人使用的是一拖二的HDFS集群,因此都要起起来java
进入namenode节点机器进入./hadoop/sbin 下,使用命令 ./start-all.sh 启动三台机器上的Hadoop,确保namenode和dataNode都起成功。node
其余两台机器上执行命令: jps可以查看到NodeManager和DataNode两个线程,若是存在说明咱们的HDFS启动成功web
2)使用命令: hadoop fs -ls / 查看HDFS根目录下的文件,若是你的根路径下有文件就能够看到文件啦!浏览器
3)使用命令: hadoop fs -mkdir -p /demo/data 在HDFS根路径下建立demo供Solr数据存储文件tomcat
1)进入solr_home目录下,使用命令: mkdir demo 建立demo目录,同时将./tomcat8/solr_home/configsets/basic_configs下的全部文件都拷贝到刚刚新建的demo下面app
2)文件拷贝后,进入./tomcat8/solr_home/demo/conf/ 目录下,修改solrconfig.xml文件webapp
替换原有directoryFactory配置为以下分布式
<directoryFactory name="DirectoryFactory" class="solr.HdfsDirectoryFactory">
<str name="solr.hdfs.home">hdfs://192.168.219.13:9000/demo</str>
<bool name="solr.hdfs.blockcache.enabled">true</bool>
<int name="solr.hdfs.blockcache.slab.count">1</int>
<bool name="solr.hdfs.blockcache.direct.memory.allocation">true</bool>
<int name="solr.hdfs.blockcache.blocksperbank">16384</int>
<bool name="solr.hdfs.blockcache.read.enabled">true</bool>
<bool name="solr.hdfs.blockcache.write.enabled">true</bool>
<bool name="solr.hdfs.nrtcachingdirectory.enable">true</bool>
<int name="solr.hdfs.nrtcachingdirectory.maxmergesizemb">16</int>
<int name="solr.hdfs.nrtcachingdirectory.maxcachedmb">192</int>
</directoryFactory>
替换原有lockType为以下:oop
<lockType>${solr.lock.type:hdfs}</lockType>
替换原来dataDir为以下:
<dataDir>${solr.data.dir:hdfs://192.168.219.13:9000/demo/data}</dataDir>
注意:上面全部 hdfs://192.168.219.13:9000 都要换成本身的HDFS入口地址,
hdfs://192.168.219.13:9000/demo/data 正是咱们前面建立的存储solr数据的路径
1)删除solr自身原有的jar包,进入tomcat8/webapps/solr/WEB-INF/lib 下删除hadoop-*.jar、protobuf-java-*.jar、htrace-core-3.0.4.jar
rm hadoop-*.jar
rm protobuf-java-*.jar
rm -rf htrace-core-3.0.4.jar
2)从Hadoop-2.5.0的share文件夹下分别获得对应的jar到tomcat8/webapps/solr/WEB-INF/lib 目录下,主要jar包以下:
hadoop-common-2.5.0-cdh5.2.0.jar(share/hadoop/common)
hadoop-hdfs-2.5.0-cdh5.2.0.jar(share/hadoop/hdfs)
hadoop-auth-2.6.0.jar(share/hadoop/common/lib)
hadoop-annotations-2.6.0.jar(share\hadoop\common\lib)
commons-collections-3.2.2.jar(share\hadoop\common\lib)
protobuf-java-2.5.0.jar(share\hadoop\common\lib)
1)启动Solr,在浏览器中访问http://192.168.219.12:8080/solr/index.html Solr管理页面
2)新建一个core或collection,起名为咱们建立的目录名字demo
3)最后看到这个位置data是指向HDFS的路径地址
到此就大功告成啦!
注意:在此过程当中可能会出现错误,你们能够本身到solr日志下面看一下具体是什么错误,具体问题具体解决。下面说一下我在装的时候遇到的问题。
(1)本人是第一次配置这个东东,第一次就出现了错误,经过日志看到有java.lang.OutOfMemoryError: Direct buffer memory tomcat错误。
解决方案:这个因为内存不足形成的,由于我是在个人虚拟机作实验的,虚拟机装的东西有点多,因此报内存溢出,后来关闭几个程序,再调整一下tomcat的内存就完美解决啦。
配置完后能够看一下Solr下面的HDFS数据备份和还原,后面可能有用。