liunx安装集群版solr

1.SolrCloud介绍
1.1.SolrCloud简介
SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你须要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不须要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时须要使用SolrCloud来知足这些需求。
SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper做为集群的配置信息中心。
它有几个特点功能:
1)集中式的配置信息
2)自动容错
3)近实时搜索
4)查询时自动负载均衡
1.2.Zookeeper简介
Zookeeper直译是 动物园管理员,他是用来管hadoop(大象)、Hive(蜜蜂)、pig(小猪)的管理员, Apache Hbase和 Apache Solr 的分布式集群都用到了zookeeper;zookeeper是一个分布式的、开源的程序协调服务,是hadoop项目下的一个子项目。
1.3.Zookeeper功能
1.3.1.配置管理
在咱们的应用中除了代码外,还有一些就是各类配置。好比数据库链接等。通常咱们都是使用配置文件的方式,在代码中引入这些配置文件。可是当咱们只有一种配置,只有一台服务器,而且不常常修改的时候,使用配置文件是一个很好的作法,可是若是咱们配置很是多,有不少服务器都须要这个配置,并且还多是动态的话使用配置文件就不是个好主意了。这个时候每每须要寻找一种集中管理配置的方法,咱们在这个集中的地方修改了配置,全部对这个配置感兴趣的均可以得到变动。好比咱们能够把配置放在数据库里,而后全部须要配置的服务都去这个数据库读取配置。可是,由于不少服务的正常运行都很是依赖这个配置,因此须要这个集中提供配置服务的服务具有很高的可靠性。通常咱们能够用一个集群来提供这个配置服务,可是用集群提高可靠性,那如何保证配置在集群中的一致性呢? 这个时候就须要使用一种实现了一致性协议的服务了。Zookeeper就是这种服务,它使用Zab这种一致性协议来提供一致性。如今有不少开源项目使用Zookeeper来维护配置,好比在HBase中,客户端就是链接一个Zookeeper,得到必要的HBase集群的配置信息,而后才能够进一步操做。还有在开源的消息队列Kafka中,也使用Zookeeper来维护broker的信息。在Alibaba开源的SOA框架Dubbo中也普遍的使用Zookeeper管理一些配置来实现服务治理。
1.3.2.名字服务
名字服务这个就很好理解了。好比为了经过网络访问一个系统,咱们得知道对方的IP地址,可是IP地址对人很是不友好,这个时候咱们就须要使用域名来访问。可是计算机是不能识别域名的。怎么办呢?若是咱们每台机器里都备有一份域名到IP地址的映射,这个却是能解决一部分问题,可是若是域名对应的IP发生变化了又该怎么办呢?因而咱们有了DNS这个东西。咱们只须要访问一个你们熟知的(known)的点,它就会告诉你这个域名对应的IP是什么。在咱们的应用中也会存在不少这类问题,特别是在咱们的服务特别多的时候,若是咱们在本地保存服务的地址的时候将很是不方便,可是若是咱们只须要访问一个你们都熟知的访问点,这里提供统一的入口,那么维护起来将方便得多了。
1.3.3.分布式锁
在第一简介中已经介绍了Zookeeper是一个分布式协调服务。这样咱们就能够利用Zookeeper来协调多个分布式进程之间的活动。好比在一个分布式环境中,为了提升可靠性,咱们的集群的每台服务器上都部署着一样的服务。可是,一件事情若是集群中的每一个服务器都进行的话,那相互之间就要协调,编程起来将很是复杂。而若是咱们只让一个服务进行操做,那又存在单点。一般还有一种作法就是使用分布式锁,在某个时刻只让一个服务去干活,当这台服务出问题的时候锁释放,当即fail over到另外的服务。这在不少分布式系统中都是这么作,这种设计有一个更好听的名字叫Leader Election(leader选举)。好比HBase的Master就是采用这种机制。但要注意的是分布式锁跟同一个进程的锁仍是有区别的,因此使用的时候要比同一个进程里的锁更谨慎的使用。
1.3.4.集群管理
在分布式的集群中,常常会因为各类缘由,好比硬件故障,软件故障,网络问题,有些节点会进进出出。有新的节点加入进来,也有老的节点退出集群。这个时候,集群中其余机器须要感知到这种变化,而后根据这种变化作出对应的决策。好比咱们是一个分布式存储系统,有一个中央控制节点负责存储的分配,当有新的存储进来的时候咱们要根据如今集群目前的状态来分配存储节点。这个时候咱们就须要动态感知到集群目前的状态。还有,好比一个分布式的SOA架构中,服务是一个集群提供的,当消费者访问某个服务时,就须要采用某种机制发现如今有哪些节点能够提供该服务(这也称之为服务发现,好比Alibaba开源的SOA框架Dubbo就采用了Zookeeper做为服务发现的底层机制)。还有开源的Kafka队列就采用了Zookeeper做为Consumer的上下线管理。
1.4.SolrCloud结构
SolrCloud为了下降单机的处理压力,须要由多台服务器共同来完成索引和搜索任务。实现的思路是将索引数据进行Shard(分片)拆分,每一个分片由多台的服务器共同完成,当一个索引或搜索请求过来时会分别从不一样的Shard的服务器中操做索引。
SolrCloud须要Solr基于Zookeeper部署,Zookeeper是一个集群管理软件,因为SolrCloud须要由多台服务器组成,由zookeeper来进行协调管理。java

下图是一个SolrCloud应用的例子:web

对上图进行图解,以下:数据库

1.4.1.物理结构
三台Solr物理机服务器( 每台服务器包括两个solr core(solr应用服务器 包括完整的索引和搜索)),组成一个SolrCloud。
1.4.2.逻辑结构
索引集合包括两个Shard(shard1和shard2),shard1和shard2分别由三个Core(solr应用服务器(tomcat))组成,其中一个Leader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每一个shard上三个Core的索引数据一致,解决高可用问题。用户发起索引请求分别从shard1和shard2上获取,解决高并发问题。编程

一、Collection
Collection在SolrCloud集群中是一个逻辑意义上的完整的索引结构。它经常被划分为一个或多个Shard(分片),它们使用相同的配置信息。
好比:针对商品信息搜索能够建立一个collection。
collection=shard1+shard2+....+shardXvim

二、Core
每一个Core是Solr中一个独立运行单位,提供 索引和搜索服务。一个shard须要由一个Core或多个Core组成。因为collection可由多个shard组成,因此collection通常由多个core组成。tomcat

三、Master/Slave
Master是master-slave结构中的主结点(一般说主服务器),Slave是master-slave结构中的从结点(一般说从服务器或备服务器)。同一个Shard下master和slave存储的数据是一致的,这是为了达到高可用目的。服务器

四、Shard
Collection的逻辑分片。每一个Shard被化成一个或者多个replication,经过选举肯定哪一个是Leader。
2.SolrCloud搭建
2.1.搭建架构分析网络

2.1.1.两大组成部分
一、zookeeper集群
a)zookeeper须要保证高可用,须要搭建集群
b)zookeeper须要进行投票和选举机制,最少须要三个节点
c)zookeeper的三个节点,注意修改端口号不同架构

二、Solr集群
a)须要四个节点(solr应用服务器);
b)四台tomcat部署4个 solr应用服务器
c)整个collection分红两个分片,每一个分片都由两个服务器组成,master和slave
2.1.2.环境
Linux:CentOS6.5 32位
Jdk:1.7以上版本
2.2.zookeeper集群搭建
2.2.1.复制并发

复制三份zookeeper

cd /root/software

解压

tar -zvxf zookeeper-3.4.6.tar.gz

mkdir /usr/local/solr/solr-cloud/

cp -r zookeeper-3.4.6 /usr/local/solr/solr-cloud/zookeeper01 && cp -r zookeeper-3.4.6 /usr/local/solr/solr-cloud/zookeeper02 && cp -r zookeeper-3.4.6 /usr/local/solr/solr-cloud/zookeeper03

cd /usr/local/solr/solr-cloud/

2.2.2.配置
2.2.2.1.给每一个zookeeper建立data文件夹

对/usr/local/solr/solr-cloud目录下的3个zookeeper建立data文件夹

mkdir zookeeper01/data && mkdir zookeeper02/data && mkdir zookeeper03/data

2.2.2.2.给每一个zookeeper建立myid文件

对/usr/local/solr/solr-cloud目录下的3个zookeeper建立 myid 文件,并分别写入1,2,3

vi zookeeper01/data/myid

对上述文件写入数字 1

vim zookeeper02/data/myid

对上述文件写入数字 2

vim zookeeper03/data/myid

对上述文件写入数字 3

2.2.2.3.重命名每一个zookeeper配置文件

mv zookeeper01/conf/zoo_sample.cfg zookeeper01/conf/zoo.cfg
mv zookeeper02/conf/zoo_sample.cfg zookeeper02/conf/zoo.cfg
mv zookeeper03/conf/zoo_sample.cfg zookeeper03/conf/zoo.cfg

2.2.2.4.修改每一个zookeeper配置文件
修改dataDir(每一个zookeeper对应路径;
如/usr/local/solr/solr-cloud/zookeeper01/data)

修改clientPort端口号(每一个不一样三台对应3181,3182,3183)

在三个配置文件底部都加上:
server.1=192.168.12.168:2881:3881
server.2=192.168.12.168:2882:3882
server.3=192.168.12.168:2883:3883

vim zookeeper01/conf/zoo.cfg
修改后效果以下:

vim zookeeper02/conf/zoo.cfg
修改后效果以下:

vim zookeeper03/conf/zoo.cfg
修改后效果以下:

2.2.3.启动
zookeeper01/bin/zkServer.sh start
zookeeper02/bin/zkServer.sh start
zookeeper03/bin/zkServer.sh start
zookeeper01/bin/zkServer.sh start

zookeeper02/bin/zkServer.sh start

zookeeper03/bin/zkServer.sh start

若是启动失败,能够在启动命令以后添加start-foreground;查看启动失败日志。
2.2.4.查看状态
./zookeeper01/bin/zkServer.sh status
./zookeeper02/bin/zkServer.sh status
./zookeeper03/bin/zkServer.sh status
./zookeeper01/bin/zkServer.sh status

./zookeeper02/bin/zkServer.sh status

./zookeeper03/bin/zkServer.sh status

2.4.搭建solr集群
按照上述搭建架构;须要4个solr应用服务器。
2.4.1.把solrhome复制到solr-cloud目录下,复制4份
cd /usr/local/solr/

cp -r solrhome/ solr-cloud/solrhome01
cp -r solrhome/ solr-cloud/solrhome02
cp -r solrhome/ solr-cloud/solrhome03
cp -r solrhome/ solr-cloud/solrhome04

2.4.2.安装(复制)4个tomcat

复制4个以前安装的单机版的solr

cp -r tomcat/ solr-cloud/tomcat-solr01
cp -r tomcat/ solr-cloud/tomcat-solr02
cp -r tomcat/ solr-cloud/tomcat-solr03
cp -r tomcat/ solr-cloud/tomcat-solr04

2.4.3.修改tomcat端口号8081~8084
cd solr-cloud

server.xml须要修改3个地方的端口号(server port(第22行)、http port(第71行)、connector port(第93行));与其它tomcat的不冲突就好,端口依次能够为(8001,8081,8011;8002,8082,8012;8003,8083,8013;8004,8084,8014)

vi tomcat-solr01/conf/server.xml

以下图第一个Tomcat为例,修改三个端口号8001,8081,8011,其余Tomcat相似(8002,8082,8012;8003,8083,8013;8004,8084,8014)

vi tomcat-solr02/conf/server.xml
vi tomcat-solr03/conf/server.xml
vi tomcat-solr04/conf/server.xml

2.4.4.修改每一个solr的web.xml
4个tomcat都要修改成对应的solrhome
vi tomcat-solr01/webapps/solr/WEB-INF/web.xml
vi tomcat-solr02/webapps/solr/WEB-INF/web.xml
vi tomcat-solr03/webapps/solr/WEB-INF/web.xml
vi tomcat-solr04/webapps/solr/WEB-INF/web.xml

修改第43行的solrhome路径
例如 /usr/local/solr/solr-cloud/solrhome01
效果:

其它3个也相似修改。

2.4.5.修改每一个solrhome里面的solr.xml
vi solrhome01/solr.xml

vi solrhome02/solr.xml
vi solrhome03/solr.xml
vi solrhome04/solr.xml

第32的host的内容修改成192.168.12.168【注意】原来的为${host:}
第33行hostPort的内容修改成8081【注意】原来的为${jetty.port:8983};另外修改的端口号应该对应每台tomcat的端口号。

如solrhome01须要修改成8081,其余的依次为808二、808三、8084

修改前:

修改后:

其它3个solr.xml相似的修改。

2.4.6.上传配置文件到zookeeper集群

进入/usr/local/solr/solr-4.10.3/example/scripts/cloud-scripts,执行命令

cd /usr/local/solr/solr-4.10.3/example/scripts/cloud-scripts

下载安装zip、unzip命令

yum install -y unzip zip

须要运行的如下命令,须要修改IP地址和修改solrcore的路径地址

./zkcli.sh -zkhost 192.168.12.168:3181,192.168.12.168:3182,192.168.12.168:3183 -cmd upconfig -confdir /usr/local/solr/solr-cloud/solrhome01/collection1/conf -confname myconf

zookeeper是作配置文件的集中管理,
以上命令的做用是把配置文件上传给zookeeper,由zookeeper管理配置文件
zookeeper把全部的solr集群的配置文件进行统一管理

2.4.7.查看zookeeper配置文件

进入任意zookeeper,使用客户端进行查看

cd /usr/local/solr/solr-cloud/zookeeper01/bin

./zkCli.sh -server 192.168.12.168:3181

执行上面命令后,使用ls命令查看zookeeper配置信息,再出来的界面分别输入。。按ctrl+c退出

ls /

ls /configs

ls /configs/myconf

2.4.8.设置zookeeper的地址给tomcat

须要修改每一个Tomcat的bin/catalina.sh文件

cd /usr/local/solr/solr-cloud/

vi tomcat-solr01/bin/catalina.sh
vi tomcat-solr02/bin/catalina.sh
vi tomcat-solr03/bin/catalina.sh
vi tomcat-solr04/bin/catalina.sh

如tomcat01,其余Tomcat都同样设置,第235行添加JAVA_OPTS,即以下内容:

JAVA_OPTS="-DzkHost=192.168.12.168:3181,192.168.12.168:3182,192.168.12.168:3183"

2.4.9.启动全部tomcat
cd /usr/local/solr/solr-cloud/
./tomcat-solr01/bin/startup.sh
./tomcat-solr02/bin/startup.sh
./tomcat-solr03/bin/startup.sh
./tomcat-solr04/bin/startup.sh

2.4.10.访问solr集群
访问任意一个solr集群的节点均可以

如http://192.168.12.168:8081/solr

2.4.11.集群分片
集群中有四个solr节点建立新集群testSolrCloud(名字能够自行取,不要原有的重复便可),将集群分为两片,每片一个副本。
http://192.168.12.168:8081/solr/admin/collections?action=CREATE&name=pinyougou&numShards=2&replicationFactor=2

2.4.12.删除原来的solrcore
http://192.168.12.168:8081/solr/admin/collections?action=DELETE&name=collection1

2.4.13.查看分片信息
索引分片后:同一个分片的solr的索引数目是相同的;在不一样的分片的数据总数通常不相同,整个索引库的数目是全部分片的数据总和。

8081/8084是一个分片的,它们的数据与8082/8083的分片数据不同

相关文章
相关标签/搜索