(tengine+keepalived)+(apache+tomcat)+memcached+mysql实现高可用、负载均衡、可扩展架构

目录php

一、高可用、负载均衡、可扩展架构的须要背景css

二、系统架构html

三、系统规划及说明前端

四、系统部署及测试java

五、总结mysql


一、高可用、负载均衡、可扩展架构的须要背景linux

    从互联网诞生以来,网站架构随着互联网的快速发展发生着巨大的变化,现今,数据天天都在以爆炸式的增加,大数据、云计算等概念被业内炒得沸沸扬扬,这些前沿技术也在各行各业落地开花。每一种新技术的提出几乎都会或多或少影响着IT的基础架构,面对数据的快速增加、咱们急需一套高可用、负载均衡、可扩展的架构来做为支撑。nginx

二、系统架构web

    这次博文介绍一套高可用、负载均衡、可扩展的系统架构方案,此方案能知足多数企业须要,并能随着业务的变化进行系统扩展,并尽可能避免单点故障,发架设在此系统上的应用能实现365*7*24服务不中断。架构上对应用进行了拆分,以下的架构图:redis

wKiom1Vm2aXCL9AJAAT6_uwKhvs425.jpg

第一层:负载均衡层,此层是用户的入口,此处的服务器担任director的角色,它把用户的请求根据其调度算法调度到后端的服务器上,能胜任调度器的开源软件有LVS、Haproxy、Nginx、Tengine等,为了不单点故障,director须要作高可用,在开源软件有Hertbeat、keepalived等;

第二层:web应用层,这一层是部署具体web应用的,通常常见的web应用有httpd、php、tomcat、nginxt等,这个层次把具备各类不一样的运用划分红一个组,这个组能提供相同的web服务,配合第一层就能实现负载均衡和故障隔离的效果;

第三层:数据库层,这里是在提供动态站点时程序与数据库交互数据的地方,在这个层次上通常所用的开源软件有mysql、mariadb、redis、nosql类的数据库等,数据库的设计上也应该考虑到高可用性,负载均衡功能,好比mysql的主从架构,MMM架构,或为了实现读写分离,引入中间件淘宝的amoeba、奇虎360的Atlas;

第四层:分布式文件系统层,这个系统主要是为解决web应用数据共享的,固然数据库层中须要持久化的数据也能够放在分分布式文件系统中,开源软件有MooseFs、MgileFS、GlusterFS、FastDFS、GFS、TFS等。

若是网站随着用户的增多,web应用服务器和数据库服务器的压力愈来愈大,那就须要考虑加入缓存层,在web应用程序前端可加入缓存web静态数据的缓存层,开源解决方案有squid、varnish、ats等,ats是yahoo向ASF贡献的一个项目;在数据库层的前端也可加入缓存层,用来缓存web应用程序从数据库中查询的数据,能够把查询的sql语句和结果存放在一个缓存中,通常所用的服务是memcached。

三、系统规划及说明

    这次博文不会把涉及系统部署的所有过程都描述,只是把重要的部分进行记录与讲解。

这次测试中所使用的服务器信息整理以下表:

wKiom1Vm2jOCFbv7AAK4-FRyWuQ488.jpg

说明:这次用两主机配置成tomcat容器提供jsp程序的运行环境,而且在主机上安装httpd,用反向代理的方式向前端的tengine反向代理提供服务,测试环境中mysql服务器只有规划了一台,在实际生产环境下请用主从架构或MMM等有架构,nod1和nod2主机上还部署了memcached服务,它主要是在为了给tomcat中的session信息做高可用的,这次采用是MSM(Memcached Session Manager)方案实现tomcat中对session的高可用;nod3与nod4利用tengine提供反向代理的功能,keepalived实现tengine的高可用,以免单点故障。

四、系统部署及测试

    虽然说在系统部署上没有严格要求有什么前后顺序,但按照必定的顺序来部署会让工做变得简单有序,这让你对整个项目有了全局观,对项目管理人员来讲能更好的协调人员,能更好的掌握控制项目的进度。通常按照如下顺序来部署:

a)、部署分布式文件系统,这次博文不讨论这部分;

b)、数据库系统部署;

c)、应用服务器部署;

d)、director部署;

固然有些是有交集的,但基本要遵循“前后端再前端”的大原则,即先部署后端的服务应用,再去部署前端面的服务和应用。

4.一、分布式文件部署

    这个能够根据本身熟悉的开源系统来部署。MooseFS是一个不错的选择。部署过程此博文不讨论,略。。。。

4.二、数据库及memcached部署

请参照前边的博文进行mysql主从架构的部署,这次使用单一的mysql进行测试。mysql主从架构搭建博文地址:http://zhaochj.blog.51cto.com/368705/1635982

数据库搭建好后,建立一个供测试的数据库,并创建一个用户供测试站点的使用。

memcached直接用yum源中进行安装(nod1与nod2安装方式相同):

[root@nod1 ~]# yum -y install memcached
[root@nod1 ~]# service memcached start
[root@nod1 ~]# netstat -tnl | grep 11211
tcp        0      0 0.0.0.0:11211               0.0.0.0:*                   LISTEN      
tcp        0      0 :::11211                    :::*                        LISTEN

4.三、apache+tomcat部署

nod0与nod2上tomcat与httpd的部署相同,只是在配置参数上有点不一样。

jdk安装配置:

[root@nod0 msm]# pwd
/root/software/msm
[root@nod0 msm]# rpm -ivh jdk-8u45-linux-x64.rpm
[root@nod0 msm]# vim /etc/profile.d/java.sh
JAVA_HOME=/usr/java/jdk1.8.0_45
export PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME
[root@nod0 msm]# source /etc/profile.d/java.sh
[root@nod0 msm]# java -version
java version "1.8.0_45"
Java(TM) SE Runtime Environment (build 1.8.0_45-b14)
Java HotSpot(TM) 64-Bit Server VM (build 25.45-b02, mixed mode)

tomcat安装配置:

[root@nod0 msm]# tar -xf apache-tomcat-7.0.62.tar.gz -C /usr/local/
[root@nod0 local]# ln -sv apache-tomcat-7.0.62 tomcat
[root@nod0 local]# vim /etc/profile.d/tomcat.sh
CATALINA_HOME=/usr/local/tomcat
export PATH=$CATALINA_HOME/bin:$PATH
export CATALINA_HOME
[root@nod0 local]# source /etc/profile.d/tomcat.sh
[root@nod0 local]# catalina.sh version
Using CATALINA_BASE:   /usr/local/tomcat
Using CATALINA_HOME:   /usr/local/tomcat
Using CATALINA_TMPDIR: /usr/local/tomcat/temp
Using JRE_HOME:        /usr/java/jdk1.8.0_45
Using CLASSPATH:       /usr/local/tomcat/bin/bootstrap.jar:/usr/local/tomcat/bin/tomcat-juli.jar
Server version: Apache Tomcat/7.0.62
Server built:   May 7 2015 17:14:55 UTC
Server number:  7.0.62.0
OS Name:        Linux
OS Version:     2.6.32-358.el6.x86_64
Architecture:   amd64
JVM Version:    1.8.0_45-b14
JVM Vendor:     Oracle Corporation
[root@nod0 msm]# vim /etc/rc.d/init.d/tomcat   #服务脚本
#!/bin/sh
#Description: This shell script manage apache tomcat.
#Author: zhaochj
#Time: 2015-4-21
#Version: 1.0
case $1 in
    'start')
        /usr/local/tomcat/bin/catalina.sh start
        ;;
    'stop')
        /usr/local/tomcat/bin/catalina.sh stop
        ;;
    'restart')
        /usr/local/tomcat/bin/catalina.sh stop
        sleep 3
        /usr/local/tomcat/bin/catalina.sh start
        ;;
    *)
        echo "Usage:`basename $0` {start|stop|restart}"
        exit 1
        ;;
esac
[root@nod0 msm]# chmod +x /etc/rc.d/init.d/tomcat

至此,jdk与tomcat安装完毕。

配置server.xml文件,使其再提供一个<Service>元素,这个不是必须,我只是为了保留原始server.conf的配置,经过增长一个<Service>元素可让tomcat以一种协议监听在不一样的端口,而tomcat实例又只有一个,在配置文件夹的</Service>后增长以下代码:

<Service name="Catalina2">
    <Connector port="8081" protocol="HTTP/1.1"
               connectionTimeout="20000"
               redirectPort="8444" />
        <Engine name="Catalina2" defaultHost="192.168.0.200" jvmRoute="jvm200">
            <Realm className="org.apache.catalina.realm.LockOutRealm">
        <!-- This Realm uses the UserDatabase configured in the global JNDI
             resources under the key "UserDatabase".  Any edits
             that are performed against this UserDatabase are immediately
             available for use by the Realm.  -->
            <Realm className="org.apache.catalina.realm.UserDatabaseRealm"
                   resourceName="UserDatabase"/>
            </Realm>
              <Host name="192.168.0.200"  appBase="/tomcat/app"
                    unpackWARs="true" autoDeploy="true">
                  <Context path="" docBase="mysite"/>
                  <Valve className="org.apache.catalina.valves.AccessLogValve" directory="logs"
                         prefix="nod0_access_log." suffix=".txt"
                         pattern="%h %l %u %t &quot;%r&quot; %s %b" />
              </Host>
        </Engine>
  </Service>

这个<Service>中拥有本身的http链接器,本身的虚拟主机,为了安全能够把默认的链接器注释掉,也可用mod_jk的方式经过ajp13协议与tomcat结合,但我在尝试这样作时,用mod_jk模块可以正常加载,但就是没法发现后端tomcat中的“jvmRoute=jvm200”引擎,因此才用proxy_module中的proxy_http_module的方式与tomcat整合。

配置tomcat,使其成为MSM环境:

根据tomcat的版本去http://code.google.com/p/memcached-session-manager/wiki/SetupAndConfiguration下载相应的jar包,就是下边的这些包

[root@nod0 msm]# ls msm_kryo_serializers/
asm-3.2.jar                memcached-session-manager-1.8.3.jar      msm-kryo-serializer-1.8.3.jar
kryo-1.04.jar              memcached-session-manager-tc7-1.8.3.jar  reflectasm-1.01.jar
kryo-serializers-0.11.jar  minlog-1.2.jar                           spymemcached-2.11.1.jar

把这些jar包所有拷贝到$CATALINA_HOME/lib目录下

[root@nod0 msm]# scp msm_kryo_serializers/* /usr/local/tomcat/lib/

再去编辑$CATALINA_HOME/conf/context.xml文件,使其配置memcached的相应功能(这里是以粘性的session的方式配置)

[root@nod0 msm]# vim /usr/local/tomcat/conf/context.xml
<Context>
......
<!-- sticky session.-->
    <Manager className="de.javakaffee.web.msm.MemcachedBackupSessionManager"
             memcachedNodes="memcached1:192.168.0.201:11211,memcached2:192.168.0.202:11211"
             failoverNodes="memcached1"
             requestUriIgnorePattern=".*\.(ico|png|gif|jpg|css|js)$"
             transcoderFactoryClass="de.javakaffee.web.msm.serializer.kryo.KryoTranscoderFactory"/>
....
</Context>

最后把jsp测试程序拷贝到server.xml配置文件中虚拟主机的网站目录“/tomcat/app/mysite”下,此次测试我用的是shopxx这个jsp程序。

一切准备好后就能够记动tomcat进行测试站点的安装了。这里我是把tomcat中该配置的都配置完后再启用的tomcat,其实在真正的实施过程当中,你应该每修改一次配置文件你都要一边监控着日志输出,再去启用tomcat服务,看启动的过程当中是否有警告、错误的信息,不要等你把配置文件修改得过多,一启动服务报错,而报的错又不是很好定位时,那你就只能慢慢排查了,然而,当我更改了一部份配置文件,只要此修改会改变tomcat的运行属性,那我就去启动一下tomcat,看日志是否有问题,没有问题再去作别的修改,这样即便有问题也比较好排查。

httpd反向代理tomcat部分:

先注释掉中心主机,即在http.conf配置文件中注释掉“DocumentRoot /var/www/html”这一行,再启用一个中心主机配置文件

[root@nod0 msm]# vim /etc/httpd/conf.d/virtual.conf 
<VirtualHost *:80>
    DocumentRoot /tomcat/app/mysite
    ServerName www.test.com
    ProxyVia Off
    ProxyRequests Off
    ProxyPreserveHost On
    ProxyPass / http://127.0.0.1:8081/
    ProxyPa***everse / http://127.0.0.1:8081/
</VirtualHost>

通过上边对tomcat与httpd的配置后,打开浏览器直接访问"http://nod0ipaddress"就能够访问咱们部署的网站。

在另外的nod2节点上也按照上边的操做进行配置,只是有几点值得注意,若是是以mod_jk的方式反向代理tomcat,那server.xml中的"jvmRoute="jvm200""这里的值可不能与nod0上配置同样,还有这是nod2上jsp网站程序的安装问题,直接把nod0上的已安装过的站点程序拷贝过来就好了,不要再试着去链接数据进行安装(这样是错误的操做)。

4.四、Tengine+Keepalived部署

    taobao对nginx作了众多的改进,在nginx中有些须要打第三方补丁才能实现的功能,而Tengine自身就自带了,还有在nginx的wiki中明明看到能使用的指令,但你配置后,语法检测是没法经过的,若是检查语法无误后,那这个指令只供商业订阅才支持的,只是在官方wiki中没有说明,老版本的文档中有此说明,不过好在均可以经过一些第三方模块实现相应的功能。而Tengine就不样,没有商业订阅这一说,并且Tengine还引进了更好的内存管理机制,即jemalloc,因此你彻底能够选择Tengine来代替nginx。

    要想Tengine支持jemalloc,那先要下载此程序,再编译Tengine时把此程序编译进来便可,下载地址:http://www.canonware.com/download/jemalloc/

[root@nod3 tengine]# pwd
/root/software/tengine
[root@nod3 tengine]# tar -xf jemalloc-3.6.0.tar.bz2 -C /usr/local/   #jemalloc只须要解压出来,不须要安装
[root@nod3 tengine]# yum -y install pcre-devel gd-devel  #先处理依赖关系
[root@nod3 tengine]# tar xf tengine-2.1.0.tar.gz
[root@nod3 tengine]# cd tengine-2.1.0
[root@nod3 tengine-2.1.0]# ./configure --prefix=/usr/local/tengine \ 
--sbin-path=/usr/local/tengine/sbin/nginx \
--conf-path=/etc/tengine/nginx.conf \
--error-log-path=/var/log/tengine/error.log \
--http-log-path=/var/log/tengine/access.log \
--pid-path=/var/run/tengine.pid \
--lock-path=/var/lock/subsys/tengine \
--user=nginx \
--group=nginx \
--with-file-aio \
--with-http_ssl_module \
--with-http_spdy_module \
--with-http_p_w_picpath_filter_module \
--with-http_flv_module \
--with-http_mp4_module \
--with-http_gunzip_module \
--with-http_gzip_static_module \
--with-http_auth_request_module \
--with-http_p_w_picpath_filter_module=shared \
--with-http_sub_module=shared \
--with-http_flv_module=shared \
--with-http_mp4_module=shared \
--with-http_rewrite_module=shared \
--with-http_fastcgi_module=shared \
--http-client-body-temp-path=/var/tmp/tengine/client \
--http-proxy-temp-path=/var/tmp/tengine/proxy \
--http-fastcgi-temp-path=/var/tmp/tengine/fastcgi \
--http-uwsgi-temp-path=/var/tmp/tengine/uwsgi \
--with-pcre \
--dso-path=/usr/local/tengine/dsomodule/dso \
--dso-tool-path=/usr/local/tengine/dsomodule/dsotool \
--with-jemalloc --with-jemalloc=/usr/local/jemalloc-3.6.0
[root@nod3 tengine-2.1.0]# make
[root@nod3 tengine-2.1.0]# make dso_install
[root@nod3 tengine-2.1.0]# make install
[root@nod3 tengine-2.1.0]# mkdir -pv /var/tmp/tengine/{proxy,fastcgi,uwsgi}
[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx -v
Tengine version: Tengine/2.1.0 (nginx/1.6.2)

编译配置文件,例其成为反向代理服务器:

[root@nod3 tengine-2.1.0]# vim /etc/tengine/nginx.conf  #配置文件中确保有如下代码
......
http {
.......
    upstream be_server1 { 
        consistent_hash $request_uri; 
        server 192.168.0.200:80 id=1000 weight=1;
        server 192.168.0.202:80 id=1001 weight=1;
        check interval=3000 rise=2 fall=5 timeout=1000 type=http;
        check_http_send "HEAD / HTTP/1.0\r\n\r\n";
        check_keepalive_requests 100;
        check_http_expect_alive http_2xx http_3xx;
        }
    server {
        listen 80;
        servern_ame www.test.com;
        location / {
            proxypass / http://be_server1;
            }
        location /status {
            check_status;
            access_log off;
            allow 192.168.0.0/24;
            deny all;
        }
    }
........
}

注释:tengine在upstream模块中引进了一致性hash算法来实现对上游服务器的负载均衡,nginx好像只有ip hash,least_conn、sticky cookie三种方式。

配置好后就能够启动tengine

[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx   #启动tengine
[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx -t  #测试配置文件
[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx  -s {stop|quit||reopen|reload|}

测试经过访问tengine的IP看可否访问到咱们在tomcat上部署的网站,还能够打来tengine的状态页面查看上游服务器的状态,以下:

wKioL1Vm3hziTXe6AAGlZp2bYCU959.jpg

以一样的方法在nod4上完成部署。

最后来部署keepalived让tengine具备高可用性:

[root@nod3 ~]# yum -y install keepalived  #以yum方式安装
[root@nod3 ~]# rpm -qa keepalived
keepalived-1.2.13-5.el6_6.x86_64
[root@nod3 ~]# vim /etc/keepalived/keepalived.conf

保配置文件中有如下代码,主要是vrrp_instance实例的代码段

! Configuration File for keepalived
global_defs {
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id TENGINE_203
}
 
vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 123
    priority 180
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.0.111
    }
}

而nod4中的代码段以下:

[root@nod4 keepalived]# vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id TENGINE_204
}
vrrp_instance VI_1 {
    state BACKUP
    interface eth0
    virtual_router_id 123
    priority 179
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.0.111
    }
}

关于keepalived更详细的配置说明请查看http://zhaochj.blog.51cto.com/368705/1655449

两个节点的keepalived配置好后就启动keepalived服务,虚拟Ip应该是配置在MASTER节点上的,测试时把MASTER节点的keepalived服务关闭,再观察虚拟ip是否会被BACKUP节点抢占。

五、总结

    此套系统部署完后,有如下优势:

a)、用户的接入端面实现了高可用,一个负载均衡器出现故障不会影响业务;

b)、web应用层可根据访问压力伸缩服务器;

c)、数据库层若是压力大了,只要jsp程序支持,能够加memcached缓存缓解mysql的压力,若是多读压力还大时,若是后端服务器的读压力仍是大,那就加读写分离的中间件;

d)、分布文件系统也可随着业务的变化而进行扩容、减容。

最后此套系统还差一套报警监控系统,时时监控各服务器的运行状态,一旦有服务器负载太高或发生宕机,能够直接通知管理人员,以便处理故障。

监控能够从如下几个维度来描述:

第1、上班时间能够打开一个监控页面时时查看;

第2、打开邮件客户端,定时刷新以收取报警邮件;

第3、下班后手机24小开机,能够经过短信猫的形式接收报警短信。

相关文章
相关标签/搜索