①为何要使用负载均衡php
当咱们的Web服务器直接面向用户,每每要承载大量并发请求,单台服务器难以负荷,我使用多台Web服务器组成集 群,前端使用Nginx负载均衡,将请求分散的打到咱们的后端服务器集群中,实现负载的分发。那么会大大提高系统的吞 吐率、请求性能、高容灾。
css
每每咱们接触的最多的是SLB(Server Load Balance)负载均衡,实现最多的也是SLB、那么SLB它的调度节点和服务节 点一般是在一个地域里面。那么它在这个小的逻辑地域里面决定了他对部分服务的实时性、响应性是很是好的。
因此说当海量用户请求过来之后,它一样是请求调度节点,调度节点将用户的请求转发给后端对应的服务节点,服务节点 处理完请求后在转发给调度节点,调度节点最后响应给用户节点。这样也能实现一个均衡的做用,那么Nginx则是一个典 型的SLB。html
②负载均衡的叫法前端
负载均衡 负载 Load Balance LB
③公有云中叫法node
SLB 阿里云负载均衡 QLB 青云负载均衡 CLB 腾讯云负载均衡 ULB ucloud负载均衡
④常见的负载均衡的软件nginx
Nginx Haproxy LVS
⑤负载均衡能实现的应用场景一: 四层负载均衡c++
所谓四层负载均衡
指的是OSI七层模型中的传输层,那么传输层Nginx已经能支持TCP/IP的控制,因此只须要对客户端 的请求进行TCP/IP协议的包转发就能够实现负载均衡,那么它的好处是性能很是快、只须要底层进行应用处理,而不须要进行一些复杂的逻辑。
git
⑥负载均衡能实现的应用场景二:七层负载均衡github
七层负载均衡
它是在应用层,那么它能够完成不少应用方面的协议请求,好比咱们说的http应用的负载均衡,它能够实现 http信息的改写、头信息的改写、安全应用规则控制、URL匹配规则控制、以及转发、rewrite等等的规则,因此在应用 层的服务里面,咱们能够作的内容就更多,那么Nginx则是一个典型的七层负载均衡SLB。
web
⑦四层负载均衡与七层负载均衡区别
四层负载均衡
数据包在底层就进行了分发,而七层负载均衡数据包则是在最顶层进行分发、由此能够看出,七层负载均衡 效率没有四负载均衡高。
七层负载均衡
更贴近于服务,如:http协议就是七层协议,咱们能够用Nginx能够做会话保持,URL路径规则匹 配、head头改写等等,这些是四层负载均衡没法实现的。
注意:四层负载均衡不识别域名,七层负载均衡识别域名。
Nginx要实现七层负载均衡
须要用到proxy_pass
代理模块配置. Nginx负载均衡与Nginx代理不一样地方在于,Nginx的一个location仅能代理一台服务器,而Nginx负载均衡则是将客户端请求代理转发至一组upstream虚拟服务池。
Syntax: upstream name { ... } Default: ‐ Context: http # upstream例 upstream backend { server backend1.example.com weight=5; server backend2.example.com:8080; server unix:/tmp/backend3; server backup1.example.com:8080 backup; } server { location / { proxy_pass http://backend; }
①环境准备
角色 | 外网IP(NAT) | 内网IP(LAN) | 主机名 |
---|---|---|---|
LB01 | eth0:10.0.0.5 | eth1:172.16.1.5 | lb01 |
WEB01 | eth0:10.0.0.7 | eth1:172.16.1.7 | web01 |
WEB02 | eth0:10.0.0.8 | eth1:172.16.1.8 | web02 |
②Web01服务器上配置nginx
[root@web01 ~]# cd /etc/nginx/conf.d/ [root@web01 conf.d]# cat node.conf server { listen 80; server_name node.pingface.com; location / { root /node; index index.html; } } [root@web01 conf.d]# mkdir /node [root@web01 conf.d]# echo "Web01..." > /node/index.html [root@web01 conf.d]# systemctl restart nginx
③Web02服务器上配置nginx
[root@web02 ~]# cd /etc/nginx/conf.d/ [root@web02 conf.d]# cat node.conf server { listen 80; server_name node.pingface.com; location / { root /node; index index.html; } } [root@web02 conf.d]# mkdir /node [root@web02 conf.d]# echo "Web02..." > /node/index.html [root@web02 conf.d]# systemctl restart nginx
④准备Nginx负载均衡调度使用的proxy_params
[root@Nginx ~]# vim /etc/nginx/proxy_params proxy_set_header Host $http_host; proxy_set_header X‐Real‐IP $remote_addr; proxy_set_header X‐Forwarded‐For $proxy_add_x_forwarded_for; proxy_connect_timeout 30; proxy_send_timeout 60; proxy_read_timeout 60; proxy_buffering on; proxy_buffer_size 32k; proxy_buffers 4 128k;
⑤配置Nginx负载均衡
[root@lb01 ~]# cd /etc/nginx/conf.d/ [root@lb01 conf.d]# cat node_proxy.conf upstream node { server 172.16.1.7:80; server 172.16.1.8:80; } server { listen 80; server_name node.pingface.com; location / { proxy_pass http://node; include proxy_params; } } [root@lb01 conf.d]# systemctl restart nginx
打开浏览器访问:http://node.pingfacecom
⑥负载均衡常见典型故障
若是后台服务链接超时,Nginx是自己是有机制的,若是出现一个节点down掉的时候,Nginx会更据你具体负载均衡的 设置,将请求转移到其余的节点上,可是,若是后台服务链接没有down掉,可是返回错误异常码了如:50四、50二、500, 这个时候你须要加一个负载均衡的设置,以下:proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,当其中一台返回错误码404,500…等错误时,能够分配到下一台服务器程序继续处理,提升平台访问成功率。
server { listen 80; server_name node.pingface.com; location / { proxy_pass http://node; proxy_next_upstream error timeout http_500 http_502 http_503 http_504; } }
调度算法 | 概述 |
---|---|
轮询 | 按时间顺序逐一分配到不一样的后端服务器(默认),rr轮询 |
weight | 加权轮询,weight值越大,分配到的访问概率越高 |
ip_hash | 每一个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器 |
url_hash | 按照访问URL的hash结果来分配请求,是每一个URL定向到同一个后端服务器 |
least_conn | 最少连接数,那个机器连接数少就分 |
①Nginx负载均衡[rr]轮询具体配置
upstream load_pass { server 10.0.0.7:80; server 10.0.0.8:80; }
②Nginx负载均衡[wrr]权重轮询具体配置
upstream load_pass { server 10.0.0.7:80 weight=5; server 10.0.0.8:80; }
③Nginx负载均衡ip_hash
具体配置不能和weight一块儿使用
# 若是客户端都走相同代理, 会致使某一台服务器链接过多 upstream load_pass { ip_hash; server 10.0.0.7:80; server 10.0.0.8:80; }
后端Web服务器在前端Nginx负载均衡调度中的状态
状态 | 概述 |
---|---|
down | 当前的server暂时不参与负载均衡 |
backup | 预留的备份服务器 |
max_fails | 容许请求失败的次数 |
fail_timeout | 通过max_fails失败后, 服务暂停时间 |
max_conns | 限制最大的接收链接数 |
①down状态测试
该Server不参与负载均衡的调度
upstream load_pass { # 不参与任何调度, 通常用于停机维护 server 10.0.0.7:80 down; }
②测试backup以及down状态
upstream load_pass { server 10.0.0.7:80 down; server 10.0.0.8:80 backup; server 10.0.0.9:80 max_fails=1 fail_timeout=10s; } location / { proxy_pass http://load_pass; include proxy_params; }
③测试max_fails失败次数和fail_timeout多少时间内失败多少次则标记down
upstream load_pass { server 10.0.0.7:80; server 10.0.0.8:80 max_fails=2 fail_timeout=10s; }
④测试max_conns最大TCP链接数
upstream load_pass { server 10.0.0.7:80; server 10.0.0.8:80 max_conns=1; }
在Nginx官方模块提供的模块中,没有对负载均衡后端节点的健康检查模块,但可使用第三方模块。 nginx_upstream_check_module
来检测后端服务的健康状态。
①安装依赖包
[root@lb02 ~]# yum install ‐y gcc glibc gcc‐c++ pcre‐devel openssl‐devel patch
②下载nginx源码包以及nginx_upstream_check模块第三方模块
[root@lb02 ~]# wget http://nginx.org/download/nginx‐1.14.2.tar.gz [root@lb02 ~]# wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/master.zip
③解压nginx源码包以及第三方模块
[root@lb02 ~]# tar xf nginx‐1.14.2.tar.gz [root@lb02 ~]# unzip master.zip
④进入nginx目录,打补丁(nginx的版本是1.14补丁就选择1.14的,p1表明在nginx目录,p0是不在nginx目录)
[root@lb02 ~]# cd nginx‐1.14.2/ [root@lb02 nginx‐1.14.2]# patch ‐p1 <../nginx_upstream_check_modulemaster/check_1.14.0+.patch ./configure ‐‐prefix=/etc/nginx ‐‐sbin‐path=/usr/sbin/nginx ‐‐modulespath=/usr/lib64/nginx/modules ‐‐conf‐path=/etc/nginx/nginx.conf ‐‐error‐logpath=/var/log/nginx/error.log ‐‐http‐log‐path=/var/log/nginx/access.log ‐‐pidpath=/var/run/nginx.pid ‐‐lock‐path=/var/run/nginx.lock ‐‐http‐client‐body‐temppath=/var/cache/nginx/client_temp ‐‐http‐proxy‐temp‐path=/var/cache/nginx/proxy_temp ‐‐httpfastcgi‐temp‐path=/var/cache/nginx/fastcgi_temp ‐‐http‐uwsgi‐temppath=/var/cache/nginx/uwsgi_temp ‐‐http‐scgi‐temp‐path=/var/cache/nginx/scgi_temp ‐user=nginx ‐‐group=nginx ‐‐with‐compat ‐‐with‐file‐aio ‐‐with‐threads ‐‐withhttp_addition_module ‐‐with‐http_auth_request_module ‐‐with‐http_dav_module ‐‐withhttp_flv_module ‐‐with‐http_gunzip_module ‐‐with‐http_gzip_static_module ‐‐withhttp_mp4_module ‐‐with‐http_random_index_module ‐‐with‐http_realip_module ‐‐withhttp_secure_link_module ‐‐with‐http_slice_module ‐‐with‐http_ssl_module ‐‐withhttp_stub_status_module ‐‐with‐http_sub_module ‐‐with‐http_v2_module ‐‐with‐mail ‐‐withmail_ssl_module ‐‐with‐stream ‐‐with‐stream_realip_module ‐‐with‐stream_ssl_module ‐‐withstream_ssl_preread_module ‐‐add‐module=/root/nginx_upstream_check_module‐master ‐‐with‐ccopt='‐O2 ‐g ‐pipe ‐Wall ‐Wp,‐D_FORTIFY_SOURCE=2 ‐fexceptions ‐fstack‐protector‐strong ‐param=ssp‐buffer‐size=4 ‐grecord‐gcc‐switches ‐m64 ‐mtune=generic ‐fPIC' ‐‐with‐ld‐opt='Wl,‐z,relro ‐Wl,‐z,now ‐pie' [root@lb02 nginx‐1.14.2]# make && make install
⑤在已有的负载均衡上增长健康检查的功能
[root@lb01 conf.d]# cat proxy_web.conf upstream web { server 172.16.1.7:80 max_fails=2 fail_timeout=10s; server 172.16.1.8:80 max_fails=2 fail_timeout=10s; check interval=3000 rise=2 fall=3 timeout=1000 type=tcp; #interval 检测间隔时间,单位为毫秒 #rise 表示请求2次正常,标记此后端的状态为up #fall 表示请求3次失败,标记此后端的状态为down #type 类型为tcp #timeout 超时时间,单位为毫秒 } server { listen 80; server_name web.pingface.com; location / { proxy_pass http://web; include proxy_params; } location /upstream_check { check_status; } }
在使用负载均衡的时候会遇到会话保持的问题,可经过以下方式进行解决。 1.使用nginx的ip_hash,根据客户端的IP,将请求分配到对应的IP上 2.基于服务端的session会话共享(NFS,MySQL,memcache,redis,file) 在解决负载均衡绘画问题,咱们须要了解session和cookie的区别。 浏览器端存的是cookie每次浏览器发请求到服务端时,报文头是会自动添加cookie信息的。 服务端会查询用户的cookie做为key去存储里找对应的value(session)同一域名下的网站的cookie都是同样的,因此不管几台服务器,不管请求分配到哪一台服务器上同一用户的cookie是不变的。也就是说cookie对应的session也是惟一的。因此这里只要保证多台业务服务器访问同一个共享存储服务器(NFS,MySQL,memcache,redis,file)就好了
①配置Nginx
[root@web01 conf.d]# cat php.conf server { listen 80; server_name php.pingface.com; root /code/phpMyAdmin‐4.8.4‐all‐languages; location / { index index.php index.html; } location ~ \.php$ { fastcgi_pass 127.0.0.1:9000; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; include fastcgi_params; } } [root@web01 conf.d]# systemctl restart nginx
②安装phpmyadmin (web01和web02上都装)
PHP版本要在7.0以上
[root@web01 conf.d]# cd /code [root@web01 code]# wget https://files.phpmyadmin.net/phpMyAdmin/4.8.4/phpMyAdmin‐4.8.4‐alllanguages.zip [root@web01 code]# unzip phpMyAdmin‐4.8.4‐all‐languages.zip
③配置phpmyadmin链接远程的数据库
[root@web01 code]# cd phpMyAdmin‐4.8.4‐all‐languages/ [root@web01 phpMyAdmin‐4.8.4‐all‐languages]# cp config.sample.inc.php config.inc.php [root@web01 phpMyAdmin‐4.8.4‐all‐languages]# vim config.inc.php /* Server parameters */ $cfg['Servers'][$i]['host'] = '172.16.1.51';
④配置受权
[root@web01 conf.d]# chown ‐R www.www /var/lib/php
使用浏览器访问页面,获取cookie信息
[root@web01 phpMyAdmin‐4.8.4‐all‐languages]# ll /var/lib/php/session/ 总用量 4 ‐rw‐‐‐‐‐‐‐. 1 www www 2424 8月 21 18:41 sess_80a339880e754b1919d3004754f40f15
⑤将web01上配置好的phpmyadmin以及nginx的配置文件推送到web02主机上
[root@web01 code]# scp ‐rp phpMyAdmin‐4.8.4‐all‐languages root@172.16.1.8:/code/ [root@web01 code]# scp /etc/nginx/conf.d/php.conf root@172.16.1.8:/etc/nginx/conf.d/
⑥在web02上重载Nginx服务
[root@web02 code]# systemctl restart nginx
⑦受权
[root@web02 code]# chown ‐R www.www /var/lib/php/
⑧接入负载均衡
[root@lb01 conf.d]# vim proxy_php.com.conf upstream php { server 172.16.1.7:80; server 172.16.1.8:80; } server { listen 80; server_name php.pingface.com; location / { proxy_pass http://php; include proxy_params; } } [root@lb01 conf.d]# nginx ‐t nginx: the configuration file /etc/nginx/nginx.conf syntax is ok nginx: configuration file /etc/nginx/nginx.conf test is successful [root@lb01 conf.d]# systemctl restart nginx
使用负载均衡的轮询功能以后,会发现,若是将session保存在本地文件的话,永远都登陆不上去php.pingface.com
①安装redis内存数据库
[root@db01 ~]# yum install redis ‐y
②配置redis监听在172.16.1.0网段上
[root@db01 ~]# sed ‐i '/^bind/c bind 127.0.0.1 172.16.1.51' /etc/redis.conf
③启动redis
[root@db01 ~]# systemctl start redis [root@db01 ~]# systemctl enable redis
④php配置session链接redis
# 1.修改/etc/php.ini文件 [root@web ~]# vim /etc/php.ini session.save_handler = redis session.save_path = "tcp://172.16.1.51:6379" ;session.save_path = "tcp://172.16.1.51:6379?auth=123" #若是redis存在密码,则使用该方式 session.auto_start = 1 # 2.注释php‐fpm.d/www.conf里面的两条内容,不然session内容会一直写入/var/lib/php/session目录中 ;php_value[session.save_handler] = files ;php_value[session.save_path] = /var/lib/php/session
⑤重启php-fpm
[root@web01 code]# systemctl restart php‐fpm
⑥将web01上配置好的文件推送到web02
[root@web01 code]# scp /etc/php.ini root@172.16.1.8:/etc/php.ini [root@web01 code]# scp /etc/php‐fpm.d/www.conf root@172.16.1.8:/etc/php‐fpm.d/www.conf
⑦web02上重启php-fpm
[root@web02 code]# systemctl restart php‐fpm
⑧redis查看数据
[root@db01 ~]# redis‐cli 127.0.0.1:6379> keys * 1) "PHPREDIS_SESSION:f96f184460e8ca9dfdc65f3e70cca79c"