参考网站:javascript
http://www.cnblogs.com/zhuhongbao/archive/2013/06/04/3118061.htmlphp
http://www.cnblogs.com/jilianggqq/p/4141641.htmlcss
http://www.360doc.com/content/16/0804/14/35569207_580737016.shtmlhtml
Nginx安装部署java
Nginx ("engine x") 是一个高性能的 HTTP 和 反向代理 服务器,也是一个 IMAP/POP3/SMTP 代理服务器。 Nginx 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,第一个公开版本0.1.0发布于2004年10月4日。其将源代码以类BSD许可证的形式发布,因它的稳定性、丰富的功能集、示例配置文件和低系统资源的消耗而闻名。2011年6月1日,nginx 1.0.4发布。node
通常咱们都须要先装pcre, zlib,前者为了重写rewrite,后者为了gzip压缩。linux
安装配置以前,手动关闭所需使用虚拟机的iptables与selinux服务,命令以下nginx
service iptables stopweb
setenforce 0apache
Nginx安装服务器IP:192.168.42.2
选定目录 /usr/local/
cd /usr/local/
cd /usr/local/
wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.21.tar.gz
tar -zxvf pcre-8.21.tar.gz
cd pcre-8.21
./configure
make
make install
cd /usr/local/
wget http://zlib.net/zlib-1.2.8.tar.gz
tar -xvf zlib-1.2.8.tar.gz
cd zlib-1.2.8
./configure
make
make install
cd /usr/local/
wget http://www.openssl.org/source/openssl-1.0.1c.tar.gz
tar -zxvf openssl-1.0.1c.tar.gz
cd openssl-1.0.1c
./config
make
make install
Nginx 通常有两个版本,分别是稳定版和开发版,您能够根据您的目的来选择这两个版本的其中一个,下面是把 Nginx 安装到 /usr/local/nginx 目录下的详细步骤:
cd /usr/local/
wget http://nginx.org/download/nginx-1.2.8.tar.gz
tar -zxvf nginx-1.2.8.tar.gz
cd nginx-1.2.8
./configure --prefix=/usr/local/nginx --with-pcre=/usr/local/pcre-8.21
--with-zlib=/usr/local/zlib-1.2.7
make
make install
--with-pcre=/usr/src/pcre-8.21指的是pcre-8.21 的源码路径。
--with-zlib=/usr/src/zlib-1.2.7指的是zlib-1.2.7 的源码路径。
确保系统的 80 端口没被其余程序占用,
/usr/local/nginx/sbin/nginx(启动)
/usr/local/nginx/sbin/nginx -s reload(重启)启动后才能执行重启操做。
/usr/local/nginx/sbin/nginx -s stop(关闭)
检查是否启动成功:
netstat -ano|grep 80 有结果输入说明启动成功
打开浏览器访问此机器的 IP,若是浏览器出现 Welcome to nginx! 则表示 Nginx 已经安装并运行成功。界面以下所示:
Tomcat安装服务器IP:192.168.42.4
安装以前检查下是否已经安装了openJDK,若是已安装,建议用yum remove 卸载掉。
[root@xldrooto ~]# rpm -qa | grep java
下载合适版本的JDK,网址以下:
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
新建java文件夹
[root@xldrooto ~]# mkdir /usr/java
将下载的JDK经过Xftp传输到java目录下
进入java目录:
[root@xldrooto ~]# cd /usr/java/
[root@xldrooto java]# ls
jdk-8u101-linux-x64.gz
[root@xldrooto java]# tar -zxvf jdk-8u101-linux-x64.gz
经过以上步骤,jdk就已经所有安装完成了。下面,就是环境变量的配置。
编辑/etc/profile
[root@xldrooto ~]# vim /etc/profile
在底部添加以下内容:
JAVA_HOME=/usr/java/jdk1.8.0_101
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=$JAVA_HOME/jre/lib/ext:$JAVA_HOME/lib/tools.jar
export PATH JAVA_HOME CLASSPATH
以上,环境变量配置完成。须要注意的是,PATH在配置的时候,必定要把$JAVA_HOME/bin放在前面,否则使用java命令时,系统会找到之前的java,再不往下找了。这样java这个可执行文件运行的目录其实不在$JAVA_HOME/bin下,而在其它目录下,会形成很大的问题。
还要注意,之前其它教程写的CLASSPATH=$JAVA_HOME/lib.tools.jar,不知道之前的版本是怎么样的,如今的版本是没有这样的jar包的。
最后使用source /etc/profile让profile文件当即生效。
[root@xldrooto ~]# source /etc/profile
查看所安装的JDK的版本:
[root@xldrooto ~]# java -version
java version "1.8.0_101"
Java(TM) SE Runtime Environment (build 1.8.0_101-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.101-b13, mixed mode)
看可否使用javac命令:
[root@xldrooto ~]# javac
Usage: javac <options> <source files>
where possible options include:
-g Generate all debugging info
-g:none Generate no debugging info
-g:{lines,vars,source} Generate only some debugging info
-nowarn Generate no warnings
-verbose Output messages about what the compiler is doing
-deprecation Output source locations where deprecated APIs are used
-classpath <path> Specify where to find user class files and annotation processors
-cp <path> Specify where to find user class files and annotation processors
-sourcepath <path> Specify where to find input source files
-bootclasspath <path> Override location of bootstrap class files
-extdirs <dirs> Override location of installed extensions
-endorseddirs <dirs> Override location of endorsed standards path
-proc:{none,only} Control whether annotation processing and/or compilation is done.
-processor <class1>[,<class2>,<class3>...] Names of the annotation processors to run; bypasses default discovery process
-processorpath <path> Specify where to find annotation processors
-parameters Generate metadata for reflection on method parameters
-d <directory> Specify where to place generated class files
-s <directory> Specify where to place generated source files
-h <directory> Specify where to place generated native header files
-implicit:{none,class} Specify whether or not to generate class files for implicitly referenced files
-encoding <encoding> Specify character encoding used by source files
-source <release> Provide source compatibility with specified release
-target <release> Generate class files for specific VM version
-profile <profile> Check that API used is available in the specified profile
-version Version information
-help Print a synopsis of standard options
-Akey[=value] Options to pass to annotation processors
-X Print a synopsis of nonstandard options
-J<flag> Pass <flag> directly to the runtime system
-Werror Terminate compilation if warnings occur
@<filename> Read options and filenames from file
没有报-bash: javac: command not found错误,说明JDK安装配置成功。
Tomcat服务器:
192.168.42.4:8080
192.168.42.4:8081
将下载的Tomcat源码包经过Xftp传输到/usr/local目录下
进入/usr/local目录下:
[root@xldrooto ~]# cd /usr/local/
[root@xldrooto local]# tar -zxvf apache-tomcat-7.0.70.tar.gz
[root@xldrooto local]# mv apache-tomcat-7.0.70 Tomcat7-1
[root@xldrooto local]# cp –r Tomcat7-1 Tomcat7-2 //须要安装几个Tomcat就复制几份
第一个Tomcat7-1里面的没必要动,这里咱们只修要修改第二个以后的配置文件;
[root@xldrooto local]# vim /usr/local/Tomcat7-2/conf/server.xml
修改下列对应部份内容
<Server port="18005" shutdown="SHUTDOWN">#关闭端口
<Connector port="8081" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="18443" />#Web端口
<Connector port="8019" protocol="AJP/1.3" redirectPort="18443" />#监听端口
修改Toncat的显示界面:
[root@xldrooto ~]# vim /usr/local/Tomcat7-1/webapps/ROOT/index.jsp
改成以下内容:
<%@ page language="java" contentType="text/html; charset=UTF-8"
pageEncoding="UTF-8"%>
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<title>欢迎界面</title>
</head>
<body>
welcome to Tomcat:8080!<br />
</body>
</html>
[root@xldrooto ~]# vim /usr/local/Tomcat7-1/webapps/ROOT/index.jsp
<%@ page language="java" contentType="text/html; charset=UTF-8"
pageEncoding="UTF-8"%>
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<title>Tomcat</title>
</head>
<body>
welcome to Tomcat:8081<br />
</body>
</html>
修改Tomcat是为了测试时切换操做明显。
当在网页上输入192.168.42.4:8080出现下述界面:
当在网页上输入192.168.42.4:8081时出现下述界面:
表示Tomcat安装成功。
nginx服务器IP:192.168.42.2
192.168.42.3(设置同192.168.42.2)
Tomcat服务器IP:192.168.42.4
在192.168.42.2上面安装nginx,在192.168.42.4上面安装两个tomcat并设置不一样的端口,为了能看出区别,修改tomcat的默认页面的内容,这些内容在已在前面章节完成。
本节主要讲解的是在nginx代理服务器上作的配置,过程以下:
[root@xldwhj ~]# vim /usr/local/nginx/conf/nginx.conf
#运行用户
user root;
#启动进程,一般设置成和cpu的数量相等
worker_processes 1;
#全局错误日志及PID文件
error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
#工做模式及链接数上限
events {
#use epoll;#epoll是多路复用IO(I/O Multiplexing)中的一种方式,可是linux2.6
#以上内核,能够大大提升nginx的性能
#单个后台worker process进程的最大并发连接数
worker_connections 1024;
# multi_accept on;
}
#设定http服务器,利用它的反向代理功能提供负载均衡支持
http {
#设定mime类型,类型由mime.type文件定
include mime.types;
default_type application/octet-stream;
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#设定日志格式
access_log logs/access.log;
#sendfile指令指定nginx是否调用sendfile函数(zero copy 方式)来输出文件,
#对于普通应用,必须设为on,若是用来进行下载等应用磁盘IO重负载应用,可设置#为off,以平衡磁盘与网络I/O处理速度,下降系统的uptime.
sendfile on;
#tcp_nopush on;
#链接超时时间
#keepalive_timeout 0;
keepalive_timeout 65;
#开启gzip压缩
#gzip on;
#gzip_disable "MSIE [1-6]\.(?!.*SV1)";
#设定请求缓冲
#client_header_buffer_size 1k;
#large_client_header_buffers 4 4k;
include conf/app1.conf; //在conf目录下新建conf文件夹,包含app1.conf
}
将须要负载的服务器进行分组,不但便于配置文件的管理,并且也使后续须要添加负载服务器时更加容易。
[root@xldwhj ~]# vim /usr/local/nginx/conf/conf/app1.conf
#设定负载均衡的服务器列表,配置http节点以下:
upstream app1{
#weigth参数表示权值,权值越高被分配到的概率越大。
#server 192.168.42.5:80 weight=5;
server 192.168.42.4:8080;
server 192.168.42.4:8081;
}
server{
#侦听80端口
listen 80;
server_name 192.168.42.4;
#设定本虚拟主机的访问日志
#access_log logs/www.xx.com.access.log main;
#默认请求
location /app1 {
#请求转向定义的服务器列表
proxy_pass http://app1/;
#定义首页索引文件的名称
#index index.php index.html index.htm;
#后端的Web服务器能够经过X-Forwarded-For获取用户真实IP
proxy_set_header host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
在浏览器中输入192.168.42.2/app1,点击刷新,实现下述页面交替出现即为成功:
主NginxIP:192.168.42.2
从NginxIP:192.168.42.3
Tomcat服务器:
192.168.42.4:8080
192.168.42.4:8081
虚拟IP地址VIP:192.168.42.100
Keepalived的安装参考《CentOS 6.5 下Keepalived服务的安装与配置》
Nginx负载均衡在第3章已经介绍,这里与前面基本相同,主要介绍Keepalived的配置。
配置文件修改以下,具体含义可参考
! Configuration File for keepalived
global_defs {
router_id NodeA
}
vrrp_instance VI_1 {
state BACKUP #都修改为BACKUP
interface eth0#虚拟IP绑定在网卡0下
virtual_router_id 51
priority 100#优先级
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.42.100
}
}
virtual_server 192.168.42.100 80 {
delay_loop 6
lb_algo wrr
lb_kind DR
nat_mask 255.255.255.0
persistence_timeout 50
protocol TCP
real_server 192.168.42.2 80 {
weight 1
notify_down /root/shutdown.sh #检测到Nginx服务down后执行的脚本
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
connect_port 80
}
}
}
编写脚本文件shutdowm.sh
[root@xldwhj keepalived]# touch /root/shutdown.sh
[root@xldwhj keepalived]# vim /root/shutdown.sh
#!/bin/bash
service keepalived stop
[root@xldwhj keepalived]# chmod 744 /root/shutdown.sh
! Configuration File for keepalived
global_defs {
router_id NodeB
}
vrrp_instance VI_1 {
state BACKUP #都修改为BACKUP
interface eth0#虚拟IP绑定在网卡0下
virtual_router_id 51
priority 99#优先级
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.42.100
}
}
virtual_server 192.168.42.100 80 {
delay_loop 6
lb_algo wrr
lb_kind DR
nat_mask 255.255.255.0
persistence_timeout 50
protocol TCP
real_server 192.168.42.3 80 {
weight 1
notify_down /root/shutdown.sh #检测到Nginx服务down后执行的脚本
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
connect_port 80
}
}
}
脚本文件编写同上节。
分别从主从服务器上启动nginx与keepalived服务
主Nginx执行下属命令:
[root@xldroot ~]# ip a
[root@xldwhj ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:ef:76:a8 brd ff:ff:ff:ff:ff:ff
inet 192.168.42.2/24 brd 192.168.42.255 scope global eth0
inet 192.168.42.100/32 scope global eth0
inet6 fe80::20c:29ff:feef:76a8/64 scope link
valid_lft forever preferred_lft forever
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:ef:76:b2 brd ff:ff:ff:ff:ff:ff
inet 192.168.184.128/24 brd 192.168.184.255 scope global eth1
inet6 fe80::20c:29ff:feef:76b2/64 scope link
valid_lft forever preferred_lft forever虚拟IP已经自动悬浮于网卡0下
从Nginx执行下述命令:
[root@xldroot ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:53:74:85 brd ff:ff:ff:ff:ff:ff
inet 192.168.42.3/24 brd 192.168.42.255 scope global eth0
inet6 fe80::20c:29ff:fe53:7485/64 scope link
valid_lft forever preferred_lft forever
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:53:74:8f brd ff:ff:ff:ff:ff:ff
inet 192.168.184.130/24 brd 192.168.184.255 scope global eth1
inet6 fe80::20c:29ff:fe53:748f/64 scope link
valid_lft forever preferred_lft forever
未发现虚拟IP地址。
在网页中输入192.168.42.100/app1,以后点击刷新实现下属界面交替。
关闭主Nginx的Nginx服务,主Nginx执行下述命令
[root@xldwhj ~]# /usr/local/nginx/sbin/nginx -s stop
[root@xldwhj ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:ef:76:a8 brd ff:ff:ff:ff:ff:ff
inet 192.168.42.2/24 brd 192.168.42.255 scope global eth0
inet6 fe80::20c:29ff:feef:76a8/64 scope link
valid_lft forever preferred_lft forever
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:ef:76:b2 brd ff:ff:ff:ff:ff:ff
inet 192.168.184.128/24 brd 192.168.184.255 scope global eth1
inet6 fe80::20c:29ff:feef:76b2/64 scope link
valid_lft forever preferred_lft forever
虚拟IP已不存在。
在从Nginx上执行下述命令:
[root@xldroot ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:53:74:85 brd ff:ff:ff:ff:ff:ff
inet 192.168.42.3/24 brd 192.168.42.255 scope global eth0
inet 192.168.42.100/32 scope global eth0
inet6 fe80::20c:29ff:fe53:7485/64 scope link
valid_lft forever preferred_lft forever
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:53:74:8f brd ff:ff:ff:ff:ff:ff
inet 192.168.184.130/24 brd 192.168.184.255 scope global eth1
inet6 fe80::20c:29ff:fe53:748f/64 scope link
valid_lft forever preferred_lft forever
虚拟IP地址已悬浮于网卡0之下。
在浏览器中输入192.168.42.100/app1实现下述界面交替切换。
在主Nginx上从新启动服务:
[root@xldwhj ~]# /usr/local/nginx/sbin/nginx
[root@xldwhj ~]# service keepalived start
Starting keepalived: [ OK ]
[root@xldwhj ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:ef:76:a8 brd ff:ff:ff:ff:ff:ff
inet 192.168.42.2/24 brd 192.168.42.255 scope global eth0
inet 192.168.42.100/32 scope global eth0
inet6 fe80::20c:29ff:feef:76a8/64 scope link
valid_lft forever preferred_lft forever
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:ef:76:b2 brd ff:ff:ff:ff:ff:ff
inet 192.168.184.128/24 brd 192.168.184.255 scope global eth1
inet6 fe80::20c:29ff:feef:76b2/64 scope link
valid_lft forever preferred_lft forever
可见,虚拟IP地址重新回到主Nginx服务器上。
测试如上所示,则配置成功。
Nginx配置文件详细说明
在此记录下Nginx服务器nginx.conf的配置文件说明, 部分注释收集于网络.
#运行用户
user www-data;
#启动进程,一般设置成和cpu的数量相等
worker_processes 1;
#全局错误日志及PID文件
error_log /var/log/nginx/error.log;
pid /var/run/nginx.pid;
#工做模式及链接数上限
events {
use epoll; #epoll是多路复用IO(I/O Multiplexing)中的一种方式,可是仅用于linux2.6以上内核,能够大大提升nginx的性能
worker_connections 1024;#单个后台worker process进程的最大并发连接数
# multi_accept on;
}
#设定http服务器,利用它的反向代理功能提供负载均衡支持
http {
#设定mime类型,类型由mime.type文件定义
include /etc/nginx/mime.types;
default_type application/octet-stream;
#设定日志格式
access_log /var/log/nginx/access.log;
#sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,对于普通应用,
#必须设为 on,若是用来进行下载等应用磁盘IO重负载应用,可设置为 off,以平衡磁盘与网络I/O处理速度,下降系统的uptime.
sendfile on;
#tcp_nopush on;
#链接超时时间
#keepalive_timeout 0;
keepalive_timeout 65;
tcp_nodelay on;
#开启gzip压缩
gzip on;
gzip_disable "MSIE [1-6]\.(?!.*SV1)";
#设定请求缓冲
client_header_buffer_size 1k;
large_client_header_buffers 4 4k;
include /etc/nginx/conf.d/*.conf;
include /etc/nginx/sites-enabled/*;
#设定负载均衡的服务器列表
upstream mysvr {
#weigth参数表示权值,权值越高被分配到的概率越大
#本机上的Squid开启3128端口
server 192.168.8.1:3128 weight=5;
server 192.168.8.2:80 weight=1;
server 192.168.8.3:80 weight=6;
}
server {
#侦听80端口
listen 80;
#定义使用www.xx.com访问
server_name www.xx.com;
#设定本虚拟主机的访问日志
access_log logs/www.xx.com.access.log main;
#默认请求
location / {
root /root; #定义服务器的默认网站根目录位置
index index.php index.html index.htm; #定义首页索引文件的名称
fastcgi_pass www.xx.com;
fastcgi_param SCRIPT_FILENAME $document_root/$fastcgi_script_name;
include /etc/nginx/fastcgi_params;
}
# 定义错误提示页面
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /root;
}
#静态文件,nginx本身处理
location ~ ^/(images|javascript|js|css|flash|media|static)/ {
root /var/www/virtual/htdocs;
#过时30天,静态文件不怎么更新,过时能够设大一点,若是频繁更新,则能够设置得小一点。
expires 30d;
}
#PHP 脚本请求所有转发到 FastCGI处理. 使用FastCGI默认配置.
location ~ \.php$ {
root /root;
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
fastcgi_param SCRIPT_FILENAME /home/www/www$fastcgi_script_name;
include fastcgi_params;
}
#设定查看Nginx状态的地址
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file conf/htpasswd;
}
#禁止访问 .htxxx 文件
location ~ /\.ht {
deny all;
}
}
}
以上是一些基本的配置,使用Nginx最大的好处就是负载均衡
若是要使用负载均衡的话,能够修改配置http节点以下:
#设定http服务器,利用它的反向代理功能提供负载均衡支持
http {
#设定mime类型,类型由mime.type文件定义
include /etc/nginx/mime.types;
default_type application/octet-stream;
#设定日志格式
access_log /var/log/nginx/access.log;
#省略上文有的一些配置节点
#
#设定负载均衡的服务器列表
upstream mysvr {
#weigth参数表示权值,权值越高被分配到的概率越大
server 192.168.8.1x:3128 weight=5;#本机上的Squid开启3128端口
server 192.168.8.2x:80 weight=1;
server 192.168.8.3x:80 weight=6;
}
upstream mysvr2 {
#weigth参数表示权值,权值越高被分配到的概率越大
server 192.168.8.x:80 weight=1;
server 192.168.8.x:80 weight=6;
}
#第一个虚拟服务器
server {
#侦听192.168.8.x的80端口
listen 80;
server_name 192.168.8.x;
#对aspx后缀的进行负载均衡请求
location ~ .*\.aspx$ {
root /root; #定义服务器的默认网站根目录位置
index index.php index.html index.htm; #定义首页索引文件的名称
proxy_pass http://mysvr ;#请求转向mysvr 定义的服务器列表
#如下是一些反向代理的配置可删除.
proxy_redirect off;
#后端的Web服务器能够经过X-Forwarded-For获取用户真实IP
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
client_max_body_size 10m; #容许客户端请求的最大单文件字节数
client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数,
proxy_connect_timeout 90; #nginx跟后端服务器链接超时时间(代理链接超时)
proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时)
proxy_read_timeout 90; #链接成功后,后端服务器响应时间(代理接收超时)
proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k如下的话,这样设置
proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传入
}
}
}