一、配置网络IPjava
vim /etc/sysconfig/network-scripts/ifcfg-eth0node
IPADDR=192.168.1.101—网络ipmysql
GATEWAY=192.168.1.2—网关linux
DNS1=192.168.1.2—网关nginx
ONBOOT=yesc++
BOOTPROTO=staticweb
二、修改主机名正则表达式
vim /etc/sysconfig/network算法
三、配置IP映射sql
vim /etc/hosts
192.168.1.101 hadoop101
四、重启,并ping通外网
(1) 备份原镜像文件,以避免出错后能够恢复
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
(2) 下载新的CentOS-Base.repo到/etc/yum.repos.d
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-6.repo
(3)运行yum makecache 生成缓存(必定要执行,否则等于没有配)
yum clean all
yum makecache
yum -y install vim
yum -y install openssh(scp基于ssh)
yum -y install openssh-clients
yum -y install rsync
yum -y install libaio
yum -y install unzip
yum -y install telnet
yum -y install ntp
yum -y install gcc-c++
一、关闭防火墙
$ chkconfig iptables off --永久关闭
$ service iptables stop --本次关闭
二、建立一个非root用户
$ adduser hth
$ passwd hth --修改密码
$ vi /etc/sudoers --给hth用户赋予全部权限
root ALL=(ALL) ALL
hth ALL=(ALL) ALL
三、切换到hth用户,在/opt下建立两个文件夹
$ mkdir module
$ mkdir software
1、SSH免密登陆
ssh-keygen --在本机生成密钥对
ssh-copy-id hadoop102 --把公钥拷贝并添加到目标服务器的authorized-keys文件中
su - :切换成root用户,而且将环境一同转换
2、克隆问题的处理
(1)直接修改 /etc/sysconfig/network-script/ifcfg-eth0
删掉UUID HWADDR(会自动生成)
修改静态地址,不要冲突便可
(2)删除或者修改文件均可以
rm -rf /etc/udev/rules.d/70-persistent-net.rules
而后 reboot
(3)ping通外网
一、查看本机系统是否安装了JDK并卸载
$ rpm -qa| grep -i java
若是有安装JDK,卸载
$ rpm -e –nodeps 已安装rpm包
二、安装jdk
(1)将jdk安装包上传到/opt/software
(2)解压到/opt/module $ tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/
三、配置jdk环境变量
$ vim /etc/profile
##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin
$ source /etc/profile --让修改后的文件生效
$ java -version --测试安装成功与否
一、将hadoop安装包上传到/opt/software
二、解压到/opt/module $ tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/
三、配置hadoop环境变量
$ vim /etc/profile
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
$ source /etc/profile --让修改后的文件生效
$ hadoop version --测试
四、修改配置文件 /opt/module/hadoop-2.7.2/etc/hadoop/路径下
hadoop-env.sh
mapred-env.sh export JAVA_HOME=/opt/module/jdk1.8.0_144
yarn-env.sh
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
slaves
core-site.xml
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:9000</value>
</property>
slaves hadoop101 hadoop102 hadoop103 hadoop104 hadoop105 |
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
hdfs-site.xml
<!—副本数量 -->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!-- 指定HDFS中secondNameNode的地址 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:50090</value>
</property>
mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!—配置历史服务器->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop104:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop104:19888</value>
<!-- 日志汇集功能使能 --> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <!-- 日志保留时间设置7天 --> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>604800</value> </property> |
</property>
yarn-site.xml
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
bin/hdfs namenode -format --格式化namenode
单节点:
sbin/hadoop-daemon.sh start/stop namenode
sbin/hadoop-daemon.sh start/stop datanode
sbin/yarn-daemon.sh start/stop resourcemanager
sbin/yarn-daemon.sh start/stop nodemanager
sbin/mr-jobhistory-daemon.sh start/stop historyserver --历史服务器
群起:
sbin/start-dfs.sh
sbin/stop-dfs.sh
sbin/start-yarn.sh
sbin/stop-yarn.sh
一、检查ntp服务是否正确安装
$ rpm -qa | grep ntp
显示以下:(代表正确安装,不然安装一下$ yum -y install ntp)
ntp-4.2.6p5-10.el6.centos.x86_64
fontpackages-filesystem-1.41-1.1.el6.noarch
ntpdate-4.2.6p5-10.el6.centos.x86_64
二、修改ntp配置文件
$ vi /etc/ntp.conf
修改内容以下
a)修改1 (受权192.168.216.0网段上的全部机器能够从这台机器上查询和同步时间)
#restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap为
restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
b)修改2 (集群在局域网中,不使用其余的网络时间)
server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst为
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
c)添加3 (当该节点丢失网络链接,依然能够做为时间服务器为集群中的其余节点提供时间同步)
server 127.127.1.0
fudge 127.127.1.0 stratum 10
三、修改/etc/sysconfig/ntpd 文件
$ vim /etc/sysconfig/ntpd
增长内容以下 SYNC_HWCLOCK=yes
四、从新启动并设置开机自启ntp服务
$ service ntpd status systemctl status ntpd.service
$ service ntpd start/restart systemctl start ntpd.service
$ chkconfig ntpd on systemctl enable ntpd.service
五、在其余机器配置10分钟与时间服务器同步一次
$ crontab -e
编写脚本
*/10 * * * * /usr/sbin/ntpdate hadoop101
六、其它机器先手动同步一次时间
$ ntpdate -u hadoop101
一、上传安装包到/opt/software
二、解压到/opt/module
$ tar -zxvf zookeeper-3.4.5.tar.gz -C /opt/module
三、进入安装目录/opt/module/zookeeper-3.4.5
$ mkdir zkData
四、进入/opt/module/zookeeper-3.4.5/zkData
$ touch myid(编辑myid给定id标识)
五、修改配置文件
$ vim zoo.cfg
dataDir=/opt/module/zookeeper-3.4.5/zkData
server.2=hadoop102:2888:3888
server.3=hadoop103:2888:3888
server.4=hadoop104:2888:3888
六、zookeeper的启停命令
bin/zkServer.sh start --启动服务端
bin/zkServer.sh stop --中止服务端
bin/zkServer.sh status --查看服务端启动状态
bin/zkCli.sh --启动客户端
quit --退出客户端
一、查看本机系统是否安装mysql并卸载
$ rpm -qa| grep -i mysql
二、卸载已经安装的mysql rpm
$ rpm -e --nodeps mysql-libs-5.1.73-7.el6.x86_64
三、上传到/opt/software
在当前路径中解压 $ unzip mysql-libs.zip
四、进入mysql-libs,修改解压后文件的操做权限
$ chmod u+x ./*
五、安装服务端和客户端(顺序不能乱) (libaio包)
$ rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm
$ rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm
六、查看并启动mysql
$ service mysql status
$ service mysql start
$ cat /root/.mysql_secret --查看随机生成的登陆密码
七、登陆并修改密码
$ mysql -uroot -pOEXaQuS8IWkG19Xs
$ SET PASSWORD=PASSWORD('123456');
$ exit;
八、从新登陆并修改user表
$ mysql -uroot -p123456
$ use mysql;
$ update user set host='%' where host='localhost';
$ delete from user where host in ('hadoop101', '127.0.0.1', '::1');
$ flush privileges;
$ exit;
(1)上传安装包到 /opt/software
(2)解压 $ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /opt/module/
(4)修改配置文件:$ cd /opt/module/hive/conf
hive-env.sh hive-site.xml hive-log4j.properties
(5)编辑hive-env.sh文件
$ mv hive-env.sh.template hive-env.sh
$ vim hive-env.sh
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export HIVE_CONF_DIR=/opt/module/hive/conf
(6)编辑hive-site.xml文件(新建或参考hive-default.xml.template)
$ touch hive-site.xml
(注意,hive-site.xml手动建立,而且里面的内容最好在Linux上编辑
现成的hive-site.xml配置文件在安装配置文件里面有)
<--把metastore元数据放到mysql上,配置链接mysql 的信息-->
<property>
<name>javax.jdo.option.connectionurl</name>
<value>jdbc:mysql://hadoop102:3306/metastore?Createdatabaseifnotexist=true</value>
</property>
<property>
<name>javax.jdo.option.connectiondrivername</name>
<value>com.mysql.jdbc.driver</value>
</property>
<property>
<name>javax.jdo.option.connectionusername</name>
<value>root</value>
bin/hadoop fs -mkdir /tmp bin/hadoop fs -mkdir -p /user/hive/warehouse bin/hadoop fs -chmod g+w /tmp bin/hadoop fs -chmod g+w /user/hive/warehouse |
</property>
<property>
<name>javax.jdo.option.connectionpassword</name>
<value>123456</value>
</property>
<--配置hive在hdfs上的数据仓库位置-->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value> 注意这个目录须要提早在hdfs上建立
</property>
<--配置 显示当前数据库,以及查询表的头信息配置-->
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
(7)修改log4j. properties
(1)$ mv hive-log4j.properties.template hive-log4j.properties
(2)$ vim hive-log4j.properties
cp mysql-connector-java-5.1.27-bin.jar /opt/module/hive/lib/ --记得要把mysql驱动导入到hive/lib
|
hive.log.dir=/opt/module/hive/logs
一、上传安装包到/opt/software
二、解压到/opt/module
$ tar -zxf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/modules/
三、修改配置文件
$ mv sqoop-env-template.sh sqoop-env.sh
$ mv sqoop-site-template.xml sqoop-site.xml
四、$ vim sqoop-env.sh
export HADOOP_COMMON_HOME=/opt/modules/hadoop-2.7.2
export HADOOP_MAPRED_HOME=/opt/modules/hadoop-2.7.2
export HIVE_HOME=/opt/modules/apache-hive-1.2.2-bin
export ZOOKEEPER_HOME=/opt/modules/zookeeper-3.4.5
export ZOOCFGDIR=/opt/modules/zookeeper-3.4.5
五、拷貝mysql驱动到sqoop/lib中
$ cp -a mysql-connector-java-5.1.27-bin.jar /opt/modules/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib/
上传并解压便可,而后修改一个配置文件,安装成功
flume-env.sh涉及修改项:
export JAVA_HOME=/home/admin/modules/jdk1.8.0_121 |
Flume实操:
(1) 进入flume/bin手动建立一个配置文件,如:flume-kafka.conf
(2) 在本身建立的配置文件中,书写有关flume的各类配置,sources, channels, sink
(3) 执行flume(记住这个命令)
$ bin/flume-ng agent --conf conf/ --name a1 --conf-file job/flume-kafka.conf
一、先安装好zookeeper集群并启动
二、上传安装包到/opt/sodtware,并解压到/opt/module
三、进入kafka根目录,建立logs文件夹
$ mkdir logs
四、修改配置文件 server.properties
#broker的全局惟一编号,不能重复
broker.id=0
#是否容许删除topic
delete.topic.enable=true
#kafka运行日志存放的路径
log.dirs=/opt/module/kafka/logs
#topic在当前broker上的分区个数
num.partitions=1
#配置链接Zookeeper集群地址
zookeeper.connect=hadoop105:2181,hadoop106:2181,hadoop107:2181
五、分发到其它机器并修改broker.id
六、命令行操做kafka的命令
bin/kafka-server-start.sh config/server.properties &
bin/kafka-server-stop.sh stop
bin/kafka-topics.sh --zookeeper hadoop106:2181 --list
bin/kafka-topics.sh --zookeeper hadoop102:2181 --create --replication-factor 3 --partitions 1 --topic first
bin/kafka-topics.sh --zookeeper hadoop102:2181 --delete --topic first
bin/kafka-console-producer.sh --broker-list hadoop102:9092 --topic first
bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --from-beginning --topic first
bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --topic first --consumer.config config/consumer.properties
一、首先确保JDK、hadoop、zookeeper正常安装并启动
二、上传到/opt/sodtware,解压到/opt/module
三、修改3个配置文件
hbase-env.sh
hbase-site.xml
若是使用的是JDK8以上版本, 则应在hbase-evn.sh中 移除“HBASE_MASTER_OPTS”和“HBASE_REGIONSERVER_OPTS”配置。 |
regionservers
hbase-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
export HBASE_MANAGES_ZK=false
hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop105:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 0.98后的新变更,以前版本没有.port,默认端口为60000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop105:2181,hadoop106:2181,hadoop107:2181</value>
</property>
<property>
regionservers hadoop105 hadoop106 hadoop107
|
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/zookeeper-3.4.10/zkData</value>
</property>
</configuration>
四、替换hbase/lib目录下的依赖jar, 因为HBase须要依赖Hadoop,因此替换HBase的lib目录下的jar包,以解决兼容问题,把hbase/lib目录下的jar包替换当前安装的hadoop相关的jar
(1)删除原有的jar
$ rm -rf /opt/modules/hbase-1.3.1/lib/hadoop-*
$ rm -rf /opt/modules/hbase-1.3.1/lib/zookeeper-3.4.6.jar
(2)引入当前hadoop的依赖jar,zookeeper的依赖jar,涉及到的jar有:
hadoop-auth-2.7.2.jar
hadoop-client-2.7.2.jar(当心处理它)
hadoop-common-2.7.2.jar
hadoop-hdfs-2.7.2.jar
hadoop-mapreduce-client-app-2.7.2.jar
hadoop-mapreduce-client-common-2.7.2.jar
hadoop-mapreduce-client-core-2.7.2.jar
hadoop-mapreduce-client-jobclient-2.7.2.jar
hadoop-mapreduce-client-shuffle-2.7.2.jar
hadoop-yarn-api-2.7.2.jar
hadoop-yarn-client-2.7.2.jar
hadoop-yarn-common-2.7.2.jar
hadoop-yarn-server-common-2.7.2.jar
zookeeper-3.4.5.jar
五、将hadoop相关的配置文件core-site.xml和hdfs-site.xml软链接或者直接拷贝到hbase/conf下
$ ln -s /opt/modules/hadoop-2.7.2/etc/hadoop/core-site.xml /opt/modules/hbase-1.3.1/conf/core-site.xml
$ ln -s /opt/modules/hadoop-2.7.2/etc/hadoop/hdfs-site.xml /opt/modules/hbase-1.3.1/conf/hdfs-site.xml
六、将整个配置好的hbase分发到其它服务器
七、hbase启停命令
$ bin/hbase-daemon.sh start master
$ bin/hbase-daemon.sh start regionserver
$ bin/start-hbase.sh
$ bin/stop-hbase.sh
一、机器安装并配置好JDK、cdh5.3.6版本的hadoop、以及mysql
二、上传oozie安装包到/opt/software
三、解压到/opt/module/cdh
$ tar -zxf oozie-4.0.0-cdh5.3.6.tar.gz -C /opt/module/cdh
四、修改hadoop配置文件并分发到其它机器
core-site.xml
<!-- Oozie Server的Hostname --> <property> <name>hadoop.proxyuser.atguigu.hosts</name> <value>*</value> </property>
<!-- 容许被Oozie代理的用户组 --> <property> <name>hadoop.proxyuser. atguigu.groups</name> <value>*</value> </property> |
mapred-site.xml
<!-- 配置 MapReduce JobHistory Server 地址 ,默认端口10020 --> <property> <name>mapreduce.jobhistory.address</name> <value>hadoop102:10020</value> </property>
<!-- 配置 MapReduce JobHistory Server web ui 地址, 默认端口19888 --> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop102:19888</value> </property> |
yarn-site.xml
<!-- 任务历史服务 --> <property> <name>yarn.log.server.url</name> <value>http://hadoop102:19888/jobhistory/logs/</value> </property> |
五、在oozie根目录下解压hadooplibs(完成后Oozie目录下会出现hadooplibs目录)
$ tar -zxf oozie-hadooplibs-4.0.0-cdh5.3.6.tar.gz -C ../
六、在根目录下建立文件夹libext,并把hadooplibs各类jar,mysql驱动,ext.zip放入其中
$ mkdir libext
$ cp -ra hadooplibs/hadooplib-2.5.0-cdh5.3.6.oozie-4.0.0-cdh5.3.6/* libext/
$ cp -a /opt/module/hive/lib/mysql-connector-java-5.1.27-bin.jar libext/
$ cp /opt/software/ext-2.2.zip libext/ --ext.zip要从本地上传
七、修改oozie-site.xml配置文件
属性:oozie.service.JPAService.jdbc.driver
属性值:com.mysql.jdbc.Driver
解释:JDBC的驱动
属性:oozie.service.JPAService.jdbc.url
属性值:jdbc:mysql://hadoop102:3306/oozie
解释:oozie所需的数据库地址
属性:oozie.service.JPAService.jdbc.username
属性值:root
解释:数据库用户名
属性:oozie.service.JPAService.jdbc.password
属性值:123456
解释:数据库密码
属性:oozie.service.HadoopAccessorService.hadoop.configurations
属性值:*=/opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/etc/hadoop
解释:让Oozie引用Hadoop的配置文件
八、进入Mysql并建立oozie数据库
$ mysql -uroot -p123456
mysql> create database oozie;
九、初始化oozie三步曲
(1)上传Oozie目录下的yarn.tar.gz文件到HDFS
$ bin/oozie-setup.sh sharelib create -fs hdfs://hadoop102:8020 -locallib oozie-sharelib-4.0.0-cdh5.3.6-yarn.tar.gz
(2)建立oozie.sql文件
$ bin/oozie-setup.sh db create -run -sqlfile oozie.sql
(3)打包项目,生成war包
$ bin/oozie-setup.sh prepare-war
十、启动关闭oozie(要先启动mysql和hadoop)
$ bin/oozied.sh start/stop
十一、访问oozie的web页面,进行测试
slaves hadoop105 hadoop106 hadoop107 |
一、安装好JDK、hadoop
spark-env.sh SPARK_MASTER_HOST=hadoop105 SPARK_MASTER_PORT=7077
|
二、上传安装包到linux,并解压到指定目录
三、进入conf目录
将slaves.template复制为slaves
将spark-env.sh.template复制为spark-env.sh
四、启动测试
sbin/start-all.sh
五、注意:
若是遇到 “JAVA_HOME not set” 异常,能够在sbin目录下的spark-config.sh 文件中加入以下配置:
export JAVA_HOME=XXXX
六、配置历史服务器(实战必定要配置)
(1)将spark-default.conf.template复制为spark-default.conf
(2)修改spark-default.conf文件,开启Log
(3)同时修改spark-env.sh文件,添加以下配置:
spark-defaults.conf
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop105:9000/directory
spark.eventLog.compress true
spark-env.sh
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=4000
-Dspark.history.retainedApplications=3
-Dspark.history.fs.logDirectory=hdfs://hadoop105:9000/directory"
七、启动进行测试(注意: HDFS上的目录须要提早存在)
sbin/start-all.sh
sbin/start-history-server.sh
八、若是遇到Hadoop HDFS的写入权限问题:org.apache.hadoop.security.AccessControlException
解决方案: 在hdfs-site.xml中添加以下配置,关闭权限验证
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
spark-env.sh (1)将SPARK_MASTER_HOST删除 # SPARK_MASTER_HOST=hadoop105 (2)添加以下配置信息 export SPARK_DAEMON_JAVA_OPTS=" -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop105:2181,hadoop106:2181,hadoop107:2181 -Dspark.deploy.zookeeper.dir=/spark"
|
九、配置spark-master的高可用(实战)
(1)启动zookeeper集群
(2)修改配置文件spark-env.sh
十、启动测试
sbin/start-all.sh—active master
sbin/start-master.sh—standby master
十一、配置spark运行在yarn上
(1)修改yarn-site.xml,并分发
(2)修改Spark-env.sh 添加,让Spark可以发现Hadoop配置文件
<!--是否启动一个线程检查每一个任务正使用的物理内存量,若是任务超出分配值,则直接将其杀掉,默认是true --> <property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <!--是否启动一个线程检查每一个任务正使用的虚拟内存量,若是任务超出分配值,则直接将其杀掉,默认是true --> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
|
spark-env.sh HADOOP_CONF_DIR=/home/bigdata/hadoop/hadoop-2.7.3/etc/hadoop YARN_CONF_DIR=/home/bigdata/hadoop/hadoop-2.7.3/etc/hadoop
|
下载nginx:官方网站:http://nginx.org/ Nginx提供的源码。
要求的安装环境
一、须要安装gcc的环境。yum install gcc-c++
二、第三方的开发包。
n PCRE
PCRE(Perl Compatible Regular Expressions)是一个Perl库,包括 perl 兼容的正则表达式库。nginx的http模块使用pcre来解析正则表达式,因此须要在linux上安装pcre库。
yum install -y pcre pcre-devel
注:pcre-devel是使用pcre开发的一个二次开发库。nginx也须要此库。
n zlib
zlib库提供了不少种压缩和解压缩的方式,nginx使用zlib对http包的内容进行gzip,因此须要在linux上安装zlib库。
yum install -y zlib zlib-devel
n openssl
OpenSSL 是一个强大的安全套接字层密码库,囊括主要的密码算法、经常使用的密钥和证书封装管理功能及SSL协议,并提供丰富的应用程序供测试或其它目的使用。
nginx不只支持http协议,还支持https(即在ssl协议上传输http),因此须要在linux安装openssl库。
yum install -y openssl openssl-devel
安装:
把nginx的源码包上传到linux系统
解压:tar zxvf nginx-1.10.2.tar.gz
进入解压目录:cd nginx-1.10.2
执行最后的安装步骤: ./configure && make && make install
启动nginx:
进入目录(这个是默认安装目录,记住它):
cd /usr/local/nginx/
./nginx
访问nginx:默认端口80
查询启动状态:ps -aux | grep nginx
关闭nginx:
./nginx -s stop
推荐使用:
./nginx -s quit
重启nginx:
./nginx -s reload
3.启动nginx报错处理
(1)、查看nginx安装的地址(whereis)
(2)、进入目录启动
cd /usr/local/nginx/
/usr/local/nginx/sbin/nginx
通常这个时候会报错,不要慌张!!!
错误信息:error while loading shared libraries:libpcre.so.1.......
解决方案:
[root@localhost nginx]# whereis libpcre.so.1
libpcre.so: /lib64/libpcre.so.0 /usr/local/lib/libpcre.so.1 /usr/local/lib/libpcre.so
[root@localhost nginx]# ln -s /usr/local/lib/libpcre.so.1 /lib64
[root@localhost nginx]# sbin/nginx
[root@localhost nginx]# ps -aux | grep nginx
Warning: bad syntax, perhaps a bogus '-'? See /usr/share/doc/procps-3.2.8/FAQ
root 12007 0.0 0.0 20296 628 ? Ss 13:28 0:00 nginx: master process sbin/nginx
nobody 12008 0.0 0.1 20716 1220 ? S 13:28 0:00 nginx: worker process
root 12010 0.0 0.0 103244 836 pts/0 S+ 13:29 0:00 grep nginx
4.测试安装是否成功:
进入linux自带的火狐浏览器,键入localhost,会跳出welcome to nginx!(切忌关闭防火墙)
service iptables stop(若是不关闭防火墙,可能会致使访问失败!)
over~~~
Linux下打包压缩war、解压war包和jar命令
解决
把project_a文件夹下的文件打包成project.war
1. 打包
jar -xvf project.war /project_a
-c 建立war包
-v 显示过程信息
-f 指定 JAR 文件名,一般这个参数是必须的
-M 不产生全部项的清单(MANIFEST〕文件,此参数会忽略 -m 参数
-0 这个是阿拉伯数字,只打包不压缩的意思
2. 解压
jar -xvf project.war