CentOS6安装各类大数据软件 第一章:各个软件版本介绍html
CentOS6安装各类大数据软件 第二章:Linux各个软件启动命令node
CentOS6安装各类大数据软件 第三章:Linux基础软件的安装linux
CentOS6安装各类大数据软件 第四章:Hadoop分布式集群配置web
CentOS6安装各类大数据软件 第五章:Kafka集群的配置shell
CentOS6安装各类大数据软件 第六章:HBase分布式集群的配置服务器
CentOS6安装各类大数据软件 第七章:Flume安装与配置网络
CentOS6安装各类大数据软件 第八章:Hive安装和配置app
CentOS6安装各类大数据软件 第九章:Hue大数据可视化工具安装和配置分布式
CentOS6安装各类大数据软件 第十章:Spark集群安装和部署工具
查看时间命令:date
网络同步时间命令:ntpdate ntp1.aliyun.com / ntpdate cn.pool.ntp.org
同步固定时间命令:date -s "2018-07-30 14:03:03"
#临时关闭防火墙
service iptables stop
#检测防火墙是否关闭
service iptables stop
#将防火墙设置为开启不启动
chkconfig iptables off
#修改config文件中的SELINUX=disabled
vi /etc/selinux/config
SELINUX=disabled
在Zookeeper的安装目录的bin文件夹下,启动zkServer.sh start便可
环境变量配置以下:
export ZK_HOME=/export/servers/zookeeper-3.4.9
export PATH=${ZK_HOME}/bin:$PATH
在Hadoop的安装目录下执行此命令:./bin/hdfs namenode –format
咱们如今将一个节点上的HDFS文件系统配置完成和格式化完成了,接下来,咱们启动HDFS文件系统
#启动namenode
./sbin/hadoop-daemon.sh start namenode
#启动datanode
./sbin/hadoop-daemon.sh start datanode
#启动以后能够在50070的web界面进行查看
#启动resourcemanager
./sbin/yarn-daemon.sh start resourcemanager
#启动nodemanager
./sbin/yarn-daemon.sh start nodemanager
#启动以后能够在8088的web界面进行查看
在sbin目录下执行以下命令:
./start-all.sh
./stop-all.sh
cd /export/servers/kafka/bin
./kafka-server-start.sh /export/servers/kafka/config/server.properties
kafka-server-start.sh -daemon /export/servers/kafka/config/server.properties
./kafka-manager -Dconfig.file=../conf/application.conf
#在节点1的HBase安装目录的bin目录下启动HBase Master
./hbase-daemon.sh start master
#在三节点启动regionserver
./hbase-daemon.sh start regionserver
#在HBase的bin目录下执行以下命令
./start-hbase.sh
starthbase.sh
bin/flume-ng agent -c conf -f conf/netcat-logger.conf -n a1 -Dflume.root.logger=INFO,console
-c conf 指定 flume 自身的配置文件所在目录
-f conf/netcat-logger.con 指定咱们所描述的采集方案
-n a1 指定咱们这个 agent 的名字
startflume.sh
在/export/servers/hive/bin目录下,启动hiveserver2服务便可:
./hiveserver2
hive的一键启动命令:
starthiveserver2.sh
在/export/servers/hue-3.7.0-cdh5.3.6/build/env/bin目录下执行hue的启动命令:
./supervisor
若是hue集成hbase,需在/export/servers/hbase/bin目录下启动thrift服务:
hbase-daemon.sh start thrift
在spark安装目录的sbin目录下执行以下命令:./start-all.sh
在节点一的spark安装目录的sbin目录下执行以下命令:./sbin/start-all.sh
在节点二的spark安装目录的sbin目录下执行以下命令:./sbin/start-master.sh
由于此配置中,spark集成了hive和hbase等操做,因此在若是要运行spark-shell,须要先启动hbase和hive,特别是hive,需启动3个服务,一个hive主服务,一个hive的其余链接服务,一个hive和spark集成的服务,以下所示:
在hive的跟目录下:bin/hiveserver2
在hive的跟目录下:bin/hive --service metastore
hue服务:/export/servers/hue-3.7.0-cdh5.3.6/build/env/bin/supervisorhive和spark关联服务:/export/servers/hive/bin/hive --service metastore