hadoop入门学习教程--DKHadoop完整安装步骤 使用hadoop版本是DKH标准三节点发行版,DKHadoop版本的易用性比较好,环境部署要简单的多,参考此篇安装前请先下载DKHadoop版本,网盘连接:pan.baidu.com/s/1-427Sh6l… 提取码:vg2w
第一部分:准备工做 一、 大数据平台所需配置: (1) 系统:CentOS 6.5 64位(需默认安装Desktop) (2) CPU :intel E3及以上。 (3) 内存:建议最小8G,用图计算建议32G,推荐128G。 (4) 硬盘:256G以上,推荐使用固态硬盘。 (5) 系统分区要求: 如无特殊需求,除swap分区外,可将剩余空间所有分配到/(根)分区 (6) 网络要求:如无特殊状况,尽可能能够接入外网。 (7) 至少三台服务器(三台服务器名字任意起,密码须一致)。 (8)安装使用root用户做为默认用户 二、 远程上传和远程链接工具: (1) 若直接使用我的PC开启的虚拟机做为服务器的基础,直接拷贝到虚拟机下便可。 (2) 如果使用机房服务器做平台搭建的服务器,如若不能直接接触到服务器,则须要使用远程工具链接并发送安装包node
第二部分:服务器操做系统配置mysql
1.修改权限 步骤:在准备工做中拷贝安装包DKHPlantform.zip到主节点/root/目录后,解压并修改文件权限(文件全部者可读可写可执行,与文件全部者属于一个用户组的其余用户可读可执行,其余用户组可读可执行)。 命令:
cd /root/ unzip DKHPlantform.zip chmod -R 755 DKHPlantform 2. 搭建hadoop集群设置SSH免密登陆 步骤: 修改主机名 vi /etc/sysconfig/network reboot (1)修改本机hosts文件,写入对应关系 命令: vi /etc/hosts 经过按键盘上的insert或是I键进入编辑模式,编辑完成后按一下Esc键而后按一下按Shift+:键,输入wq 后回车就能够保存。输入q!后回车则是放弃保存并退出. 进入编辑模式后,按照规则写入主机与ip的对应关系(主机名称dk41是本身命名的,以下图)例: 192.168.1.41 dk41 192.168.1.42 dk42 192.168.1.43 dk43sql
b)执行insExpect.sh,系统会装两个rpm包,在执行sshpass.sh的过程当中无需再输密码和yes,脚本自动继续执行。 命令: cd /root/DKHPlantform/autossh ./insExpect.sh 按照提示屡次输入yes和密码(以下图)数据库
3.安装双机热备份的MySQL 目的:存放Hive的元数据 步骤: (1)从主节点分发mysql安装目录到第二节点 命令: scp -r /root/DKHPlantform/mysqlInst/ 192.168.1.42:/root/ (2)主节点执行: 命令:
cd /root/DKHPlantform/mysqlInst/ ./mysql.sh 1 ssh前往第二台机器(从节点)并执行: 命令: cd /root/mysqlInst/ ./mysql.sh 2 (3)执行成功以后执行热备份(两台机器上都要执行,两个ip互换,41上写42,42上写41,密码是Mysql的密码为:123456。平台内已经设定好,请勿修改): 命令: source /etc/profile ./sync.sh 192.168.1.xxx(另外一台mysql地址) root 123456浏览器
4.建立数据库 步骤: (1)导入MySQL数据表,只在主节点执行: 命令: mysql -uroot -p123456 < { 此处为sql文件,主目录下文件: dkh.sql} 如:mysql -uroot -p123456 </root/DKHPlantform/dkh.sql (2)执行完后查看一下两台mysql的数据表是否存在,从节点查看执行: 命令: mysql -uroot -p123456 show databases;tomcat
一、当hdfs的zkfc出现以下问题时,可尝试如下方法:服务器
(1) 先格式化hadoopzk:hdfs zkfc -formatZK (2) 启动zk,sbin下: ./hadoop-daemon.sh start zkfc (3) 设定失败转移的namenode: hdfs haadmin -failover nn1 nn2 二、当hue页面打不开,显示以下内容时,说明没有建立hue数据库,可在主节点执行此文件,根据提示输入Y便可网络
三、当hue页面打不开,显示以下内容时,可执行以下命令解决:并发
# ./hue migrate
复制代码