hive的使用依赖hadoop,因此先介绍hadoop。html
笔者是在Centos7.3上安装的hadoop,使用的是hadoop-3.2的版本。直接按照hadoop-2.9文档安装便可。java
hadoop下载地址node
hadoop的环境变量必定要设置,否则hive启动的时候会提示找不到hadoop。mysql
在/etc/profile中加入
export $HADOOP_HOME=hadoop的安装路径
export $PATH=$PATH:$HADOOP_HOME/binsql
注意:若是环境变量PATH设置错误,会致使一些命令失效。
centos 输入什么命令都失效数据库
启动hadoop的时候要求在不输入密码的状况下可以ssh localhost成功。在hadoop的官方文档有提到解决办法。我本身遇到的问题是:localhost:permission denied(publickey,password)apache
解决办法:
解决ssh localhost中root@localhost:要求输入密码问题(已经进行了无密码设置登陆)
root用户操做文件:Operation not permittedcentos
在使用bin/hdfs dfs -mkdir /tmp命令时出现Cannot create directory /usr. Name node is in safe mode问题,百度上不少答案都说用bin/hdfs dfsadmin -safemode leave关闭安全模式,可是我使用了这个命令,安全模式会自动再次打开,也有一种说法是磁盘满了,可是个人还有一半的空间没利用,最后没有找到其余办法,重启了Hadoop,就解决了。安全
我使用的是hive-3.1.1-bin版本,按照官方文档安装便可。ssh
export HIVE_HOME=hive安装目录
export PATH=$PATH:$HIVE_HOME/bin
须要在添加一个数据库链接,若是在$HIVE_HOME/conf找不到hive-site.xml,能够本身建立一个。我使用的是mysql数据库。
在MySql数据库的链接url中要添加useSSL=false
遇到的问题:Unexpected character '=' (code 61); expected a semi-colon after the reference for entity 'useUnicode
须要执行:schematool -dbType mysql -initSchema
数据库是很早以前安装的,用的时候链接不上了,关闭mysql以后,启动不了。解决办法
用service mysqld start启动失败会提示使用service mysqld status和journalct -xe查看错误信息,可是这两个命令的结果都看不出错误信息。mysql的日志在/var/log/mysqld.log文件中,可使用tail -n 1000 /var/log/mysqld.log查看错误信息。再错误信息排错。
以上就是本身在安装hadoop和hive的过程当中遇到的问题,作个记录。