参考官网对应版本的文档的 single node setup 部分
https://hadoop.apache.org/docs/
首先要有 ssh 和 rsyncphp
而后下载 bin 包并解压,把解压的根目录添加为环境变量 HADOOP_HOMEjava
# 例 export HADOOP_HOME=/home/yzj/Applications/hadoop/hadoop-2.10.0 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
修改 HADOOP_HOME/etc/hadoop/hadoop-env.shnode
# set to the root of your Java installation export JAVA_HOME=/usr/lib/jvm/java-8-openjdk # Java 路径 可由 whereis java 命令找到
修改 HADOOP_HOME/etc/hadoop/core-site.xmlmysql
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
修改 HADOOP_HOME/etc/hadoop/hdfs-site.xmllinux
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/yzj/Applications/hadoop/hadoop-2.10.0/tmp</value> <!-- 默认会存放在 linux 系统的 /tmp 中,必定修改成一个持久化的路径 --> </property> </configuration>
设置 sshsql
启动 ssh 服务: sudo systemctl start sshd.service
先看看不输入密码可否 ssh 到 localhost: ssh localhost
不行的话数据库
ssh-keygen -t rsa -P '' -f ~/.ssh/id\_rsa cat ~/.ssh/id\_rsa.pub >> ~/.ssh/authorized\_keys chmod 0600 ~/.ssh/authorized\_keys
修改 HADOOP_HOME/etc/hadoop/mapred-site.xmlapache
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
修改 HADOOP_HOME/etc/hadoop/yarn-site.xmlssh
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce\_shuffle</value> </property> </configuration>
格式化 hdfsjvm
$HADOOP_HOME/bin/hdfs namenode -format
运行 hdfs
$HADOOP_HOME/sbin/start-dfs.sh
建立 user 文件夹
$HADOOP_HOME/bin/hdfs dfs -mkdir /user
建立用户文件夹
$HADOOP_HOME/bin/hdfs dfs -mkdir /user/<username> # 与 linux 当前用户相对应 eg. hdfs dfs -mkdir /user/yzj
运行 yarn
$HADOOP_HOME/sbin/start-yarn.sh
在 localhost:50070
下访问 hdfs,在 localhost:8088
下访问 yarn
退出
$HADOOP_HOME/sbin/stop-yarn.sh
https://wiki.archlinux.org/index.php/MariaDB
安装 MariaDB
sudo pacman -S mariadb
安装完后执行
sudo mysql\_install\_db --user=mysql --basedir=/usr --datadir=/var/lib/mysq
开启 mysql 服务
sudo systemctl start mariadb.service
执行
sudo mysql\_secure\_installation
过程当中须要为 root 用户设置密码,而且要保留 test 数据库
以 root 用户登陆 mysql
sudo mysql -u root -p
登陆后从 none 切换到 mysql 数据库,确保存在一个数据库
use mysql;
更新权限
grant all on *.* to 'root'@'%' identified by '你的密码'; grant all on *.* to 'root'@'localhost' identified by '你的密码';
刷新
flush privileges;
退出
quit;
https://blog.csdn.net/qq_37106028/article/details/78247727
https://blog.csdn.net/Handoking/article/details/81388143
下载并解压 bin 包,设置环境变量
# 例 export HIVE_HOME=/home/yzj/Applications/hadoop/hive-2.3.6 export PATH=$PATH:$HIVE_HOME/bin
建立配置文件
cp $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh cp $HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml cp $HIVE_HOME/conf/hive-log4j2.properties.template $HIVE_HOME/conf/hive-log4j2.properties cp $HIVE_HOME/conf/hive-exec-log4j2.properties.template $HIVE_HOME/conf/hive-exec-log4j2.properties
修改 hive-env.sh
JAVA_HOME=/usr/lib/jvm/java-8-openjdk HADOOP_HOME=$HADOOP_HOME HIVE_HOME=$HIVE_HOME
修改 hive-site.xml
<property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.cj.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>自行修改</value> </property> <property> <name>datanucleus.schema.autoCreateAll</name> <value>true</value> </property> <property> <name>hive.querylog.location</name> <value>设置一个持久化目录</value> <!-- eg. /home/yzj/Applications/hadoop/hive-2.3.6/tmp --> </property> <property> <name>hive.exec.local.scratchdir</name> <value>同上</value> </property> <property> <name>hive.downloaded.resources.dir</name> <value>同上</value> </property>
复制驱动文件 mysql-connector-java-8.x.y.jar 到 HIVE_HOME/lib 目录下,下载地址 http://central.maven.org/maven2/mysql/mysql-connector-java/
删除 HADOOP_HOME/share/hadoop/yarn/lib 目录下的 jline jar 包,用 HIVE_HOME/lib 下的 jline jar 包替代(Hadoop 对应目录下没有 jline jar 包能够不作这一步)
登陆 mysql,在里面运行你的 hive 中最新的 hive-schema-x.y.z.mysql.sql
source /home/yzj/Applications/hadoop/hive-2.3.6/scripts/metastore/upgrade/mysql/hive-schema-2.3.0.mysql.sql;
终端执行
sudo schematool -dbType mysql -initSchema
启动 hive (先启动 hadoop)
$HIVE_HOME/bin/hive