大数据清洗阶段3

如今就是基本完成了,下一阶段将继续学习hive、 MapReducemysql

 进入mysqlsql

 

 

mysql --local-infile=1 -u root -poop

 

 

 

 

 

 

 

 

 将HIVE中的表数据导出到临时文件中学习

  insert overwrite local directory '/usr/local/hadoop/tmp/out' row format delimited fields terminated by ' ' select * from t_2;3d

 

 

 经过命令将数据导入到mysqlorm

load data local infile '/usr/local/hadoop/tmp/out/000000_0' into table t_2 fields terminated by ' ';blog

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 可视化展现hadoop

 

 

 

 

 

 

 

相关文章
相关标签/搜索