大数据培训课程思路

学习方法:
一、如何写博客?给本身的学习留痕迹?
markdown语法:给本身的学习作笔记
二、如何经过视频学习优质资源?
跟紧加速播放功能!potplayer神器、百度云盘
三、如何找到有价值的源码资源?
github、码云、coding.net的下载
四、如何学习权威知识?
官网指引,谷歌翻译
五、各大学习网站介绍?
慕课网、51CTO(开会员)、极客学院、麦子学院(前端)、网易云课堂、哔哩哔哩前端

大数据基础:
1、Java知识储备
一、环境的安装(java环境)
二、直接在w3cschool用多种方式实现helloworld(若是有多个这样的学生),对比式学习
三、讲解jvm(多种方式运行java程序)
四、IDEA编辑器的安装(介绍腾讯云开发平台:Cloud Studio)
a.在IDEA运行helloworld
五、Java se入门学习(基础差的话需多讲)
经过模拟日志生成案例入门Java se(后面中级课程会用python来实现)java

2、Linux入门
一、VMWare的安装,Centos7的安装
二、Linux的学习
a.经常使用的命令讲解(cd、ll、ls)
b.经过配置NAT网络案例入门VI编辑器
编辑与非编辑模式的讲解
vi的基本操做:增删改查、跳头跳尾
c.讲解三种网络模式的区别
三、Centos与Ubuntu的命令区别
四、XShell、XFTP软件的使用
五、经过安装jdk1.8案例进阶Linux经常使用命令
六、经过配置环境变量来初识Shell脚本
七、经过写一个查看进程脚原本初体验Shell脚本
亮点:windows执行java代码与linux执行的对比与区别
a.客户端与服务器的概念
b.生产上是如何部署项目(打包、上传服务器、脚本)python

大数据入门:
1、大数据环境准备
一、三台服务器准备
a.克隆3台虚拟机
b.域名映射
c.免密码登陆
二、ntp时间同步设置
三、关闭防火墙
a.Centos六、Centos7的区别linux

2、Hadoop生态圈(串讲Hive):
一、HDFS
a.安装与部署
b.进程与节点两个层面讲解(恢复机制)
c.Web UI讲解
d.分布式存储原理git

二、MapReduce与YARN
a.MapReduce第一个例子讲解(串讲Hadoop数据类型)
b.由MapReduce例子讲解分布式计算原理
c.YARN的原理与功能
d.YARN资源的配置github

项目一之总结:MR做业项目实战(串讲Maven)web

3、Spark生态圈(串讲Scala编程)
一、理解Spark
二、Spark核心编程
三、提交与执行做业
四、Spark SQL
五、Spark Streamingshell

4、数据采集与消息队列
一、Flume
a.Flume的原理与部署
b.Flume采集数据到HDFS
二、Kafka
a.Kafka的原理与部署
b.Kafka消息分布订阅系统的实现
三、Flume与Kafka的区别数据库

项目二之总结:Spark Streaming项目实战之实时采集数据到HDFS(logs -> Flume -> Kafka ->编程

Spark Streaming -> HDFS)

5、非关系型数据库HBase(串讲Zookeeper)
一、HBase的相关概念(组件、进程)
二、HBase的核心原理
三、小案例之Spark Streaming实现HBase读写

项目三之总结:升级项目二,将数据采集到HBase

6、数据可视化
一、HTML、CSS、JavaScript的简单使用
二、ECharts入门(静态)
三、小案例之获取后台数据进行可视化

彩蛋:经过升级查看进程脚原本进阶shell脚本

计划是开设五天的课程,内容可详细可快速讲解,15天的大数据培训。
形式是首先看到咱们的培训以后的项目成果,而后一步一步带着学员实现。
课程特色是:串讲+一栈式开发,讲到相关知识则发散思惟讲解,一直优化与升级。
从初级(5天到15天)到中级(5天到15天)再到高级(5天到15天),一步步完善,一步步升级。

若有更好的建议,请与我沟通,一块儿交流一块儿进步,感谢收看。

做者简介:邵奈一
大学大数据讲师、大学市场洞察者、专栏编辑
公众号、微博、CSDN邵奈一
本系列课均为本人:邵奈一原创,如转载请标明出处