大数据是对海量数据进行存储、计算、统计、分析处理的一系列处理手段,处理的数据量一般是TB级,甚至是PB或EB级的数据,这是传统数据处理手段所没法完成的,其涉及的技术有分布式计算、高并发处理、高可用处理、集群、实时性计算等,聚集了当前IT领域热门流行的IT技术。
在这里仍是要推荐下我本身建的大数据学习交流群:529867072,群里都是学大数据开发的,若是你正在学习大数据 ,小编欢迎你加入,你们都是软件开发党,不按期分享干货(只有大数据软件开发相关的),包括我本身整理的一份最新的大数据进阶资料和高级开发教程,欢迎进阶中和进想深刻大数据的小伙伴加入。
大数据入门,须要学习如下这些知识点:web
一、Java编程技术sql
Java编程技术是大数据学习的基础,Java是一种强类型语言,拥有极高的跨平台能力,能够编写桌面应用程序、Web应用程序、分布式系统和嵌入式系统应用程序等,是大数据工程师最喜欢的编程工具,所以,想学好大数据,掌握Java基础是必不可少的。数据库
二、Linux命令编程
对于大数据开发一般是在Linux环境下进行的,相比Linux操做系统,Windows操做系统是封闭的操做系统,开源的大数据软件很受限制,所以,想从事大数据开发相关工做,还需掌握Linux基础操做命令。服务器
三、Hadoop数据结构
Hadoop是大数据开发的重要框架,其核心是HDFS和MapReduce,HDFS为海量的数据提供了存储,MapReduce为海量的数据提供了计算,所以,须要重点掌握,除此以外,还须要掌握Hadoop集群、Hadoop集群管理、YARN以及Hadoop高级管理等相关技术与操做!架构
四、Hive并发
Hive是基于Hadoop的一个数据仓库工具,能够将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,能够将sql语句转换为MapReduce任务进行运行,十分适合数据仓库的统计分析。对于Hive需掌握其安装、应用及高级操做等。框架
五、Avro与Protobuf编程语言
Avro与Protobuf均是数据序列化系统,能够提供丰富的数据结构类型,十分适合作数据存储,还可进行不一样语言之间相互通讯的数据交换格式,学习大数据,需掌握其具体用法。
六、ZooKeeper
ZooKeeper是Hadoop和Hbase的重要组件,是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组件服务等,在大数据开发中要掌握ZooKeeper的经常使用命令及功能的实现方法。
七、HBase
HBase是一个分布式的、面向列的开源数据库,它不一样于通常的关系数据库,更适合于非结构化数据存储的数据库,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,大数据开发需掌握HBase基础知识、应用、架构以及高级用法等。
八、phoenix
phoenix是用Java编写的基于JDBC API操做HBase的开源SQL引擎,其具备动态列、散列加载、查询服务器、追踪、事务、用户自定义函数、二级索引、命名空间映射、数据收集、行时间戳列、分页查询、跳跃查询、视图以及多租户的特性,大数据开发需掌握其原理和使用方法。
九、Redis
Redis是一个key-value存储系统,其出现很大程度补偿了memcached这类key/value存储的不足,在部分场合能够对关系数据库起到很好的补充做用,它提供了Java,C/C++,C#,PHP,JavaScript,Perl,Object-C,Python,Ruby,Erlang等客户端,使用很方便,大数据开发需掌握Redis的安装、配置及相关使用方法。
十、Flume
Flume是一款高可用、高可靠、分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各种数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各类数据接受方(可定制)的能力。大数据开发需掌握其安装、配置以及相关使用方法。
十一、SSM
SSM框架是由Spring、SpringMVC、MyBatis三个开源框架整合而成,常做为数据源较简单的web项目的框架。大数据开发需分别掌握Spring、SpringMVC、MyBatis三种框架的同时,再使用SSM进行整合操做。
十二、Kafka
Kafka是一种高吞吐量的分布式发布订阅消息系统,其在大数据开发应用上的目的是经过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了经过集群来提供实时的消息。大数据开发需掌握Kafka架构原理及各组件的做用和使用方法及相关功能的实现。
1三、Scala
Scala是一门多范式的编程语言,大数据开发重要框架Spark是采用Scala语言设计的,想要学好Spark框架,拥有Scala基础是必不可少的,所以,大数据开发需掌握Scala编程基础知识!
1四、Spark
Spark是专为大规模数据处理而设计的快速通用的计算引擎,其提供了一个全面、统一的框架用于管理各类不一样性质的数据集和数据源的大数据处理的需求,大数据开发需掌握Spark基础、SparkJob、Spark RDD、spark job部署与资源分配、Spark shuffle、Spark内存管理、Spark广播变量、Spark SQL、Spark Streaming以及Spark ML等相关知识。
1五、Azkaban
Azkaban是一个批量工做流任务调度器,可用于在一个工做流内以一个特定的顺序运行一组工做和流程,能够利用Azkaban来完成大数据的任务调度,大数据开发需掌握Azkaban的相关配置及语法规则。
1六、Python与数据分析
做者:心在遠方
来源:CSDN
原文:https://blog.csdn.net/weixin_... 版权声明:本文为博主原创文章,转载请附上博文连接!