基于Vmware Workstation上的hadoop集群搭建Spark集群

        前一篇博客总结了如何在Windows 7上利用Vmware Workstation搭建Ubuntu kylin 14.04的hadoop集群。Hadoop集群搭建成功,距离Spark集群就只有一步之遥了。因为Spark框架本身就可以建立在Hadoop的hdfs基础之上。         搭建Spark集群,首先要安装Scala,因为Spark本身就是使用Scala语言开发的。不同的
相关文章
相关标签/搜索