【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第四步)(7)

第四步:经过Spark的IDE搭建并测试Spark开发环境

 

Step 1:导入Spark-hadoop对应的包,次选择“File”–> “Project Structure” –> “Libraries”,选择“+”,将spark-hadoop 对应的包导入:web

点击“OK”确认:oop

点击“OK”:测试

IDEA工做完成后会发现Spark的jar包导入到了咱们的工程中:spa

Step 2:开发第一个Spark程序。打开Spark自带的Examples目录:orm

此时发现内部有不少文件,这些都是Spark给我提供的实例。hadoop

在咱们的在咱们的第一Scala工程的src下建立一个名称为SparkPi的Scala的object:开发

此时打开Spark自带的Examples下的SparkPi文件:it

咱们把该文的内容直接拷贝到IDEA中建立的SparkPi中:spark

相关文章
相关标签/搜索