zoukankan      html  css  js  c++  java
  • 分别用Eclipse和IDEA搭建Scala+Spark开发环境

    开发机器上安装jdk1.7.0_60和scala2.10.4,配置好相关环境变量。网上资料很多,安装过程忽略。此外,Eclipse使用Luna4.4.1,IDEA使用14.0.2版本。

    1. Eclipse开发环境搭建

    1.1. 安装scala插件

    安装eclipse-scala-plugin插件,下载地址http://scala-ide.org/download/prev-stable.html

    clip_image002

    解压缩以后把plugins和features复制到eclipse目录,重启eclipse以后即可。

    Window -> Open Perspective -> Other…,打开Scala,说明安装成功。

    clip_image004

    1.2. 创建maven工程

    打开File -> New -> Other…,选择Maven Project:

    clip_image005

    点击Next,输入项目存放路径:

    clip_image007

    点击Next,选择org.scala-tools.archetypes:

    clip_image009

    点击Next,输入artifact相关信息:

    clip_image011

    点击Finish即可。默认创建好的工程目录结构如下:

    clip_image012

    修改pom.xml文件:

    clip_image013

    至此,一个默认的scala工程新建完成。

    2. Spark开发环境搭建

    2.1. 安装scala插件

    开发机器使用的IDEA版本为IntelliJ IEDA 14.0.2。为了使IDEA支持scala开发,需要安装scala插件,如图:

    clip_image015

    插件安装完成后,IntelliJ IDEA会要求重启。

    2.2. 创建maven工程

    点击Create New Project,在Project SDK选择jdk安装目录(建议开发环境中的jdk版本与Spark集群上的jdk版本保持一致)。点击左侧的Maven,勾选Create from archetype,选择org.scala-tools.archetypes:scala-archetype-simple:

    clip_image017

    点击Next后,可根据需求自行填写GroupId,ArtifactId和Version(请保证之前已经安装maven)。点击Finish后,maven会自动生成pom.xml和下载依赖包。同1.2章节中eclipse下创建maven工程一样,需要修改pom.xml中scala版本。

    clip_image013[1]

    至此,IDEA下的一个默认scala工程创建完毕。

    3. WordCount示例程序

    3.1. 修改pom文件

    在pom文件中添加spark和hadoop相关依赖包:

    <!-- Spark -->
    
    <dependency>
    
    <groupId>org.apache.spark</groupId>
    
    <artifactId>spark-core_2.10</artifactId>
    
    <version>1.1.0</version>
    
    </dependency>
    
    <!-- Spark Steaming-->
    
    <dependency>
    
    <groupId>org.apache.spark</groupId>
    
    <artifactId>spark-streaming_2.10</artifactId>
    
    <version>1.1.0</version>
    
    </dependency>
    
    <!-- HDFS -->
    
    <dependency>
    
    <groupId>org.apache.hadoop</groupId>
    
    <artifactId>hadoop-client</artifactId>
    
    <version>2.6.0</version>
    
    </dependency>
    View Code

    在<build></build>中使用maven-assembly-plugin插件,目的是package时把依赖jar也打包。

    <plugin>
    
    <artifactId>maven-assembly-plugin</artifactId>
    
    <version>2.5.5</version>
    
    <configuration>
    
    <appendAssemblyId>false</appendAssemblyId>
    
    <descriptorRefs>
    
    <descriptorRef>jar-with-dependencies</descriptorRef>
    
    </descriptorRefs>
    
    <archive>
    
    <manifest>
    
    <mainClass>com.ccb.WordCount</mainClass>
    
    </manifest>
    
    </archive>
    
    </configuration>
    
    <executions>
    
    <execution>
    
    <id>make-assembly</id>
    
    <phase>package</phase>
    
    <goals>
    
    <goal>assembly</goal>
    
    </goals>
    
    </execution>
    
    </executions>
    
    </plugin>
    View Code

    3.2. WordCount示例

    WordCount用来统计输入文件中所有单词出现的次数,代码参考:

    package com.ccb
    
    import org.apache.spark.{ SparkConf, SparkContext }
    
    import org.apache.spark.SparkContext._
    
    /**
    
    * 统计输入目录中所有单词出现的总次数
    
    */
    
    object WordCount {
    
    def main(args: Array[String]) {
    
    val dirIn = "hdfs://192.168.62.129:9000/user/vm/count_in"
    
    val dirOut = "hdfs://192.168.62.129:9000/user/vm/count_out"
    
    val conf = new SparkConf()
    
    val sc = new SparkContext(conf)
    
    val line = sc.textFile(dirIn)
    
    val cnt = line.flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _) // 文件按空格拆分,统计单词次数
    
    val sortedCnt = cnt.map(x => (x._2, x._1)).sortByKey(ascending = false).map(x => (x._2, x._1)) // 按出现次数由高到低排序
    
    sortedCnt.collect().foreach(println) // 控制台输出
    
    sortedCnt.saveAsTextFile(dirOut) // 写入文本文件
    
    sc.stop()
    
    }
    
    }
    View Code

    3.3. 提交spark执行

    使用maven pacakge打包得到sparktest-1.0-SNAPSHOT.jar,并提交到spark集群运行。

    执行命令参考:

    ./spark-submit --name WordCountDemo --class com.ccb.WordCount sparktest-1.0-SNAPSHOT.jar

    即可得到统计结果。

  • 相关阅读:
    Kruskal
    克鲁斯卡尔
    克鲁斯卡尔
    实践是检验真理的唯一标准 脱壳篇02
    Kruskal
    克鲁斯卡尔算法讲解
    实践是检验真理的唯一标准 脱壳篇02
    最小生成树(普里姆算法) 数据结构和算法62
    克鲁斯卡尔算法讲解
    最小生成树(普里姆算法) 数据结构和算法62
  • 原文地址:https://www.cnblogs.com/simplestupid/p/4687507.html
Copyright © 2011-2022 走看看