zoukankan      html  css  js  c++  java
  • Spark on Intellij IDEA

    添加scala插件

    如果网络有问题,可以手动下载插件安装包(http://plugins.jetbrains.com/plugin/?id=1347),在上面选择“Install plugin from disk”,在弹出的标签里选择你存放插件的路径,点OK即可。

    下面新建scala工程

    据说scala2.11问题多,最好用2.10

    点击finish之后,啥都没有

    到官网http://spark.apache.org/下载spark,解压,从File->Project Structre中导入[spark root path]/lib/spark-assembly-1.5.1-hadoop2.6.0.jar

    在scr下新建scala object

    /**
     * Created by Manhua on 2015/11/11.
     */
    import org.apache.spark._
    
    import scala.math.random
    
    
    object s {
      def main(args: Array[String]) {
        val spark = new SparkContext("local", "Spark Pi")
        val slices = 2
        val n = 100000 * slices
        val count = spark.parallelize(1 to n, slices).map { i =>
          val x = random * 2 - 1
          val y = random * 2 - 1
          if (x * x + y * y < 1) 1 else 0
        }.reduce(_ + _)
        println("Pi is roughly " + 4.0 * count / n)
        spark.stop()
      }
    }

    右击test.scala,编译,运行

    打包jar运行

    生成程序包之前要先建立一个artifacts,File -> Project Structure -> Artifacts  -> + -> Jars -> From moudles with dependencies,然后随便选一个class作为主class。

    选择jar包入口main class

    ok之后显示如下

    把complie output之外的依赖包remove掉。Name可以按需修改

    然后就可以build了

    输出目录

    上传运行

  • 相关阅读:
    App性能测试工具-PerfDog
    痛并快乐着
    SQLyog连接MySQL的前前后后
    组合模式
    Java并发编程:线程池的使用
    高效能人事的七个习惯
    Spring中Bean的生命周期及其扩展点
    (转)第一次有人把“分布式事务”讲的这么简单明了
    分布式事物
    mybatis学习笔记(2)基本原理
  • 原文地址:https://www.cnblogs.com/manhua/p/4956408.html
Copyright © 2011-2022 走看看