zoukankan      html  css  js  c++  java
  • spark1.5.1环境搭建

    今天一个小伙伴找我搞spark,搞了一个中午都没搭建好。心里痒痒的。索性自己重来了一遍。

    本来很简单的事情,被这小子搞的老复杂了。究其原因,有以下几点:

    下载的软件不对,我用的是这两个软件

    spark-1.5.1-bin-hadoop2.6.tgz

    hadoop-2.6.0.tar.gz

    当然还需要基础的java和scala

    这个我就不仔细讲了。

    hadoop的搭建我前面的博客已经写过了。这里只讲一点,就是新搭建Hadoop环境后腰hadoop namenode -format

    并且保证主从节点的clusterID一致。这个值在data文件夹的VERSION文件里面。

    下面将spark 的搭建。

    spark 的搭建首要的一点是,软件必须是跟hadoop版本配套的。不配套真麻烦。我看了一个中午的里面的shell脚本。嵌套调用我看的也很晕。

    所以还是搞配套的版本好

    然后就是配置一下变量了

    在conf下面有两个文件要改:

    一个时spark-env.sh

    添加了这么几行:

    export SCALA_HOME = /root/scala-2.11.4

    export SPARK_HOME=/root/spark-1.5.1-bin-hadoop2.6

    export JAVA_HOME=/jdk1.7.0.55

    export SPARK_MASTER_IP=master

    export SPARK_WORK_MEMORY=1000m

    另一个文件是slaves

    修改成这样

    slave1

    slave2

    这个文件是指定work的节点情况。前一个文件就是指定一些语言和路径的情况。

    简单吧,然后启动就OK了。

    最后主节点增加一个Master进程,

    两个slave节点增加了work进程。

    要想如何测试集群是否OK

    这样测试:在bin目录下跑spark-shell。然后进入了交互式的界面。执行这个语句。

    val textc=sc.textFile("/test.txt").filter(line=>line.contains("Spark")).count()

    其中test.txt文件是先前放到hdfs上去的。

    hadoop dfs -put test.txt /

    这个测试语句的作用是统计test.txt里面有多少个spark单词

  • 相关阅读:
    【转载】eclipse常用插件在线安装地址或下载地址
    【转载】Eclipse快捷键 10个最有用的快捷键
    Visual Studio(C#)快捷键与Eclipse(JAVA)快捷键对比
    【转载】Eclipse 的快捷键以及文档注释、多行注释的快捷键
    Spring 事务配置的几种方式
    Linux下 执行程序
    转:C# 通过委托更新UI(异步加载)
    C#AutoResetEvent和ManualResetEvent的区别
    转 RMI、RPC、SOAP通信技术介绍及比对
    转泛型
  • 原文地址:https://www.cnblogs.com/whu-zeng/p/4974766.html
Copyright © 2011-2022 走看看