zoukankan      html  css  js  c++  java
  • Spark小问题合集

    1)在win7下使用spark shell运行spark程序,通过以下形式读取文件时

    sc.sequenceFile[Int,String]("./sparkF")

    偶尔会出现“Input path does not exist”,原因是没有使用“file:///”表示文件时本地文件系统上的文件,相对路径形式如下:

    sc.sequenceFile[Int,String]("file:///.\sparkF")

    不过,还可以使用绝对路径,更保险些。

    2)在Ubuntu上读取文件,貌似三种都可以。参考0

    sc.sequenceFile[Int,String]("file:///home/hadoop/sparkF")
    
    sc.sequenceFile[Int,String]("file://home/hadoop/sparkF")
    
    
    sc.sequenceFile[Int,String]("file:/home/hadoop/sparkF")

    3)可以使用println()打印某些变量值,然后在Exector对应的stdout可以看到打印的内容

    4)有时候电脑IP没有固定的话,从教研室把电脑背回来,在IDEA上单机运行spark程序就失败了,提示如下:

    ERROR NettyTransport: failed to bind to host.home/192.168.1.124:5050

    “192.168.1.124”是在教研室的IP。出错的原因就是,创建sparkContext时,在“SparkEnv.scala”中,可以看到“spark.driver.host”对应值是:

    192.1681.1.124//正好是教研室地址,与当前地址不同,自然报错

    修改代码即可,原先代码如下:

     val conf2=new SparkConf().setAppName("matrixProduct").setMaster(args(0))

    修改后代码如下:

    val conf2=new SparkConf().setAppName("matrixProduct").setMaster(args(0)).set("spark.local.ip","127.0.0.1")
          .set("spark.driver.host","127.0.0.1")

     参考

    5)有时候运行spark作业会提示“WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient memory”,原因是申请的Exector内存比节点自身内存还要大。访问web界面中8080端口,看到每个节点的RAM是979MB,而提交作业时使用关键字 --executor-memory 1g,这样就超过了自身内存,所以报错参考

    6)使用IDEA调试spark程序时,在控制台窗口会打印出很多的“INFO,WARN”类信息,这些信息,我们并不需要,我们只需要打印出“ERROR”信息,解决方法如下:

    1.首先生成spark_Home/conf中的“log4j.properties“文件,方法如下: 

    Even simpler you just cd SPARK_HOME/conf 
    then mv log4j.properties.template log4j.properties then open log4j.properties and change all INFO to ERROR.
     Here SPARK_HOME is the root directory of your spark installation.

          其实生成了“log4j.properties”文件之后,当我们使用集群的方式运行spark程序时,就可以在控制台屏蔽掉那些”INFO“和”WARN“类的信息,但是如果是在IDEA本地调试spark程序时,”INFO“ ”WARN“类信息仍然会打印出来,解决方法参考以下方法

    2.在完成了上述步骤之后,为了保证在IDEA中调试spark程序时避免打印”INFO“、”WARN“类信息,需要在spark程序在添加如下代码:

    import org.apache.log4j.PropertyConfigurator
    
    PropertyConfigurator.configure("path to log4j.properties")
    
    sparkconf.set("log4j.configuration", "path to log4j.properties");

    参考:1  2

    7)Spark下SequenceFile文件分片数量的确定

    http://www.cnblogs.com/gaoze/p/5208970.html

    对于在spark中使用Sequence,其分片数量的计算方式与hadoop中相同,其实就是调用了hadoop中的实现来计算,计算goalSize,minSize,maxSize。如下图:

    8)sortBy和sortByKey函数

    http://www.iteblog.com/archives/1240

    9)遍历了一次 Iterable 之后,再次遍历的时候,数据都没了

    https://my.oschina.net/leejun2005/blog/131744

  • 相关阅读:
    asp.net 奇淫技巧
    生成缩略图不清晰
    NPOI相关
    Dapper
    Newtonsoft.Json高级用法(转载)
    swfobject2.2
    如何把SQLServer数据库从高版本降级到低版本? (转载)
    Smallpdf 轻松玩转PDF。我们爱它。
    Simple Data
    在HTML中优雅的生成PDF
  • 原文地址:https://www.cnblogs.com/lz3018/p/5433125.html
Copyright © 2011-2022 走看看