zoukankan      html  css  js  c++  java
  • 寒假自学进度2

    我今天参考网上的教程对spark进行了安装:

    在spark官网上下载spark   地址:

    http://mirrors.hust.edu.cn/apache/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz

    安装spark

    命令如下:

    sudo tar -zxf ~/spark-2.0.0/spark-2.0.0-bin-without-hadoop.tgz -C /usr/local/
    cd /usr/local
    sudo mv ./spark-1.6.0-bin-without-hadoop/ ./spark
    sudo chown -R hadoop:hadoop ./spark          # 此处的 hadoop为用户名

    c.配置spark 
    安装后,需要在 ./conf/spark-env.sh 中修改 Spark 的 Classpath,执行如下命令拷贝一个配置文件:

    cd /usr/local/spark
    cp ./conf/spark-env.sh.template ./conf/spark-env.sh

    编辑 ./conf/spark-env.sh(vim ./conf/spark-env.sh) ,在最后面加上如下一行:

    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

    spark简单应用:

    执行如下命令:

    cd /usr/local/spark
    ./bin/run-example SparkPi

    执行时会输出非常多的运行信息,输出结果不容易找到,可以通过 grep 命令进行过滤(命令中的 2>&1 可以将所有的信息都输出到 stdout 中,否则由于输出日志的性质,还是会输出到屏幕中):

    cd /usr/local/spark
    ./bin/run-example SparkPi 2>&1 | grep "Pi is roughly"
     
  • 相关阅读:
    Windows Internals 笔记——作业
    Windows Internals 笔记——终止进程
    数据结构与算法-java-数组实现队列和栈
    数据结构与算法-java-稀疏数组
    学习笔记-java两种核心机制-JVM和GC
    python-Django-学习笔记
    python爬虫-大二时候的学习笔记
    KMP算法
    Docker
    排序与查找
  • 原文地址:https://www.cnblogs.com/1502762920-com/p/12250184.html
Copyright © 2011-2022 走看看