zoukankan      html  css  js  c++  java
  • Centos下基于Hadoop安装Spark(分布式)

    前提

    Hadoop可成功在分布式系统下启动

     

    下载scala  链接是https://downloads.lightbend.com/scala/2.12.7/scala-2.12.7.tgz

    Master和其他子主机下

    wget https://downloads.lightbend.com/scala/2.12.7/scala-2.12.7.tgz

    解压

    tar -zxvf scala-2.12.7.tgz

    将解压后的文件复制到自己的文件路径

    cp -r ./scala-2.12.7 /usr/scala

    配置环境变量

    vim /etc/profile

    添加

    export SCALA_HOME=/usr/scala
    export PATH=$PATH:$SCALA_HOME/bin

    执行

    . /etc/profile

    使之生效,后测试

    scala -version
    [root@xinglichao sbin]# scala -version
    Scala code runner version 2.12.7 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.

    表示成功

    下载Spark  链接是http://mirrors.shu.edu.cn/apache/spark/spark-2.3.2/spark-2.3.2-bin-hadoop2.7.tgz(还有很多镜像可供使用)

    在Master主机上使用wget下载

    wget http://mirrors.shu.edu.cn/apache/spark/spark-2.3.2/spark-2.3.2-bin-hadoop2.7.tgz

    同scala一样,要执行解压,复制到指定文件夹

    tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz
    cp ./spark-2.3.2-bin-hadoop2.7/* /usr/spark/

     进入/usr/spark/conf

    配置spark-env.sh和slaves

    cp spark-env.sh.template spark-env.sh
    cp slaves.template slaves
    vim spark-env.sh

    添加配置

    #java路径
    export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-3.b13.el7_5.x86_64/jre #scala路径
    export SCALA_HOME=/usr/scala
    #hadoop路径 export HADOOP_HOME=/usr/hadoop/hadoop-
    2.7.5 #指向包含Hadoop集群的(客户端)配置文件的目录,运行在Yarn上配置此项 export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.7.5/etc/hadoop #指定默认master的ip或主机名 export SPARK_MASTER_HOST=xinglichao #指定maaster提交任务的默认端口为7077 export SPARK_MASTER_PORT=7077 #指定masster节点的webui端口 export SPARK_MASTER_WEBUI_PORT=8080 #每个worker从节点的端口(可选配置) export SPARK_WORKER_PORT=7078 #每个worker从节点的wwebui端口(可选配置) export SPARK_WORKER_WEBUI_PORT=8081 #每个worker从节点能够支配的内存数 export SPARK_WORKER_MEMORY=1g #允许Spark应用程序在计算机上使用的核心总数(默认值:所有可用核心) export SPARK_WORKER_CORES=1 #每个worker从节点的实例(可选配置) export SPARK_WORKER_INSTANCES=1
    vim slaves
    子主机的主机名或者ip

    将spark分发到子节点主机

    scp /usr/spark/* root@192.168.0.102:/usr/spark/

    在Master上启动spark

    [root@xinglichao sbin]# pwd
    /usr/spark/sbin
    [root@xinglichao sbin]# ./start-all.sh 
    starting org.apache.spark.deploy.master.Master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-xinglichao.out
    zhangpeng: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-zhangpeng.out
    [root@xinglichao sbin]# 

    jps查看进程


    本节完......

  • 相关阅读:
    Spring 梳理-启用MVC
    Spring 梳理-MVC-配置DispatcherServet和ContextLoaderListener
    Spring 梳理-MVC-前端控制器DispatchServlet及URL请求处理过程
    Spring 梳理-AOP
    Spring 梳理-运行时动态注入bean
    Spring 梳理-bean作用域
    Spring 梳理-profile与条件化定义bean
    Spring 梳理-bean配置与装配
    Spring 梳理-容器(container)
    iframe
  • 原文地址:https://www.cnblogs.com/xinglichao/p/9838997.html
Copyright © 2011-2022 走看看