zoukankan      html  css  js  c++  java
  • Ubuntu-spark安装

    基础操作命令

    rm jdk-7u7-linux-i586.tar.gz                                 #删除文件命令
    rm -rf 文件夹名                                                     #删除文件夹(包括所有子文件)
    mv jdk-7u7-linux-i586.tar.gz /usr/lib/java/             #文件移动
    tar –xvf jdk-7u7-linux-i586.tar.gz                        #解压
    mkdir /usr/lib/java                                                #创建目录
    cp -rf /conf/zoo_simple.cfg conf/zoo.cfg                 #拷贝文件移动

    1.VwmareTools 工具安装(使用Ubuntu 最大化工具,虚拟机和windows机器自由复制)
    1.1 菜单->虚拟机->重新安装VmwareTools工具

    1.1 或者 apt-get install open-vm-tools

    1.2 拷贝文件至桌面

    mv VMwareTools-10.0.0-29977863.tar.gz ~/Desktop

    这里的~线含义

    cd ~ 当前用户目录

    cd / 系统目录

    cd - 打印当前目录层级

    1.3 解压gz包

    tar –zxvf VMwareTools-10.0.0-29977863.tar.gz

    1.4 安装工具

    sudo su                            #安装文件需要root 用户

    vmware-install.pl                #安装VMwareTools工具

    shutdown -r now               #重启

    2.系统设置成默认登陆root 用户

    2.1 安装vim,gedit编辑工具。

    apt-get install vim

    apt-get install gedit

    2.2 编辑conf命令,使root用户可以自动登陆

    vim etc/lightdm/lightdm.conf                          #编辑conf文件

    [SeatDefaults]
    greeter-session=unity-greeter
    user-session=ubuntu
    greeter-show-manual-login=ture
    allow-guest=false

    autologin-user=root

    Esc:wq 保存并退出

    sudo passwd root     #设置登陆root用户的密码

    shutdown -r now      #重启

    重启完毕后可能会出现以下错误

    87A.tmp

    参照
    http://jingyan.baidu.com/article/d5c4b52be0807fda560dc586.html

    3. 安装JDK

    3.1 查看Ubuntu 操作系统是64位,还是32位

    sudo uname --m

    x86_64  64位操作系统

    i686      32位操作系统

    3.2 下载对应的jdk版本,创建/usr/lib/java目录,并且把jdk拷贝到此目录下,并且解压

    3.3 加入环境变量

    vim ~/.bashrc                       #编辑环境变量

    export JAVA_HOME=/usr/lib/java/jdk1.7.0_25
    export JRE_HOME=$JAVA_HOME/jre                    #tomcat需要
    export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
    export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

    Esq:wq 保存并且退出

    source ~/.bashrc                  #生效环境变量

    3.4 查看java版本

    java -version

    4.安装ssh,ssh的主要作用是远程登陆

    apt-get install ssh

    /etc/init.d/ssh start                                                    #ssh 启动

    ps -e |grep ssh                                                         #查看ssh 是否正常启动

    ssh-keygen -t rsa -p ""                                              #生成产品的公私钥

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys        #把公钥放入登录目录中

    ssh localhost                                                             #验证是否可以远程登陆

    5.安装hadoop(这里下载的是hadoop-2.7.2版本)

    5.1 下载对应的hadoop 版本,解压至/usr/local/hadoop目录下。

    5.2 hadoop-env.sh 文件进行配置,该文件在/usr/local/hadoop/hadoop-2.7.2/etc/hadoop

    export JAVA_HOME=/usr/lib/java/jdk1.7.0_25
    export HADOOP_PID_DIR=/usr/local/hadoop/tmp

    5.3 修改环境变量,追加Hadoop的工作路径

    vim ~/.bashrc

    export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

    注意:环境变量修改成下面的语句,追加hadoop的bin目录

    export PATH=$JAVA_HOME/bin:/usr/local/hadoop/hadoop-2.7.2/bin:/usr/local/hadoop/hadoop-2.7.2/sbin:$JRE_HOME/bin:$PATH

    5.4 查看hadoop 版本

    hadoop version

    5.5 hadoop 配置工作

    /usr/local/hadoop/hadoop-2.7.2/etc/hadoop/core-site.xml

    <configuration>
      <property>
        <name>fs.defalutFS</name>
        <value>hdfs://Master:8020</value>
      </property>
      <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
      </property>
    </configuration>

    /usr/local/hadoop/hadoop-2.7.2/etc/hadoop/hdfs-site.xml

    <configuration>
      <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>Master:9001</value>
      </property>
      <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/hadoop/dfs/name</value>
        <!--建议先手动建好该目录-->
      </property>
      <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/hadoop/dfs/data</value>
        <!--建议先手动建好该目录-->
      </property>
      <property>
        <name>dfs.replication</name>
        <value>3</value>
        <!--副本数目不能大于datanode数目-->
      </property>
      <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
      </property>
      <property>
        <name>dfs.permissions</name>
        <!--防止出现不允许远程读写hdfs-->
        <value>false</value>
      </property>
      <property>
        <name>dfs.heartbeat.interval</name>
        <!--namenode每三秒发一个心跳信号-->
        <value>3</value>
      </property>
      <property>
        <name>dfs.namenode.heartbeat.recheck-interval</name>
        <!--心跳机制recheck的间隔-->
        <value>35000</value>
      </property>
    </configuration>

    /usr/local/hadoop/hadoop-2.7.2/etc/hadoop/mapred-site.xml

    <configuration>
      <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
      </property>
      <property>
        <name>mapreduce.jobhistory.address</name>
        <value>Master:10020</value>
      </property>
      <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>Master:19888</value>
      </property>
    </configuration>

    /usr/local/hadoop/hadoop-2.7.2/etc/hadoop/yarn-site.xml

    <configuration>
      <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
      </property>
      <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
      </property>
      <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>Master:8030</value>
      </property>
      <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>Master:8031</value>
      </property>
      <property>
        <name>yarn.resourcemanager.address</name>
        <value>Master:8032</value>
      </property>
      <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>Master:8033</value>
      </property>
      <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>Master:8088</value>
      </property>
    </configuration>

    /usr/local/hadoop/hadoop-2.7.2/etc/hadoop/slaves

    slaver01
    slaver02

    gedit /etc/hosts

    127.0.0.1 Master
    192.168.39.135 slaver01
    192.168.39.136 slaver02

    gedit /etc/hostname

    Master

    hostname -F /etc/hostname   #把hostname绑定到 /etc/hostname上面

    执行hadoop 命令

    hadoop namenode –format

    http://master:50070

    http://master:50070

  • 相关阅读:
    第三章:使用listview控件展示数据
    第一章:初识Windows程序
    java MySQL数据库编程 第四章 高级查询(二)
    java MySQL数据库编程 第三章:高级查询(一)
    java MySQL数据库编程 第二章 :初识MySQL
    java MySQL数据库编程 第一章 数据库的设计
    波导缝隙天线
    微带天线读书计划(二)-Microstrip Antenna Design Handbook by Ramesh Garg etc.in 2001
    微带天线读书计划(三):MICROSTRIP AND PRINTED ANTENNAS by Debatosh Guha in 2011
    微带天线读书(一): Microstrip Antennas: The Analysis and Design of Microstrip Antennas and Arrays
  • 原文地址:https://www.cnblogs.com/kfsmqoo/p/7283307.html
Copyright © 2011-2022 走看看