zoukankan      html  css  js  c++  java
  • Windows7下安装pyspark

    安装需要如下东西:

    java

    jdk-8u181-windows-x64.exe

    spark

    spark-2.1.3-bin-hadoop2.7

    hadoop(版本要与spark的一致,这里都是hadoop2.7)

    hadoop-2.7.7

    Anaconda(这个是为了预防python出现api-ms-win-crt-runtime-l1-1-0.dll错误,且安装了vc_redist.2015.exe还无法解决时需要安装)

    Anaconda3-2.4.1-Windows-x86_64.exe

    python

    python-3.5.4-amd64.exe

    pycharm

    pycharm-community-2016.1.4.exe

    安装JDK

    千万不要用默认路径Program Files,这个有空格后面会很坑!新建路径在C:Java,Java安装在这里!

    1. 新建环境变量名:JAVA_HOME,变量值:C:Javajdk1.8.0_11
    2. 打开PATH,添加变量值:%JAVA_HOME%in;%JAVA_HOME%jrein
    3. 新建环境变量名:CLASSPATH,变量值:.;%JAVA_HOME%libdt.jar;%JAVA_HOME%lib ools.jar

    cmd 中输入 java 出现如下信息就算安装成功了

    安装spark

    在C盘新建Spark目录,将其解压到这个路径下

    1. 新建环境变量名:SPARK_HOME,变量值:C:Spark
    2. 打开PATH,添加变量值:%SPARK_HOME%in

    安装hadoop

    在C盘新建Hadoop目录,将其解压到这个路径下

    1. 新建环境变量名:HADOOP_HOME,变量值:C:Hadoop
    2. 打开PATH,添加变量值:%HADOOP_HOME%in

    去网站下载Hadoop在Windows下的支持winutils

    https://github.com/steveloughran/winutils

    根据版本来选择,这里用的是 hadoop2.7,所以选择2.7bin下载下来,将其覆盖到 C:Hadoopin

    修改C:Hadoopetchadoop下的hadoop-env.cmd为set JAVA_HOME=C:Javajdk1.8.0_11

    cmd 中输入 hadoop 出现如下信息就算安装成功了

    安装python

    安装路径为 C:Python35

    在C盘或者代码盘新建 mphive路径,输入命令

    winutils.exe chmod -R 777 C:	mphive
    

    验证pyspark

    cmd输入pyspark得到如下画面

    配置pycharm

    在如下路径添加环境变量

    1. JAVA_HOME
    2. SPARK_HOME
    3. HADOOP_HOME
    Run->Edit Configurations->Environment variables
    

  • 相关阅读:
    使用JS对字符串进行MD5加密
    awk 控制语句if-else
    nginx日志切割
    Nginx日志监控工具
    运维小工具
    shell脚本2
    nginx优化方案
    centos7修复grub2
    Centos7的引导顺序
    如何同时运行两个tomcat?
  • 原文地址:https://www.cnblogs.com/TTyb/p/9717499.html
Copyright © 2011-2022 走看看