zoukankan      html  css  js  c++  java
  • Hadoop安装-Spark Windows 环境 pycharm开发环境搭建

    1、下载版本对应的spark和hadoop,如下:

      

    2、配置Spark

      解压Spark并配置环境变量,

      新建环境变量如下:

        

       在Path中增加如下环境变量:  

        

    3、配置hadoop相关变量,

        

        

    4、下载hadoop组件,并进行配置(winutils )

      下载地址:https://github.com/srccodes/hadoop-common-2.2.0-bin

      将下载好的组件解压放到hadoop_home的bin目录下,不进行文件替换

     5、验证是否安装成功,打开cmd执行pyspark,成功如下:

      

    6、配置pycharm,安装pycharm,此处不再详细描述

    7、为pycharm安装 pyspark组件,file—>settings—>Project Interpreter

      

      安装组件pyspark

    8、配置,环境,run—>Edit Configurations add Python,如下

        

      然后配置如下:

        SPARK_HOME :  D:hadoopspark-2.3.0-bin-hadoop2.7

        HADOOP_HOME : D:hadoophadoop-2.9.0

        PYTHONPATH : D:hadoopspark-2.3.0-bin-hadoop2.7pythonlibpy4j-0.10.6-src.zip

        

    9、然后就ok了

      

      

  • 相关阅读:
    SVN 使用学习记录
    jQuery 获取 URL信息
    JS扩展方法
    .Net 加密 哈希
    SQL Serverf 索引
    SQL Server索引
    SQL Server索引
    insert into select 多个表
    Mysql数据库自带四个数据库的解析
    转: MySQL5.7 ERROR 1142 (42000)问题
  • 原文地址:https://www.cnblogs.com/wind-man/p/8785380.html
Copyright © 2011-2022 走看看