zoukankan      html  css  js  c++  java
  • spark生态体系了解学习(三)

      今天往虚拟机上安装了Scala和spark,下面说一下安装的一些过程和遇到的一些问题。

      首先,根据网上的Hadoop3.2+Scala2.12.1+Spark2.3.3环境搭建教程:https://www.jianshu.com/p/82ad3e15545a

    了解基本安装流程,由于之前已经安装好了virtualbox虚拟机,Linux操作系统,并且配置好了Java运行环境,安装好了Hadoop运行环境,所以

    我直接从安装Scala开始:

      安装Scala的过程根据教程来挺顺利,并没有遇到什么错误——下载-解压-重命名-添加环境变量-source-检测是否安装成功。

    整个过程一气呵成。

      安装spark的过程就没有那么顺利了,按着流程来,首先下载解压没问题,然后添加环境变量依旧没问题,

    再然后重点来了,添加配置文件的时候原话是这样“cong下创建配置文件spark-env.sh 配置hadoop+jdk”,根据我的理解是cong应该是conf,

    然后那个配置文件spark-env.sh是/usr/local/spark/conf里面的一个配置文件,我的./conf里面的每隔文件都有一个.template后缀,我搜了一下

    看了这个文章https://blog.csdn.net/weixin_42186022/article/details/84942998,然后解决了这个问题。

  • 相关阅读:
    MySQL 安装
    MySQL简介
    图解十大经典的机器学习算法
    基于Python预测股价
    10_通过httprequest获取跟请求相关的信息
    07_参数提交时action的写法
    08_ServletConfig介绍
    05_servlet生命周期介绍
    06_url_pattern三种写法
    03_servletHello完成
  • 原文地址:https://www.cnblogs.com/zhangzhongkun/p/12249495.html
Copyright © 2011-2022 走看看