zoukankan      html  css  js  c++  java
  • 关于spark与scala版本问题记录

    记录一下版本问题:

    spark与scala版本对应问题:

    1.官网会给出,如下,spark2.3.1默认需要scala2.11版本

    2.在maven依赖网中也可以看到,如下

    3.关于idea开发版本中也可以看到所需要依赖的scala版本

    通常在file->project structure->global libraries 右侧,点击加号将scala sdk加入后,最右侧有个下拉框,可以看到此idea支持的一些scala版本号

    如果通过加入的scala sdk版本超出idea所需要的scala版本会无法使用

    4.可以不通过上面的方式加入scala sdk,可以通过pom形式加入所需scala依赖项,也可以开发spark和scala程序

  • 相关阅读:
    函数
    字符串格式化
    集合
    习题02
    int/str/list/tuple/dict必会
    元组/字典
    列表方法
    练习题(format、expandtabs、片层)
    字符串方法
    JMM
  • 原文地址:https://www.cnblogs.com/little-horse/p/9665329.html
Copyright © 2011-2022 走看看