zoukankan      html  css  js  c++  java
  • spark 33G表

    http://192.168.2.51:4041

    http://hadoop1:8088/proxy/application_1512362707596_0006/executors/

    Executors

    from pyspark.sql import SparkSession

    my_spark = SparkSession
    .builder
    .appName("myAppYarn-10g")
    .master('yarn')
    .config("spark.mongodb.input.uri", "mongodb://pyspark_admin:admin123@192.168.2.50/recommendation.article")
    .config("spark.mongodb.output.uri", "mongodb://pyspark_admin:admin123@192.168.2.50/recommendation.article")
    .getOrCreate()

    db_rows = my_spark.read.format("com.mongodb.spark.sql.DefaultSource").load().collect()


    Summary

    Executors

  • 相关阅读:
    NEO从入门到开窗(4)
    NEO从入门到开窗(3)
    NEO从入门到开窗(2)
    NEO从入门到开窗(1)
    重读大型网站技术架构
    c#并行编程
    关于使用CPU缓存的一个小栗子
    Visual Studio中从应用程序中调试SQL脚本
    JavaScript启示录
    LabVIEW工控二进制数据存储
  • 原文地址:https://www.cnblogs.com/rsapaper/p/7976610.html
Copyright © 2011-2022 走看看