zoukankan      html  css  js  c++  java
  • spark 33G表

    http://192.168.2.51:4041

    http://hadoop1:8088/proxy/application_1512362707596_0006/executors/

    Executors

    from pyspark.sql import SparkSession

    my_spark = SparkSession
    .builder
    .appName("myAppYarn-10g")
    .master('yarn')
    .config("spark.mongodb.input.uri", "mongodb://pyspark_admin:admin123@192.168.2.50/recommendation.article")
    .config("spark.mongodb.output.uri", "mongodb://pyspark_admin:admin123@192.168.2.50/recommendation.article")
    .getOrCreate()

    db_rows = my_spark.read.format("com.mongodb.spark.sql.DefaultSource").load().collect()


    Summary

    Executors

  • 相关阅读:
    ARM9嵌入式学习日志--20170828
    技术积累
    做产品还是做技术?
    python学习之一
    他山之石——面试非技术问题整理(持续更新中)
    他山之石——面试技术问题整理(持续更新中)
    .bss .text和.data简介
    linux学习——大话linux网络
    实用的技术网站
    linux学习——centos minimal安装vim
  • 原文地址:https://www.cnblogs.com/rsapaper/p/7976610.html
Copyright © 2011-2022 走看看