zoukankan      html  css  js  c++  java
  • Hadoop综合大作业

    作业来源于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3363

    本次作业是在期中大作业的基础上利用hadoop和hive技术进行大数据分析

    1.将爬虫大作业产生的csv文件上传到HDFS

    2.对CSV文件进行预处理生成无标题文本文件

    预处理:

     使用awk脚本(com_pre_deal.sh)稍作处理,分隔开每一列

    启动hdfs

    在hdfs上建立/bigdatacase/dataset文件夹

    把user_comment.txt上传到HDFS中,并查看前5条记录

     

    3.把hdfs中的文本文件最终导入到数据仓库Hive中

    4.在Hive中查看并分析数据

    使用netstat -tunlp 查看端口 :3306 LISION确定已经启动了MySql数据库(否则使用$service mysql start启动)

    启动Hive,并创建一个数据库dblab

    创建外部表,把HDFS中的“/bigdatacase/dataset”目录下的数据(注意要删除之前练习时的数据user_table.txt,只剩下目标数据,否则会把数据叠加在一起!)加载到了数据仓库Hive中

    在Hive中查看数据

    5.用Hive对爬虫大作业产生的进行数据分析,写一篇博客描述你的分析过程和分析结果。(8条以上的查询分析)

    ①查询统计总数据量

     

    评分在超过9的有130部电影,证明高分电影占有比较低

  • 相关阅读:
    fenby C语言P21
    fenby C语言 P20
    fenby C语言 P19
    fenby C语言 P18
    fenby C语言 P17
    fenby C语言 P16
    fenby C语言 P15
    fenby C语言 P14
    Python学习之路:subprocess模块和面向对象
    Python学习之路:XML模块
  • 原文地址:https://www.cnblogs.com/binguo666/p/11061025.html
Copyright © 2011-2022 走看看