zoukankan      html  css  js  c++  java
  • Hadoop综合大作业

    1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

    (1)我下载了英文小说《追风筝的人》,改成story.txt,来进行操作

    首先,启动hadoop

    Hdfs上创建文件夹

    上传文件到HDFS

    启动hive

    在story数据库建表storydocs,

    导入文件内容到storydocs并查看

    select * from storydocs;

    用HQL进行词频统计,结果放在表storydocs_count里

     

    查看统计结果(截图为部分截图)

     2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

    1.将大数据产生的csv文件改名new.csv,存到虚拟机,然后上传到hdfs 并查看前十条数据

     2.启动hive,启动hive,建new数据库,建表格big_data,把wordcount.csv里的数据导进该表并查询前10条记录

     结论:数据能够进行正常的数据统计分析。

    问题:由于编码问题,导致上传到hdfs的csv文件是乱码,尚未找到解决办法

  • 相关阅读:
    变量定义方法
    动态编译
    函数
    过程
    触发器
    高级聚合函数rollup(),cube(),grouping sets()
    高级函数-decode
    高级函数-sign
    js 保留两位小数 javascript
    js 发红包
  • 原文地址:https://www.cnblogs.com/cktcom/p/9087827.html
Copyright © 2011-2022 走看看