zoukankan      html  css  js  c++  java
  • 2

    二、编写MapReduce程序清洗信件内容数据

     

    数据清洗概述

    数据清洗是对数据进行重新审查和校验的过程,目的在于删除重复信息、纠正存在的错误,并提供数据一致性。

    数据清洗从名字上也看的出就是把洗掉,指发现并纠正数据文件中可识别的错误的最后一道程序,包括检查数据一致性,处理无效值和缺失值等。因为数据仓库中的数据是面向某一主题的数据的集合,这些数据从多个业务系统中抽取而来而且包含历史数据,这样就避免不了有的数据是错误数据、有的数据相互之间有冲突,这些错误的或有冲突的数据显然是我们不想要的,称为脏数据。我们要按照一定的规则把脏数据”“洗掉,这就是数据清洗。而数据清洗的任务是过滤那些不符合要求的数据,将过滤的结果交给业务主管部门,确认是否过滤掉还是由业务单位修正之后再进行抽取。不符合要求的数据主要是有不完整的数据、错误的数据、重复的数据三大类。数据清洗是与问卷审核不同,录入后的数据清洗一般是由计算机而不是人工完成。

     

    分析需求

    通过爬虫,我们可以得到咨询和投诉的详细页面。

     

    页面内容如下,需要提取出对我们有用的信息

     

    当然,判断字段是否对我们有用,判断依据是根据需求来定的。后续做的一些需求,会用到哪些字段,此处就会采集哪些字段。

    这一节我们会使用MapReduce,对这些网页进行清洗,获取网页中的问题类型,标题,来信人,时间,网友评论数,信息内容,官方回答的机构,时间和回答的内容。

    搭建解析框架

    1.切换目录到/data/目录下,创建名为edu2的目录

    1. cd /data/  
    2. mkdir /data/edu2  

    2.切换目录到/data/edu2目录下,使用wget命令,下载项目所依赖的lib

    1. cd /data/edu2  

    pachongjar.zip压缩包,解压缩。

    1. unzip  

    3.打开eclipse,新建Java Project

     

    将项目命名为qingxi2

     

    4.右键项目名,新建一个目录,命名为libs用于存储项目依赖的jar

     

    /data/edu2/pachongjar目录下,所有的jar包,拷贝到项目下的libs目录下。

    选中libs下,所有的jar文件,依次点击“Build Path” => "Add to Build Path"

     

    5.右键src,点击 "New" => "Package",新建一个包

     

    将包命名为my.mr

     

    右键包名,依次点击“New” => “Class”

     

    填写类名,本实验需要创建三个类,分别命名为FileInputFileRecordReaderQingxiHtml

    这样清洗过程的框架搭建完毕,下面开始编写代码实现功能。

     

    编写MapReduce代码

    1.执行jps,查看hadoop相关进程是否已经启动。

    1. jps  

    若未启动,则需启动hadoop

    1. cd /apps/hadoop/sbin  
    2. ./start-all.sh  

    2.切换目录到/data/edu2目录下,使用wget命令,下载爬取到的北京市政府百姓信件内容。

    1. cd /data/edu2  
    2. wget http://192.168.1.100:60000/allfiles/second/edu2/govhtml.tar.gz  

    govhtml.tar.gz解压缩

    1. tar xzvf govhtml.tar.gz  

    hdfs上创建目录,名为/myedu2,并将/data/edu2/govhtml下的数据,上传到hdfs中。

    1. hadoop fs -mkdir -p /myedu2/in  
    2. hadoop fs -put /data/edu2/govhtml/* /myedu2/in  

    *此处也可以将自己爬取到的电商评论数据,上传到hdfs上。

    3.1) 打开FileRecordReader页面,编写代码,完成对网页源码的读取,主要目的是将一个网页的全部代码转成一行让mapreduce读取分析,这样mapreduce就可以把一个网页的分析结果作为一行输出,即每个网页抓取的字段为一行。

    1. package my.mr;  
    2. import java.io.BufferedReader;  
    3. import java.io.InputStreamReader;  
    4. import java.io.IOException;  
    5. import org.apache.hadoop.fs.FSDataInputStream;  
    6. import org.apache.hadoop.fs.FileSystem;  
    7. import org.apache.hadoop.fs.Path;  
    8. import org.apache.hadoop.io.Text;  
    9. import org.apache.hadoop.mapreduce.InputSplit;  
    10. import org.apache.hadoop.mapreduce.JobContext;  
    11. import org.apache.hadoop.mapreduce.RecordReader;  
    12. import org.apache.hadoop.mapreduce.TaskAttemptContext;  
    13. import org.apache.hadoop.mapreduce.lib.input.FileSplit;  
    14. public class FileRecordReader extends RecordReader<text,text>{  
    15. private FileSplit fileSplit;  
    16. private JobContext jobContext;  
    17. private Text currentKey = new Text();  
    18. private Text currentValue = new Text();  
    19. private boolean finishConverting = false;  
    20. @Override  
    21. public void close() throws IOException {  
    22. @Override  
    23. public Text getCurrentKey() throws IOException, InterruptedException {  
    24. return currentKey;  
    25. }  
    26. @Override  
    27. public Text getCurrentValue() throws IOException,  
    28. InterruptedException {  
    29. return currentValue;  
    30. }  
    31. @Override  
    32. public float getProgress() throws IOException, InterruptedException {  
    33. float progress = 0;  
    34. if(finishConverting){  
    35. progress = 1;  
    36. }  
    37. return progress;  
    38. }  
    39. @Override  
    40. public void initialize(InputSplit arg0, TaskAttemptContext arg1)  
    41. throws IOException, InterruptedException {  
    42. this.fileSplit = (FileSplit) arg0;  
    43. this.jobContext = arg1;  
    44. String filename = fileSplit.getPath().getName();  
    45. this.currentKey = new Text(filename);  
    46. }  
    47. @Override  
    48. public boolean nextKeyValue() throws IOException, InterruptedException {  
    49. if(!finishConverting){  
    50. int len = (int)fileSplit.getLength();  
    51. //          byte[] content = new byte[len];  
    52. Path file = fileSplit.getPath();  
    53. FileSystem fs = file.getFileSystem(jobContext.getConfiguration());  
    54. FSDataInputStream in = fs.open(file);  
    55. //根据实际网页的编码格式修改  
    56. //         BufferedReader br = new BufferedReader(new InputStreamReader(in,"gbk"));  
    57. BufferedReader br = new BufferedReader(new InputStreamReader(in,"utf-8"));  
    58. String line="";  
    59. String total="";  
    60. while((line= br.readLine())!= null){  
    61. total =total+line+" ";  
    62. }  
    63. br.close();  
    64. in.close();  
    65. fs.close();  
    66. currentValue = new Text(total);  
    67. finishConverting = true;  
    68. return true;  
    69. }  
    70. return false;  
    71. }  
    72. }  
    73. </text,text>  

    2)打开FileInput ,编写代码,用以调用FileRecordReader 中重写的方法。

    1. package my.mr;  
    2. import java.io.IOException;  
    3. import org.apache.hadoop.io.Text;  
    4. import org.apache.hadoop.mapreduce.InputSplit;  
    5. import org.apache.hadoop.mapreduce.RecordReader;  
    6. import org.apache.hadoop.mapreduce.TaskAttemptContext;  
    7. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
    8. public class FileInput extends FileInputFormat<Text,Text>{  
    9. @Override  
    10. public RecordReader<Text, Text> createRecordReader(InputSplit arg0, TaskAttemptContext arg1) throws IOException,  
    11. InterruptedException {  
    12. // TODO Auto-generated method stub  
    13. RecordReader<Text,Text> recordReader = new FileRecordReader();  
    14. return recordReader;  
    15. }  
    16. }  

    3)打开QingxiHtml编写代码,代码所实现的需求,是使用MapReduce解析网页,最终输出格式化的文本文件。

    首先来看MapReduce通用的框架结构样式。

    1. public class QingxiHtml {  
    2. public static void main(String[] args) throws IOException,  
    3. ClassNotFoundException, InterruptedException {  
    4. }  
    5. public static class doMapper extends Mapper<Object, Text, Text, Text> {  
    6. @Override  
    7. protected void map(Object key, Text value, Context context)  
    8. throws IOException, InterruptedException {  
    9. }  
    10. }  
    11. public static class doReducer extends Reducer<Text, Text, Text, Text>{  
    12. @Override  
    13. protected void reduce(Text key, Iterable<Text> values, Context context)  
    14. throws IOException, InterruptedException {  
    15. }  
    16. }  
    17. }  

    通过分析可以知道,此处只用Map任务即可实现具体功能,所以可以省去Reduce任务。

    4.Main主函数。这里的main函数也是通用的结构

    view plain copy

    1. public static void main(String[] args) throws IOException,  
    2. ClassNotFoundException, InterruptedException {  
    3. Job job = Job.getInstance();  
    4. job.setJobName("QingxiHtml");  
    5. job.setJarByClass(QingxiHtml.class);  
    6. job.setMapperClass(doMapper.class);  
    7. job.setOutputKeyClass(Text.class);  
    8. job.setOutputValueClass(Text.class);  
    9. job.setInputFormatClass(FileInput.class);  
    10. Path in = new Path("hdfs://localhost:9000//myedu2/in");  
    11. Path out = new Path("hdfs://localhost:9000//myedu2/out/1");  
    12. FileInputFormat.addInputPath(job, in);  
    13. FileOutputFormat.setOutputPath(job, out);  
    14. System.exit(job.waitForCompletion(true) ? 0 : 1);  
    15. }  

    定义Job

    设置Job参数

    设置Map任务

    设置Reduce任务

    定义任务的输出类型

    设置任务的输入输出目录

    提交执行

    5.再来看Map任务,实现Map任务,必须继承org.apache.hadoop.mapreduce.Mapper类,并重写类里的map方法。

    通过调用编写FileInput.class文件,将每个网页源码转化为一行字段输入。通过map任务,取得每行字段,并通过JXDocument 类,对网页源码进行解析,获取网页中的字段。

    将相关字段以‘ ’分隔连接成一行,最终使用context.write类,输出到htfs上。

    1. @Override  
    2. protected void map(Object key, Text value, Context context)  
    3. throws IOException, InterruptedException {  
    4. String htmlStr = value.toString();  
    5. JXDocument Document = new JXDocument(htmlStr);  
    6. if (htmlStr.indexOf("mail_track_h2") > 0) {  
    7. try {  
    8. //类型  
    9. String leixing = Document  
    10. .sel("//span[@class='font12 gray']/a[2]/text()")  
    11. .get(0).toString();  
    12. //标题  
    13. String biaoti = Document  
    14. .sel("//h2[@class='mail_track_h2']/text()").get(0)  
    15. .toString();  
    16. //来信人  
    17. String leixinren = Document  
    18. .sel("//p[@class='font12 gray time_mail']/span[1]/text()")  
    19. .get(0).toString().replaceAll("来信人:", "");  
    20. //时间  
    21. String shijian = Document  
    22. .sel("//p[@class='font12 gray time_mail']/span[2]/text()")  
    23. .get(0).toString().replaceAll("时间:", "");  
    24. //网友同问的数量或者网友评价的数量  
    25. String number = Document  
    26. .sel("//p[@class='font12 gray time_mail']/span[3]/allText()")  
    27. .get(0).toString().replace("网友同问: ", "").replace("网友评价数: ", "");  
    28. //信件内容  
    29. String problem = Document  
    30. .sel("//span[@class='font14 mail_problem']/text()")  
    31. .get(0).toString();  
    32. if (htmlStr.indexOf("margin-bottom:31px") > 0) {  
    33. //回答部门  
    34. String offic = Document  
    35. .sel("//div[@class='con_left float_left']/div[2]/span[1]/text()")  
    36. .get(0).toString();  
    37. //回答时间  
    38. String officpt = Document  
    39. .sel("//div[@class='con_left float_left']/div[2]/span[2]/text()")  
    40. .get(0).toString();  
    41. //回答内容  
    42. String officp = Document  
    43. .sel("//div[@class='con_left float_left']/div[2]/p[1]/text()")  
    44. .get(0).toString();  
    45. String dataout = leixing + " " + biaoti + " "  
    46. + leixinren + " " + shijian + " " + number  
    47. + " " + problem + " " + offic + " "  
    48. + officpt + " "+ officp;  
    49. System.out.println(dataout);  
    50. Text oneLines = new Text(dataout);  
    51. context.write(oneLines, new Text(""));  
    52. else {  
    53. String dataout = leixing + " " + biaoti + " "  
    54. + leixinren + " " + shijian + " " + number  
    55. + " " + problem;  
    56. System.out.println(dataout);  
    57. Text oneLines = new Text(dataout);  
    58. context.write(oneLines, new Text(""));  
    59. }  
    60. catch (XpathSyntaxErrorException e) {  
    61. // TODO Auto-generated catch block  
    62. e.printStackTrace();  
    63. }  
    64. }  
    65. }  

    完整代码如下

    1. package my.mr;  
    2. import java.io.IOException;  
    3. import org.apache.hadoop.fs.Path;  
    4. import org.apache.hadoop.io.IntWritable;  
    5. import org.apache.hadoop.io.Text;  
    6. import org.apache.hadoop.mapreduce.Job;  
    7. import org.apache.hadoop.mapreduce.Mapper;  
    8. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
    9. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
    10. import cn.wanghaomiao.xpath.exception.XpathSyntaxErrorException;  
    11. import cn.wanghaomiao.xpath.model.JXDocument;  
    12. public class QingxiHtml {  
    13. public static class doMapper extends Mapper<object, text,="" text=""> {  
    14. public static final IntWritable one = new IntWritable(1);  
    15. public static Text word = new Text();  
    16. @Override  
    17. protected void map(Object key, Text value, Context context)  
    18. throws IOException, InterruptedException {  
    19. String htmlStr = value.toString();  
    20. JXDocument Document = new JXDocument(htmlStr);  
    21. if (htmlStr.indexOf("mail_track_h2") > 0) {  
    22. try {  
    23. String leixing = Document  
    24. .sel("//span[@class='font12 gray']/a[2]/text()")  
    25. .get(0).toString();  
    26. String biaoti = Document  
    27. .sel("//h2[@class='mail_track_h2']/text()").get(0)  
    28. .toString();  
    29. String leixinren = Document  
    30. .sel("//p[@class='font12 gray time_mail']/span[1]/text()")  
    31. .get(0).toString().replaceAll("来信人:", "");  
    32. String shijian = Document  
    33. .sel("//p[@class='font12 gray time_mail']/span[2]/text()")  
    34. .get(0).toString().replaceAll("时间:", "");  
    35. String number = Document  
    36. .sel("//p[@class='font12 gray time_mail']/span[3]/allText()")  
    37. .get(0).toString().replace("网友同问: ", "").replace("网友评价数: ", "");  
    38. String problem = Document  
    39. .sel("//span[@class='font14 mail_problem']/text()")  
    40. .get(0).toString();  
    41. if (htmlStr.indexOf("margin-bottom:31px") > 0) {  
    42. String offic = Document  
    43. .sel("//div[@class='con_left float_left']/div[2]/span[1]/text()")  
    44. .get(0).toString();  
    45. String officpt = Document  
    46. .sel("//div[@class='con_left float_left']/div[2]/span[2]/text()")  
    47. .get(0).toString();  
    48. String officp = Document  
    49. .sel("//div[@class='con_left float_left']/div[2]/p[1]/text()")  
    50. .get(0).toString();  
    51. String dataout = leixing + " " + biaoti + " "  
    52. + leixinren + " " + shijian + " " + number  
    53. + " " + problem + " " + offic + " "  
    54. + officpt + " "+ officp;  
    55. System.out.println(dataout);  
    56. Text oneLines = new Text(dataout);  
    57. context.write(oneLines, new Text(""));  
    58. else {  
    59. String dataout = leixing + " " + biaoti + " "  
    60. + leixinren + " " + shijian + " " + number  
    61. + " " + problem;  
    62. System.out.println(dataout);  
    63. Text oneLines = new Text(dataout);  
    64. context.write(oneLines, new Text(""));  
    65. }  
    66. catch (XpathSyntaxErrorException e) {  
    67. // TODO Auto-generated catch block  
    68. e.printStackTrace();  
    69. }  
    70. }  
    71. }  
    72. }  
    73. public static void main(String[] args) throws IOException,  
    74. ClassNotFoundException, InterruptedException {  
    75. Job job = Job.getInstance();  
    76. job.setJobName("QingxiHtml");  
    77. job.setJarByClass(QingxiHtml.class);  
    78. job.setMapperClass(doMapper.class);  
    79. job.setOutputKeyClass(Text.class);  
    80. job.setOutputValueClass(Text.class);  
    81. job.setInputFormatClass(FileInput.class);  
    82. Path in = new Path("hdfs://localhost:9000//myedu2/in");  
    83. Path out = new Path("hdfs://localhost:9000//myedu2/out/1");  
    84. FileInputFormat.addInputPath(job, in);  
    85. FileOutputFormat.setOutputPath(job, out);  
    86. System.exit(job.waitForCompletion(true) ? 0 : 1);  
    87. }  
    88. }  
    89. </object,>  

    执行测试

    1.mapreduce类中,右键,Run As => Run on Hadoop,将任务提交到hadoop中执行

     

    2.等待任务执行完毕。切换目录到/data/edu2/下,并在命令行界面,输入脚本,查看hdfs/myedu2/out是否有内容输出

    1. cd /data/edu2/  
    2. hadoop fs -lsr /myedu2/out  

    若有输出,则将hdfs输出内容,下载到linux本地

    1. hadoop fs -get /myedu2/out/1/*  

     

    使用vimcat查看下载到的文件内容,可以看到结构比较清晰

     

    3,若未在hdfs上,查看到输出结果,可以通过log日志排错。将/apps/hadoop/etc/hadoop/log4j.properties文件,拷贝到mapreduce项目的根目录下

     

    可以看到在eclipseconsole界面有执行过程的输出。

  • 相关阅读:
    Linux进程管理及while循环(转)
    AT5661-[AGC040C]Neither AB nor BA【模型转换】
    CF573D-Bear and Cavalry【动态dp】
    关于专人整理和分析需求
    Codeforces 1005D Polycarp and Div 3
    [Luogu]P5513 [CEOI2013]Board
    IDEA Mybatis 中文数据添加到MySQL,显示乱码
    如何比较两个word文档的差异
    抗体计算设计
    抗体
  • 原文地址:https://www.cnblogs.com/gkl20173667/p/12297418.html
Copyright © 2011-2022 走看看