zoukankan      html  css  js  c++  java
  • 理解MapReduce

    1. 用Python编写WordCount程序并提交任务

    程序

    WordCount

    输入

    一个包含大量单词的文本文件

    输出

    文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔

    1. 编写map函数,reduce函数
      复制代码
       # map函数
      import sys
      for i in stdin:
           i = i.strip()
           words = i.split()
           for word in words:
               print '%s	%s' % (word,1)
      复制代码
      复制代码
      #reduce函数
      from operator import itemgetter
      import sys
       
      current_word = None
      current_count = 0
      word = None
       
      for line in sys.stdin:
          line = line.strip()
          word, count = line.split('	', 1)
          try:
              count = int(count)
          except ValueError: 
              continue
          if current_word == word:
              current_count += count
          else:
              if current_word:
                  print "%s	%s" % (current_word, current_count)
              current_count = count
              current_word = word
       
      if word == current_word: 
          print "%s	%s" % (current_word, current_count)
      复制代码
    2. 将其权限作出相应修改
      chmod a+x /home/hadoop/mapper.py
      chmod a+x /home/hadoop/wc/reducer.py
    3. 本机上测试运行代码
      echo "foo foo quux labs foo bar quux" | /home/hadoop/wc/mapper.py
      echo "foo foo quux labs foo bar quux" | /home/hadoop/wc/mapper.py | sort -k1,1 | /home/hadoop/wc/reducer.p

      1. 放到HDFS上运行
        1. 将之前爬取的文本文件上传到hdfs上
        2. 用Hadoop Streaming命令提交任务
      2. 查看运行结果

       

      2. 用mapreduce 处理气象数据集

      编写程序求每日最高最低气温,区间最高最低气温

      1. 气象数据集下载地址为:ftp://ftp.ncdc.noaa.gov/pub/data/noaa
      2. 按学号后三位下载不同年份月份的数据(例如201506110136号同学,就下载2013年以6开头的数据,看具体数据情况稍有变通)
        1. 解压数据集,并保存在文本文件中

           

        2. 对气象数据格式进行解析
        3. 编写map函数,reduce函数

          1. 将其权限作出相应修改
            chmod a+x /home/hadoop/mapper.py
            chmod a+x /home/hadoop/wc/reducer.py
          2. 本机上测试运行代码
          3. 放到HDFS上运行
            1. 将之前爬取的文本文件上传到hdfs上

               

            2. 用Hadoop Streaming命令提交任务
          4. 查看运行结果

  • 相关阅读:
    【转】HTML CANVAS
    【转】JY 博客
    【转发】如何使用NPM?CNPM又是什么?
    【转廖大神】package.json 包安装
    【转】Socket接收字节缓冲区
    C# 串口操作系列(5)--通讯库雏形
    C# 串口操作系列(3) -- 协议篇,二进制协议数据解析
    C# 串口操作系列(4) -- 协议篇,文本协议数据解析
    .netCore微服务使用Nginx集中式管理实现
    nginx代理访问及上传文件异常413 Request Entity Too Large
  • 原文地址:https://www.cnblogs.com/dean666/p/9021808.html
Copyright © 2011-2022 走看看