zoukankan      html  css  js  c++  java
  • 大文件的排序和去重 超级简单的实现

    有一道校招生的面试题,是要给一个很大的文件(不能全部放内存,比如1T)按行来排序和去重。

    一种简单解决方案就是分而治之,先打大文件分词大小均匀的若干个小文件,然后对小文件排好序,最后再Merge所有的小文件,在Merge的过程中去掉重复的内容。

    在Linux下实现这个逻辑甚至不用自己写代码,只要用shell内置的一些命令: split, sort就足够了。我们把这个流程用脚本串起来,写到shell脚本文件里。文件名叫sort_uniq.sh.

     1 #!/bin/bash
     2 lines=$(wc -l $1 | sed 's/ .*//g')
     3 lines_per_file=`expr $lines / 20`
     4 split -d -l $lines_per_file $1 __part_$1
     5 
     6 for file in __part_*
     7 do
     8 {
     9   sort $file > sort_$file
    10 } &
    11 done
    12 wait
    13 
    14 sort -smu sort_* > $2
    15 rm -f __part_*
    16 rm -f sort_*  

    使用方法:./sort_uniq.sh file_to_be_sort file_sorted

    这段代码把大文件分词20或21个小文件,后台并行排序各个小文件,最后合并结果并去重。

    如果只要去重,不需要排序,还有另外一种思路:对文件的每一行计算hash值,按照hash值把该行内容放到某个小文件中,假设需要分词100个小文件,则可以按照(hash % 100)来分发文件内容,然后在小文件中实现去重就可以了。

  • 相关阅读:
    前端 HTML
    python3内置函数
    内置函数的随机验证码
    线程、进程以及协程,上下文管理器
    线程池的定义方法
    python_控制台输出带颜色的文字方法
    while 循环 continue break 用法例子
    JVM 基础知识
    ios 设置状态栏文本颜色为白色
    ios 常用第三方库要加的framework,ARC的设置
  • 原文地址:https://www.cnblogs.com/yangxudong/p/3848453.html
Copyright © 2011-2022 走看看