有一道校招生的面试题,是要给一个很大的文件(不能所有放内存,好比1T)按行来排序和去重。面试
一种简单解决方案就是分而治之,先打大文件分词大小均匀的若干个小文件,而后对小文件排好序,最后再Merge全部的小文件,在Merge的过程当中去掉重复的内容。shell
在Linux下实现这个逻辑甚至不用本身写代码,只要用shell内置的一些命令: split, sort就足够了。咱们把这个流程用脚本串起来,写到shell脚本文件里。文件名叫sort_uniq.sh.bash
1 #!/bin/bash 2 lines=$(wc -l $1 | sed 's/ .*//g') 3 lines_per_file=`expr $lines / 20` 4 split -d -l $lines_per_file $1 __part_$1 5 6 for file in __part_* 7 do 8 { 9 sort $file > sort_$file 10 } & 11 done 12 wait 13 14 sort -smu sort_* > $2 15 rm -f __part_* 16 rm -f sort_*
使用方法:./sort_uniq.sh file_to_be_sort file_sortedspa
这段代码把大文件分词20或21个小文件,后台并行排序各个小文件,最后合并结果并去重。code
若是只要去重,不须要排序,还有另一种思路:对文件的每一行计算hash值,按照hash值把该行内容放到某个小文件中,假设须要分词100个小文件,则能够按照(hash % 100)来分发文件内容,而后在小文件中实现去重就能够了。blog