你是否曾经有过要计算一个很是大的数据(几百GB)的需求?或在里面搜索,或其它操做——一些没法并行的操做。数据 专家们,我是在对大家说。你可能有一个16核或更多核的CPU,但咱们合适的工具,例如 grep, bzip2, wc, awk, sed等等,都是单线程的,只能使用一个CPU内核。app
可是“如何我能使用这些CPU核心”?ide
要想让Linux命令使用全部的CPU核心,咱们须要用到GNU Parallel命令,它让咱们全部的CPU核心在单机内作神奇的map-reduce操做,固然,这还要借助不多用到的–pipes 参数(也叫作–spreadstdin)。这样,你的负载就会平均分配到各CPU上,真的。工具
下载URL:http://ftp.gnu.org/gnu/parallel/spa
bzip2是比gzip更好的压缩工具,但它很慢!别折腾了,咱们有办法解决这问题。线程
之前的作法:orm
cat bigfile.bin | bzip2 --best > compressedfile.bz2ip
如今这样:ci
cat bigfile.bin | parallel --pipe --recend '' -k bzip2 --best > compressedfile.bz2get
尤为是针对bzip2,GNU parallel在多核CPU上是超级的快。你一不留神,它就执行完成了。it
若是你有一个很是大的文本文件,之前你可能会这样:
grep pattern bigfile.txt
如今你能够这样:
cat bigfile.txt | parallel --pipe grep 'pattern'
或者这样:
cat bigfile.txt | parallel --block 10M --pipe grep 'pattern'
这第二种用法使用了–block 10M参数,这是说每一个内核处理1千万行——你能够用这个参数来调整每一个CUP内核处理多少行数据。
下面是一个用awk命令计算一个很是大的数据文件的例子。
常规用法:
cat rands20M.txt | awk '{s+=$1} END {print s}'
如今这样:
cat rands20M.txt | parallel --pipe awk \'{s+=\$1} END {print s}\' | awk '{s+=$1} END {print s}'
这个有点复杂:parallel命令中的–pipe参数将cat输出分红多个块分派给awk调用,造成了不少子计算操做。这些子计算通过第二个管道进入了同一个awk命令,从而输出最终结果。第一个awk有三个反斜杠,这是GNU parallel调用awk的须要。
想要最快的速度计算一个文件的行数吗?
传统作法:
wc -l bigfile.txt
如今你应该这样:
cat bigfile.txt | parallel --pipe wc -l | awk '{s+=$1} END {print s}'
很是的巧妙,先使用parallel命令‘mapping’出大量的wc -l调用,造成子计算,最后经过管道发送给awk进行汇总。
想在一个巨大的文件里使用sed命令作大量的替换操做吗?
常规作法:
sed s^old^new^g bigfile.txt
如今你能够:
cat bigfile.txt | parallel --pipe sed s^old^new^g
…而后你可使用管道把输出存储到指定的文件里。