原文出处: rankfocus 译文出处: 外刊IT评论
linux
你是否曾经有过要计算一个很是大的数据(几百GB)的需求?或在里面搜索,或其它操做——一些没法并行的操做。数据专家们,我是在对大家说。你可能有一个4核或更多核的CPU,但咱们合适的工具,例如 grep, bzip2, wc, awk, sed等等,都是单线程的,只能使用一个CPU内核。app
借用卡通人物Cartman的话,“如何我能使用这些内核”?工具
要想让Linux命令使用全部的CPU内核,咱们须要用到GNU Parallel命令,它让咱们全部的CPU内核在单机内作神奇的map-reduce操做,固然,这还要借助不多用到的–pipes 参数(也叫作–spreadstdin)。这样,你的负载就会平均分配到各CPU上,真的。spa
bzip2是比gzip更好的压缩工具,但它很慢!别折腾了,咱们有办法解决这问题。.net
之前的作法:线程
1
|
cat bigfile.bin | bzip2 --best > compressedfile.bz2
|
如今这样:code
1
|
cat bigfile.bin | parallel --pipe --recend '' -k bzip2 --best > compressedfile.bz2
|
尤为是针对bzip2,GNU parallel在多核CPU上是超级的快。你一不留神,它就执行完成了。ip
若是你有一个很是大的文本文件,之前你可能会这样:ci
1
|
grep pattern bigfile.txt
|
如今你能够这样:get
1
|
cat bigfile.txt | parallel --pipe grep 'pattern'
|
或者这样:
1
|
cat bigfile.txt | parallel --block 10M --pipe grep 'pattern'
|
这第二种用法使用了 –block 10M参数,这是说每一个内核处理1千万行——你能够用这个参数来调整每一个CUP内核处理多少行数据。
下面是一个用awk命令计算一个很是大的数据文件的例子。
常规用法:
1
|
cat rands20M.txt | awk '{s+=$1} END {print s}'
|
如今这样:
1
|
cat rands20M.txt | parallel --pipe awk \'{s+=\$1} END {print s}\' | awk '{s+=$1} END {print s}'
|
这个有点复杂:parallel命令中的–pipe参数将cat输出分红多个块分派给awk调用,造成了不少子计算操做。这些子计算通过第二个管道进入了同一个awk命令,从而输出最终结果。第一个awk有三个反斜杠,这是GNU parallel调用awk的须要。
想要最快的速度计算一个文件的行数吗?
传统作法:
1
|
wc -l bigfile.txt
|
如今你应该这样:
1
|
cat bigfile.txt | parallel --pipe wc -l | awk '{s+=$1} END {print s}'
|
很是的巧妙,先使用parallel命令‘mapping’出大量的wc -l
调用,造成子计算,最后经过管道发送给awk进行汇总。
想在一个巨大的文件里使用sed命令作大量的替换操做吗?
常规作法:
1
|
sed s^old^new^g bigfile.txt
|
如今你能够:
1
|
cat bigfile.txt | parallel --pipe sed s^old^new^g
|
…而后你可使用管道把输出存储到指定的文件里。