高效的大文件拷贝

当你要两台机器之间拷贝一些大文件的时候,把nc(netcat)和pigz(parallel gzip)组合起来会是一个简单和高效的选择。不过,若是要把这些文件同时分发到多台机器,有什么好法子吗?在Tumblr,这还算蛮常见的需求,好比咱们要快速的同时增长几台MySQL Slave的时候。html

 

你能够从源机器逐个拷贝到逐台目标机器,可是每每时间也是成倍的。或者你也能够同时从源机器同时拷贝到多个目标机器,可是受制于源机器的带宽等因素,速度并不见得真的很快。linux

还好,借助一些UNIX工具能够作的更好。把tee和FIFO组合起来,能够造成一个文件快速分发链:处于分发链中的每台机器会保存文件,同时还分发给它的下一环。shell

首先,选定一台目标机器作为分发链的最后一环,在这台机器上只须要用nc监听(假定端口是1234),再经过管道由pigz解压缩,继续经过管道把数据交由tar来分解。工具

  1. nc -l 1234 | pigz -d | tar xvf -

而后,再从分发链的末端往上走,设置其它目标机器,一样要通过监听、解压、分解,不过在解压以前咱们经过tee命令将数据输出到命名管道(FIFO),另外的一条shell管道会将这些未解压的数据同时分发到分发链的下一环:post

  1. mkfifo myfifo
  2. nc hostname_of_next_box 1234 nc -l 1234 | tee myfifo | pigz -d | tar xvf -

最后,在源机器上启动分发链,让数据传输到分发链的第一环:性能

  1. tar cv some_files | pigz | nc hostname_of_first_box 1234

在个人测试中,分发链中的每台机器大概损失了3%-10%的性能(相对于1对1的拷贝而言),可是相对逐个逐个的拷贝或者单台机器向多台机器同时分发,效率提高是很明显的。测试

本文地址:https://linux.cn/article-2627-1.htmlspa

原文: Efficiently copying files to multiple destinations .net

via : http://xiaobin.net/201107/efficiently-copying-files-to-multiple-destinations/ htm

相关文章
相关标签/搜索