wget命令相似于curl,都是用于下载web内容的。html
0000 0000web
下载单个文件时什么参数都不加,默认会把文件文件下载到当前文件夹下:bash
wget http://www/baidu.com
0000 0001服务器
能够将下载的文件指定保留位置及相应的名称,使用-O选项:curl
wget -O /var/www/index.html http://www.baidu.com
0000 0010ide
若是要下载多个连接,能够将这些url保存在一个文件中,让wget从文件中去读取url,使用-i选项:测试
wget -i file.txt
0000 0011网站
如同不少命令都有一个-n选项来抑制输出同样,该命令也有一个选项能实现相似功能,不过它使用-b:url
wget -b htp://www.baidu.com
此时该命令的输出将大部分被抑制,相应内容被保存到当前文件夹下的wget-log中htm
0000 0100
wget支持断点续传,使用-c选项
0000 0101
wget竟然能支持限制速率的下载,使用--limit-rate=rate的方法:
wget --limit-rate=100k http://www.baidu.com
0000 0110
wget也能够只是单纯的用来测试网站是否能正常访问,使用--spider选项
wget --spider http://www.baidu.com
0000 0111
既然是http,天然就可能会超时,此时使用--tries选项设置请求次数:
wget --tries=3 http://www.baidu.com
0000 1000
wget能够下载整个web页面上全部的连接内容:
wget --mirror -p --convert-links -P./test http://localhost
--mirror彷佛表示无限递归查找下载;
-p表示下载全部显示页面必须的连接;
-P表示下载连接到指定目录下;
--convert-links,这个参数没有整明白,彷佛man手册里边没有。
0000 1001
当下载一个页面上全部的连接时能够指定不下载哪些类型,使用--reject选项:
wget --reject=png --mirror -p --convert-links -P./test http://localhost
以上下载时不下载那些png图片。
0000 1010
当下载多个连接时,能够不下载页面太大的文件,使用-Q选项限制大小:
wget -Q5m -i file.txt
以上下载时大小大于5m的页面将不会处理,但要求-i对应的文件中有多于一个链接,不然无效;
0000 1011
1001中说能够先定不下载某些类型的文件,也能够设置下载某些类型的文件,使用-A:
wget -r -A .png http://www.baidu.com
以上代码会下载全部png文件
0000 1100
上面的命令中用到了-r,这个选项主要是说要递归的下载,默认递归最大深度是5,能够自定义这个深度,使用-l:
wget -r -l10 -A .png http://www.baidu.com
0000 1101
若是是从ftp服务器下载也能够,不过须要传入用户名和密码:
wget --file-user=USERNAME --file-password=PASSWORD url