10 wget

wget命令相似于curl,都是用于下载web内容的。html

 

0000 0000web

下载单个文件时什么参数都不加,默认会把文件文件下载到当前文件夹下:bash

wget http://www/baidu.com

 

0000 0001服务器

能够将下载的文件指定保留位置及相应的名称,使用-O选项:curl

wget -O /var/www/index.html  http://www.baidu.com

 

0000 0010ide

若是要下载多个连接,能够将这些url保存在一个文件中,让wget从文件中去读取url,使用-i选项:测试

wget -i file.txt 

 

0000 0011网站

如同不少命令都有一个-n选项来抑制输出同样,该命令也有一个选项能实现相似功能,不过它使用-b:url

wget -b htp://www.baidu.com

 此时该命令的输出将大部分被抑制,相应内容被保存到当前文件夹下的wget-log中htm

 

0000 0100

wget支持断点续传,使用-c选项

 

0000 0101

wget竟然能支持限制速率的下载,使用--limit-rate=rate的方法:

wget --limit-rate=100k http://www.baidu.com

 

0000 0110

wget也能够只是单纯的用来测试网站是否能正常访问,使用--spider选项

wget --spider http://www.baidu.com

 

0000 0111

既然是http,天然就可能会超时,此时使用--tries选项设置请求次数:

wget --tries=3 http://www.baidu.com

 

0000 1000

wget能够下载整个web页面上全部的连接内容:

wget --mirror -p --convert-links -P./test http://localhost

 --mirror彷佛表示无限递归查找下载;

 -p表示下载全部显示页面必须的连接;

 -P表示下载连接到指定目录下;

 --convert-links,这个参数没有整明白,彷佛man手册里边没有。

 

0000 1001

当下载一个页面上全部的连接时能够指定不下载哪些类型,使用--reject选项:

wget --reject=png --mirror -p --convert-links -P./test http://localhost

 以上下载时不下载那些png图片。

 

0000 1010

当下载多个连接时,能够不下载页面太大的文件,使用-Q选项限制大小:

wget -Q5m -i file.txt

 以上下载时大小大于5m的页面将不会处理,但要求-i对应的文件中有多于一个链接,不然无效;

 

0000 1011

1001中说能够先定不下载某些类型的文件,也能够设置下载某些类型的文件,使用-A:

wget -r -A .png http://www.baidu.com

 以上代码会下载全部png文件

 

0000 1100

上面的命令中用到了-r,这个选项主要是说要递归的下载,默认递归最大深度是5,能够自定义这个深度,使用-l:

wget -r -l10 -A .png http://www.baidu.com

 

0000 1101

若是是从ftp服务器下载也能够,不过须要传入用户名和密码:

wget --file-user=USERNAME --file-password=PASSWORD url
相关文章
相关标签/搜索