wget命令

抓取指定目录:html

wget -c -r -np -nH ftp://host//a/b/c/d/e --cut-dirs=6 --limit-rate=15M –qlinux

 

--------------------------------------------------------web

 

参考:浏览器

http://blog.sina.com.cn/s/blog_5508396e0100hl75.html缓存

 

最后用了 wget -c -r -np ftp://name:pw@server/dir/ 实现从先前虚拟主机ftp上转移某目录下全部文件到新VPS上。服务器

所用参数 -c 断点续传(备注:使用断点续传要求服务器支持断点续传),-r 递归下载(目录下的全部文件,包括子目录),-np 递归下载不搜索上层目录cookie

参考:网络

wget是linux下命令行的下载工具,功能很强大,虽然我不多用,通常下在一些小东西都是直接用firefox,seamonkey这些浏览器自带的下载功能下载,没有必要用wget或者其余下载工具。可是某些时候却不是浏览器自带的下载功能和一些其余的下载软件所能作的的,这时候就得用wget了。好比若是你想下载一个网页目录下的全部文件,如何作呢?app

先介绍几个参数:-c 断点续传(备注:使用断点续传要求服务器支持断点续传),-r 递归下载(目录下的全部文件,包括子目录),-np 递归下载不搜索上层目录,-k 把绝对连接转为相对连接,这样下载以后的网页方便浏览。-L 递归时不进入其余主机,-p 下载网页所须要的全部文件。dom

好比:#wget -c -r -np -k -L -p http://www.xxxx.com/yyyy/zzzzz 下载xxxx网站下面的目录zzzzz

wget是一个强力方便的命令行方式下的下载工具。本文介绍了wget的基本用法。

网络用户有时候会遇到须要下载一批文件的状况,有时甚至须要把整个网站下载下来或者制做网站的镜像。在Windows下的用户都比较熟悉 Teleport,webzip等等网站下载工具,实际上AIX中也彻底能够作到这样的功能,那就是利用wget工具。wget是一个命令行工具,用来下载网络文件或者整个网站,它具备自动重试、断点续传、支持代理服务器等等强大的功能。它能够彻底替代ftp客户端。wget是在Linux下开发的开放源代码的软件,做者是Hrvoje Niksic,后来被移植到包括Windows在内的各个平台上。

wget虽然功能强大,可是使用起来仍是比较简单的,基本的语法是:wget [参数列表] URL。下面就结合具体的例子来讲明一下wget的用法。

一、下载整个http或者ftp站点。

wget http://place.your.url/here

这个命令能够将http://place.your.url/here 首页下载下来。使用-x会强制创建服务器上如出一辙的目录,若是使用-nd参数,那么服务器上下载的全部内容都会加到本地当前目录。

wget -r http://place.your.url/here

这个命令会按照递归的方法,下载服务器上全部的目录和文件,实质就是下载整个网站。这个命令必定要当心使用,由于在下载的时候,被下载网站指向的全部地址一样会被下载,所以,若是这个网站引用了其余网站,那么被引用的网站也会被下载下来!基于这个缘由,这个参数不经常使用。能够用-l number参数来指定下载的层次。例如只下载两层,那么使用-l 2。

要是您想制做镜像站点,那么可使用-m参数,例如:

wget -m http://place.your.url/here

这时wget会自动判断合适的参数来制做镜像站点。此时,wget会登陆到服务器上,读入robots.txt并按robots.txt的规定来执行。

二、断点续传。

当文件特别大或者网络特别慢的时候,每每一个文件尚未下载完,链接就已经被切断,此时就须要断点续传。wget的断点续传是自动的,只须要使用-c参数,例如:

wget -c http://the.url.of/incomplete/file

使用断点续传要求服务器支持断点续传。-t参数表示重试次数,例如须要重试100次,那么就写-t 100,若是设成-t 0,那么表示无穷次重试,直到链接成功。-T参数表示超时等待时间,例如-T 120,表示等待120秒链接不上就算超时。

三、批量下载。

若是有多个文件须要下载,那么能够生成一个文件,把每一个文件的URL写一行,例如生成文件download.txt,而后用命令:

wget -i download.txt

这样就会把download.txt里面列出的每一个URL都下载下来。(若是列的是文件就下载文件,若是列的是网站,那么下载首页)

四、选择性的下载。

能够指定让wget只下载一类文件,或者不下载什么文件。例如:

wget -m –reject=gif http://target.web.site/subdirectory

表示下载http://target.web.site/subdirectory,可是忽略gif文件。–accept=LIST 能够接受的文件类型,–reject=LIST拒绝接受的文件类型。

五、密码和认证。

wget只能处理利用用户名/密码方式限制访问的网站,能够利用两个参数:

–http-user=USER设置HTTP用户
–http-passwd=PASS设置HTTP密码

对于须要证书作认证的网站,就只能利用其余下载工具了,例如curl。

六、利用代理服务器进行下载。

若是用户的网络须要通过代理服务器,那么可让wget经过代理服务器进行文件的下载。此时须要在当前用户的目录下建立一个.wgetrc文件。文件中能够设置代理服务器:

http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080

分别表示http的代理服务器和ftp的代理服务器。若是代理服务器须要密码则使用:

–proxy-user=USER设置代理用户
–proxy-passwd=PASS设置代理密码

这两个参数。使用参数–proxy=on/off 使用或者关闭代理。

wget还有不少有用的功能,须要用户去挖掘

一些关于wget这个强大的网络工具的使用方法,现列举以下:
wget 使用技巧集锦
wget的使用形式是:
wget [参数列表] URL

首先来介绍一下wget的主要参数:

· -b:让wget在后台运行,记录文件写在当前目录下”wget-log”文件中;
· -t [nuber of times]:尝试次数,当wget没法与服务器创建链接时,尝试链接多少次。好比”-t120″表示尝试120次。当这一项为”0″的时候,指定尝试无穷屡次直到链接成功为止,这个设置很是有用,当对方服务器忽然关机或者网络忽然中断的时候,能够在恢复正常后继续下载没有传完的文件;
· -c:断点续传,这也是个很是有用的设置,特别当下载比较大的文件的时候,若是中途意外中断,那么链接恢复的时候会从上次没传完的地方接着传,而不是又从头开始,使用这一项须要远程服务器也支持断点续传,通常来说,基于UNIX/Linux的Web/FTP服务器都支持断点续传;
· -T [number of seconds]:超时时间,指定多长时间远程服务器没有响应就中断链接,开始下一次尝试。好比”-T120″表示若是120秒之后远程服务器没有发过来数据,就从新尝试链接。若是网络速度比较快,这个时间能够设置的短些,相反,能够设置的长一些,通常最多不超过900,一般也很多于60,通常设置在 120左右比较合适;
· -w [number of seconds]:在两次尝试之间等待多少秒,好比”-w 100″表示两次尝试之间等待100秒;
· -Y on/off:经过/不经过代理服务器进行链接;默认是on
· -Q [byetes]:限制下载文件的总大小最多不能超过多少,好比”-Q2k”表示不能超过2K字节,”-Q3m”表示最多不能超过3M字节,若是数字后面什么都不加,就表示是以字节为单位,好比”-Q200″表示最多不能超过200字节;
· -nd:不下载目录结构,把从服务器全部指定目录下载的文件都堆到当前目录里;
· -x:与”-nd”设置恰好相反,建立完整的目录结构,例如”wget -nd http://www.baidu.com”将建立在当前目录下建立”www.baidu.com”子目录,而后按照服务器实际的目录结构一级一级建下去,直到全部的文件都传完为止;
· -nH:不建立以目标主机域名为目录名的目录,将目标主机的目录结构直接下到当前目录下;
· –http-user=username
· –http-passwd=password:若是Web服务器须要指定用户名和口令,用这两项来设定;
· –proxy-user=username
· –proxy-passwd=password:若是代理服务器须要输入用户名和口令,使用这两个选项;
· -r:在本机创建服务器端目录结构;
· -l [depth]:下载远程服务器目录结构的深度,例如”-l 5″下载目录深度小于或者等于5之内的目录结构或者文件;
· -m:作站点镜像时的选项,若是你想作一个站点的镜像,使用这个选项,它将自动设定其余合适的选项以便于站点镜像;
· -np:只下载目标站点指定目录及其子目录的内容。这也是一个很是有用的选项,咱们假设某我的的我的主页里面有一个指向这个站点其余人我的主页的链接,而咱们只想下载这我的的我的主页,若是不设置这个选项,甚至–有可能把整个站点给抓下来,这显然是咱们一般不但愿的;

II 如何设定wget所使用的代理服务器

wget 可使用用户设置文件”.wgetrc”来读取不少设置,咱们这里主要利用这个文件来是设置代理服务器。使用者用什么用户登陆,那么什么用户主目录下的 “.wgetrc”文件就起做用。例如,”root”用户若是想使用”.wgetrc”来设置代理服务器,”/root/.wgert”就起做用,下面给出一个”.wgetrc”文件的内容,能够参照这个例子来编写本身的”wgetrc”文件:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
这两行的含义是,代理服务器IP地址为:111.111.111.111,端口号为:80。第一行指定HTTP协议所使用的代理服务器,第二行指定FTP协议所使用的代理服务器。

get如何使用学校的socks代理?
/usr/local/etc/wgetrc 或~/.wgetrc:

http_proxy = 202.119.24.35:8080
ftp_proxy = 202.119.24.35:8080
proxy-user = user
proxy-passwd = password
use_proxy = on
参数:
代码:

$ wget –help

GNU Wget 1.9.1,非交互式的网络文件下载工具。
用法: wget [选项]… [URL]…

长选项必须用的参数在使用短选项时也是必须的。

启动:

-V, –version 显示 Wget 的版本而且退出。
-h, –help 打印此帮助。
-b, -background 启动后进入后台操做。
-e, -execute=COMMAND 运行‘.wgetrc’形式的命令。

日志记录及输入文件:

-o, –output-file=文件 将日志消息写入到指定文件中。
-a, –append-output=文件 将日志消息追加到指定文件的末端。
-d, –debug 打印调试输出。
-q, –quiet 安静模式(不输出信息)。
-v, –verbose 详细输出模式(默认)。
-nv, –non-verbose 关闭详细输出模式,但不进入安静模式。
-i, –input-file=文件 下载从指定文件中找到的 URL。
-F, –force-html 以 HTML 方式处理输入文件。
-B, –base=URL 使用 -F -i 文件选项时,在相对连接前添加指定的 URL。

下载:

-t, –tries=次数 配置重试次数(0 表示无限)。
–retry-connrefused 即便拒绝链接也重试。
-O –output-document=文件 将数据写入此文件中。
-nc, –no-clobber 不更改已经存在的文件,也不使用在文件名后
添加 .#(# 为数字)的方法写入新的文件。
-c, –continue 继续接收已下载了一部分的文件。
–progress=方式 选择下载进度的表示方式。
-N, –timestamping 除非远程文件较新,不然再也不取回。
-S, –server-response 显示服务器回应消息。
–spider 不下载任何数据。
-T, –timeout=秒数 配置读取数据的超时时间 (秒数)。
-w, –wait=秒数 接收不一样文件之间等待的秒数。
–waitretry=秒数 在每次重试之间稍等一段时间 (由 1 秒至指定的 秒数不等)。
–random-wait 接收不一样文件之间稍等一段时间(由 0 秒至 2*WAIT 秒不等)。
-Y, –proxy=on/off 打开或关闭代理服务器。
-Q, –quota=大小 配置接收数据的限额大小。
–bind-address=地址 使用本机的指定地址 (主机名称或 IP) 进行链接。
–limit-rate=速率 限制下载的速率。
–dns-cache=off 禁止查找存于高速缓存中的 DNS。
–restrict-file-names=OS 限制文件名中的字符为指定的 OS (操做系统) 所容许的字符。

目录:

-nd –no-directories 不建立目录。
-x, –force-directories 强制建立目录。
-nH, –no-host-directories 不建立含有远程主机名称的目录。
-P, –directory-prefix=名称 保存文件前先建立指定名称的目录。
–cut-dirs=数目 忽略远程目录中指定数目的目录层。

HTTP 选项:

–http-user=用户 配置 http 用户名。
–http-passwd=密码 配置 http 用户密码。
-C, –cache=on/off (不)使用服务器中的高速缓存中的数据 (默认是使用的)。
-E, –html-extension 将全部 MIME 类型为 text/html 的文件都加上 .html 扩展文件名。
–ignore-length 忽略“Content-Length”文件头字段。
–header=字符串 在文件头中添加指定字符串。
–proxy-user=用户 配置代理服务器用户名。
–proxy-passwd=密码 配置代理服务器用户密码。
–referer=URL 在 HTTP 请求中包含“Referer:URL”头。
-s, –save-headers 将 HTTP 头存入文件。
-U, –user-agent=AGENT 标志为 AGENT 而不是 Wget/VERSION。
–no-http-keep-alive 禁用 HTTP keep-alive(持久性链接)。
–cookies=off 禁用 cookie。
–load-cookies=文件 会话开始前由指定文件载入 cookie。
–save-cookies=文件 会话结束后将 cookie 保存至指定文件。
–post-data=字符串 使用 POST 方法,发送指定字符串。
–post-file=文件 使用 POST 方法,发送指定文件中的内容。

HTTPS (SSL) 选项:

–sslcertfile=文件 可选的客户段端证书。
–sslcertkey=密钥文件 对此证书可选的“密钥文件”。
–egd-file=文件 EGD socket 文件名。
–sslcadir=目录 CA 散列表所在的目录。
–sslcafile=文件 包含 CA 的文件。
–sslcerttype=0/1 Client-Cert 类型 0=PEM (默认) / 1=ASN1 (DER)
–sslcheckcert=0/1 根据提供的 CA 检查服务器的证书
–sslprotocol=0-3 选择 SSL 协议;0=自动选择,
1=SSLv2 2=SSLv3 3=TLSv1

FTP 选项:

-nr, –dont-remove-listing 不删除“.listing”文件。
-g, –glob=on/off 设置是否展开有通配符的文件名。
–passive-ftp 使用“被动”传输模式。
–retr-symlinks 在递归模式中,下载连接所指示的文件(连至目录则例外)。

递归下载:

-r, –recursive 递归下载。
-l, –level=数字 最大递归深度(inf 或 0 表示无限)。
–delete-after 删除下载后的文件。
-k, –convert-links 将绝对连接转换为相对连接。
-K, –backup-converted 转换文件 X 前先将其备份为 X.orig。
-m, –mirror 等效于 -r -N -l inf -nr 的选项。
-p, –page-requisites 下载全部显示完整网页所需的文件,例如图像。
–strict-comments 打开对 HTML 备注的严格(SGML)处理选项。

递归下载时有关接受/拒绝的选项:

-A, –accept=列表 接受的文件样式列表,以逗号分隔。 -R, –reject=列表 排除的文件样式列表,以逗号分隔。 -D, –domains=列表 接受的域列表,以逗号分隔。 –exclude-domains=列表 排除的域列表,以逗号分隔。 –follow-ftp 跟随 HTML 文件中的 FTP 连接。 –follow-tags=列表 要跟随的 HTML 标记,以逗号分隔。 -G, –ignore-tags=列表 要忽略的 HTML 标记,以逗号分隔。 -H, –span-hosts 递归时可进入其它主机。 -L, –relative 只跟随相对连接。 -I, –include-directories=列表 要下载的目录列表。 -X, –exclude-directories=列表 要排除的目录列表。 -np, –no-parent 不搜索上层目录。

相关文章
相关标签/搜索