wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,咱们常常要下载一些软件或从远程服务器恢复备份到本地服务器。html
wget支持HTTP,HTTPS和FTP协议,可使用HTTP代理。所谓的自动下载是指,wget能够在用户退出系统的以后在后台执行。这意味这你能够登陆系统,启动一个wget下载任务,而后退出系统,wget将在后台执行直到任务完成shell
wget 能够跟踪HTML页面上的连接依次下载来建立远程服务器的本地版本,彻底重建原始站点的目录结构。这又常被称做”递归下载”。缓存
wget 很是稳定,它在带宽很窄的状况下和不稳定网络中有很强的适应性.若是是因为网络的缘由下载失败,wget会不断的尝试,直到整个文件下载完毕。若是是服务器打断下载过程,它会再次联到服务器上从中止的地方继续下载。这对从那些限定了连接时间的服务器上下载大文件很是有用。安全
GNU Wget 1.12,非交互式的网络文件下载工具。 用法: wget [选项]... [URL]... 长选项所必须的参数在使用短选项时也是必须的。 开始: -V, --version 显示 Wget 的版本信息并退出。 -h, --help 打印此帮助。 -b, --background 启动后转入后台。 -e, --execute=COMMAND 运行一个‘.wgetrc’风格的命令。 登入并输入文件: -o, --output-file=FILE 将信息写入 FILE。 -a, --append-output=FILE 将信息添加至 FILE。 -d, --debug 打印大量调试信息。 -q, --quiet 安静模式(无信息输出)。 -v, --verbose 详尽的输出(此为默认值)。 -nv, --no-verbose 关闭详尽输出,但不进入安静模式。 -i, --input-file=FILE 下载本地或外部 FILE 中的 URLs。 -F, --force-html 把输入文件当成 HTML 文件。 -B, --base=URL 解析与 URL 相关的 HTML 输入文件(由 -i -F 选项指定)。 下载: -t, --tries=NUMBER 设置重试次数为 NUMBER (0 表明无限制)。 --retry-connrefused 即便拒绝链接也是重试。 -O, --output-document=FILE 将文档写入 FILE。 -nc, --no-clobber 不要重复下载已存在的文件。 -c, --continue 继续下载部分下载的文件。 --progress=TYPE 选择进度条类型。 -N, --timestamping 只获取比本地文件新的文件。 -S, --server-response 打印服务器响应。 --spider 不下载任何文件。 -T, --timeout=SECONDS 将全部超时设为 SECONDS 秒。 --dns-timeout=SECS 设置 DNS 查寻超时为 SECS 秒。 --connect-timeout=SECS 设置链接超时为 SECS 秒。 --read-timeout=SECS 设置读取超时为 SECS 秒。 -w, --wait=SECONDS 等待间隔为 SECONDS 秒。 --waitretry=SECONDS 在取回文件的重试期间等待 1..SECONDS 秒。 --random-wait 取回时等待 0...2*WAIT 秒。 --no-proxy 关闭代理。 -Q, --quota=NUMBER 设置取回配额为 NUMBER 字节。 --bind-address=ADDRESS 绑定至本地主机上的 ADDRESS (主机名或是 IP)。 --limit-rate=RATE 限制下载速率为 RATE。 --no-dns-cache 关闭 DNS 查寻缓存。 --restrict-file-names=OS 限定文件名中的字符为 OS 容许的字符。 --ignore-case 匹配文件/目录时忽略大小写。 -4, --inet4-only 仅链接至 IPv4 地址。 -6, --inet6-only 仅链接至 IPv6 地址。 --prefer-family=FAMILY 首先链接至指定协议的地址 FAMILY 为 IPv6,IPv4 或是 none。 --user=USER 将 ftp 和 http 的用户名均设置为 USER。 --password=PASS 将 ftp 和 http 的密码均设置为 PASS。 --ask-password 提示输入密码。 --no-iri 关闭 IRI 支持。 --local-encoding=ENC IRI 使用 ENC 做为本地编码。 --remote-encoding=ENC 使用 ENC 做为默认远程编码。 目录: -nd, --no-directories 不建立目录。 -x, --force-directories 强制建立目录。 -nH, --no-host-directories 不要建立主目录。 --protocol-directories 在目录中使用协议名称。 -P, --directory-prefix=PREFIX 以 PREFIX/... 保存文件 --cut-dirs=NUMBER 忽略 NUMBER 个远程目录路径。 HTTP 选项: --http-user=USER 设置 http 用户名为 USER。 --http-password=PASS 设置 http 密码为 PASS。 --no-cache 不在服务器上缓存数据。 --default-page=NAME 改变默认页 (默认页一般是“index.html”)。 -E, --adjust-extension 以合适的扩展名保存 HTML/CSS 文档。 --ignore-length 忽略头部的‘Content-Length’区域。 --header=STRING 在头部插入 STRING。 --max-redirect 每页所容许的最大重定向。 --proxy-user=USER 使用 USER 做为代理用户名。 --proxy-password=PASS 使用 PASS 做为代理密码。 --referer=URL 在 HTTP 请求头包含‘Referer: URL’。 --save-headers 将 HTTP 头保存至文件。 -U, --user-agent=AGENT 标识为 AGENT 而不是 Wget/VERSION。 --no-http-keep-alive 禁用 HTTP keep-alive(永久链接)。 --no-cookies 不使用 cookies。 --load-cookies=FILE 会话开始前从 FILE 中载入 cookies。 --save-cookies=FILE 会话结束后保存 cookies 至 FILE。 --keep-session-cookies 载入并保存会话(非永久) cookies。 --post-data=STRING 使用 POST 方式;把 STRING 做为数据发送。 --post-file=FILE 使用 POST 方式;发送 FILE 内容。 --content-disposition 当选中本地文件名时 容许 Content-Disposition 头部(尚在实验)。 --auth-no-challenge send Basic HTTP authentication information without first waiting for the server's challenge. HTTPS (SSL/TLS) 选项: --secure-protocol=PR 选择安全协议,能够是 auto、SSLv二、 SSLv3 或是 TLSv1 中的一个。 --no-check-certificate 不要验证服务器的证书。 --certificate=FILE 客户端证书文件。 --certificate-type=TYPE 客户端证书类型, PEM 或 DER。 --private-key=FILE 私钥文件。 --private-key-type=TYPE 私钥文件类型, PEM 或 DER。 --ca-certificate=FILE 带有一组 CA 认证的文件。 --ca-directory=DIR 保存 CA 认证的哈希列表的目录。 --random-file=FILE 带有生成 SSL PRNG 的随机数据的文件。 --egd-file=FILE 用于命名带有随机数据的 EGD 套接字的文件。 FTP 选项: --ftp-user=USER 设置 ftp 用户名为 USER。 --ftp-password=PASS 设置 ftp 密码为 PASS。 --no-remove-listing 不要删除‘.listing’文件。 --no-glob 不在 FTP 文件名中使用通配符展开。 --no-passive-ftp 禁用“passive”传输模式。 --retr-symlinks 递归目录时,获取连接的文件(而非目录)。 递归下载: -r, --recursive 指定递归下载。 -l, --level=NUMBER 最大递归深度( inf 或 0 表明无限制,即所有下载)。 --delete-after 下载完成后删除本地文件。 -k, --convert-links 让下载获得的 HTML 或 CSS 中的连接指向本地文件。 -K, --backup-converted 在转换文件 X 前先将它备份为 X.orig。 -m, --mirror -N -r -l inf --no-remove-listing 的缩写形式。 -p, --page-requisites 下载全部用于显示 HTML 页面的图片之类的元素。 --strict-comments 开启 HTML 注释的精确处理(SGML)。 递归接受/拒绝: -A, --accept=LIST 逗号分隔的可接受的扩展名列表。 -R, --reject=LIST 逗号分隔的要拒绝的扩展名列表。 -D, --domains=LIST 逗号分隔的可接受的域列表。 --exclude-domains=LIST 逗号分隔的要拒绝的域列表。 --follow-ftp 跟踪 HTML 文档中的 FTP 连接。 --follow-tags=LIST 逗号分隔的跟踪的 HTML 标识列表。 --ignore-tags=LIST 逗号分隔的忽略的 HTML 标识列表。 -H, --span-hosts 递归时转向外部主机。 -L, --relative 只跟踪有关系的连接。 -I, --include-directories=LIST 容许目录的列表。 -X, --exclude-directories=LIST 排除目录的列表。 -np, --no-parent 不追溯至父目录。
使用wget -O下载并以不一样的文件名保存(-O:下载文件到对应目录,而且修改文件名称)服务器
wget -O wordpress.zip http://www.minjieren.com/download.aspx?id=1080
使用wget -b后台下载cookie
wget -b http://www.minjieren.com/wordpress-3.1-zh_CN.zip
备注: 你可使用如下命令来察看下载进度:tail -f wget-log
利用-spider: 模拟下载,不会下载,只是会检查是否网站是否好着网络
[root@localhost ~]# wget --spider www.baidu.com #不下载任何文件
模拟下载打印服务器响应session
[root@localhost ~]# wget -S www.baidu.com # 打印服务器响应
设定指定次数app
[root@localhost ~]# wget -r --tries=2 www.baidu.com (指定尝试2次,2次后再也不尝试) [root@localhost ~]# wget -r --tries=2 -q www.baidu.com (指定尝试,且不打印中间结果)