如何在linux上或者是mac上简单使用爬虫或者是网页下载工具呢,常规的咱们确定是要去下载一个软件下来使用啦,可怜的这两个系统老是找不到相应的工具,这时wget出来帮助你啦!!!wget自己是拿来下载东西的,但远不止那么简单,wget是一把强大利器。html
wget -c -r -npH -k http://www.baidu.com
参数说明linux
-c:断点续传
-r:递归下载
-np:递归下载时不搜索上层目录
-nd:递归下载时不建立一层一层的目录,把全部文件下载当前文件夹中
-p:下载网页所须要的全部文件(图片,样式,js文件等)
-H:当递归时是转到外部主机下载图片或连接
-k:将绝对连接转换为相对连接,这样就能够在本地脱机浏览网页了
ls浏览器
而后生成了index.html文件bash
将index.html移动到/var/www/html/工具
须要提早安装httpd服务并关闭防火墙htm
而后打开浏览器输入目标IPblog