好的网络爬虫,首先须要遵照Robots协议。Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站经过Robots协议告诉搜索引擎哪些页面能够抓取,哪些页面不能抓取。
在网站根目录下放一个robots.txt文本文件(如 https://www.taobao.com/robots... ),里面能够指定不一样的网络爬虫能访问的页面和禁止访问的页面,指定的页面由正则表达式表示。网络爬虫在采集这个网站以前,首先获取到这个robots.txt文本文件,而后解析到其中的规则,而后根据规则来采集网站的数据。html
注意: 一个英文要大写,冒号是英文状态下,冒号后面有一个空格,"/"表明整个网站正则表达式
禁止全部机器人访问 User-agent: * Disallow: / 容许全部机器人访问 User-agent: * Disallow: 禁止特定机器人访问 User-agent: BadBot Disallow: / 容许特定机器人访问 User-agent: GoodBot Disallow: 禁止访问特定目录 User-agent: * Disallow: /images/ 仅容许访问特定目录 User-agent: * Allow: /images/ Disallow: / 禁止访问特定文件 User-agent: * Disallow: /*.html$ 仅容许访问特定文件 User-agent: * Allow: /*.html$ Disallow: /