爬虫requests

1.request的介绍 通俗理解:爬虫是一个模拟人类请求网站行为的程序。可以自动请求网页、并数据抓取下来,然后使用一定 的规则提取有价值的数据。 专业介绍:百度百科。 2.通用爬虫和聚焦爬虫 通用爬虫:通用爬虫是搜索引擎抓取系统(百度、谷歌、搜狗等)的重要组成部分。主要是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。 聚焦爬虫:是面向特定需求的一种网络爬虫程序,他与通用爬虫的区别在于
相关文章
相关标签/搜索