爬虫初识和request使用

一.什么是爬虫   爬虫的概念: 通过编写程序,模拟浏览器上网,让其去互联网上爬取数据的过程.   爬虫的工作流程: 模拟浏览器发送请求->下载网页代码->只提取有用的数据->存放于数据库或文件中         爬虫的分类: 通用爬虫:爬取全部的页面数据. 聚焦爬虫: 抓取页面中局部的页面数据 增量式爬虫:爬取网站中更新出的数据   反爬机制 门户网站会通过制定相关的技术手段阻止爬虫程序进行数
相关文章
相关标签/搜索