Python爬虫的基本流程是怎样的?技术实现是什么?带你简单入门一下爬虫

对于网络爬虫技术的学习,其他教学很少有从整体结构来说的,多数是直接放出某部分代码。这样的方法会使初学者摸不着头脑:就好像是盲人摸象,有人摸到的是象腿,以为是一根大柱子;有人摸到的是大象耳朵,以为是一把大蒲扇等。

本篇讲解的目的,是让大家先对爬虫概念有个比较深入的认识。

一、爬虫的定义

所谓爬虫,就是请求网站并提取自己所需要数据的过程。

通过我们的程序,可以代替我们向服务器发送请求,然后进行批量的数据下载。

二、Python爬虫的流程

网络爬虫的流程其实非常简单,主要可以分为三部分:(1)获取网页;(2)解析网页(提取数据);(3)存储数据

(1)获取网页就是给一个网址发送请求,该网址会返回整个网页的数据。类似于在浏览器中键入网址并按回车键,然后可以看到网站的整个页面。

(2)解析网页就是从整个网页的数据中提取想要的数据。类似于你在页面中想找到产品的价格,价格就是你要提取的数据。

(3)存储数据也很容易理解,就是把数据存储下来。我们可以存储在csv中,也可以存储在数据库中。

三、技术实现

下面列出三个流程的技术实现,括号里是对应的章节。

1.获取网页

获取网页的基础技术:requests、urllib和selenium。

获取网页的进阶技术:多进程多线程抓取、登录抓取、突破IP封禁和使用服务器抓取。

2.解析网页

解析网页的基础技术:re正则表达式、BeautifulSoup和lxml。

解析网页的进阶技术:解决中文乱码。

3.存储数据

存储数据的基础技术:存入txt文件和存入csv文件。
存储数据的进阶技术:存入MySQL数据库和MongoDB数据库。
 

更多精彩,请关注我的"今日头条号":Java云笔记
随时随地,让你拥有最新,最便捷的掌上云服务