python教程---爬虫入门教程一

这次教程使用的python版本为2.7!!!html

在刚上大学之时,老是在网上看到什么爬虫,由于当时还在学习c++,没有时机学习python,更没有去学习爬虫了,而趁着此次工程实训学习了基本的python的使用,因而有提起了学习爬虫的兴致,也写下了这个系列的博客,以记录本身的积累python

下面进入正题:c++

 

爬虫是什么?正则表达式

网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更常常的称为网页追逐者),是一种按照必定的规则,自动的抓取万维网信息的程序或者脚本。shell

 

在学习爬虫时须要用到那些知识呢?后端

 

  • Python基础知识
  • Python中urllib和urllib2库的用法
  • Python正则表达式
  • Python爬虫框架Scrapy
  • Python爬虫更高级的功能

1.Python基础知识学习缓存

这个是在网上学习时常常用到的资源:cookie

a)廖雪峰Python教程网络

b)Python官方文档session

2.关于urllib和urllib2库的使用

网上有教程,以后的博客也会有我本身的学习介绍,不过最佳的学习应该就是到官方文档中学习了。

3.正则表达式

因为我也仍是初学,也只是了解一点,如今还不能给出很好的学习经验,不过多用用搜索引擎,应该是可以 学的很快的

4.爬虫框架Scrapy

在爬虫的基本知识已经彻底熟练以后,就能够尝试去使用框架完成更好的东西。我在学习过程当中学习的是Scrapy框架,官方文档的介绍是这样的:

TML, XML源数据 选择及提取 的内置支持
提供了一系列在spider之间共享的可复用的过滤器(即 Item Loaders),对智能处理爬取数据提供了内置支持。
经过 feed导出 提供了多格式(JSON、CSV、XML),多存储后端(FTP、S三、本地文件系统)的内置支持
提供了media pipeline,能够 自动下载 爬取到的数据中的图片(或者其余资源)。
高扩展性。您能够经过使用 signals ,设计好的API(中间件, extensions, pipelines)来定制实现您的功能。
内置的中间件及扩展为下列功能提供了支持:
cookies and session 处理
HTTP 压缩
HTTP 认证
HTTP 缓存
user-agent模拟
robots.txt
爬取深度限制
针对非英语语系中不标准或者错误的编码声明, 提供了自动检测以及健壮的编码支持。
支持根据模板生成爬虫。在加速爬虫建立的同时,保持在大型项目中的代码更为一致。详细内容请参阅 genspider 命令。
针对多爬虫下性能评估、失败检测,提供了可扩展的 状态收集工具 。
提供 交互式shell终端 , 为您测试XPath表达式,编写和调试爬虫提供了极大的方便
提供 System service, 简化在生产环境的部署及运行
内置 Web service, 使您能够监视及控制您的机器
内置 Telnet终端 ,经过在Scrapy进程中钩入Python终端,使您能够查看而且调试爬虫
Logging 为您在爬取过程当中捕捉错误提供了方便
支持 Sitemaps 爬取
具备缓存的DNS解析器

Scrapy官方文档

参考博客:Python爬虫入门一之综述

相关文章
相关标签/搜索