Python爬虫实战(1):爬取Drupal论坛帖子列表

图片描述

1,引言

在《Python即时网络爬虫项目: 内容提取器的定义》一文咱们定义了一个通用的python网络爬虫类,指望经过这个项目节省程序员一半以上的时间。本文将用一个实例讲解怎样使用这个爬虫类。咱们将爬集搜客老版论坛,是一个用Drupal作的论坛。python

2,技术要点

咱们在多个文章都在说:节省程序员的时间。关键是省去编写提取规则的时间,尤为是调试规则的正确性很花时间。在《1分钟快速生成用于网页内容提取的xslt》演示了怎样快速生成提取规则,接下来咱们再经过GooSeeker的api接口实时得到提取规则,对网页进行抓取。本示例主要有以下两个技术要点:git

  1. 经过GooSeeker API实时获取用于页面提取的xslt程序员

  2. 使用GooSeeker提取器gsExtractor从网页上一次提取多个字段内容。github

3,python源代码

# _*_coding:utf8_*_
# crawler_gooseeker_bbs.py
# 版本: V1.0

from urllib import request
from lxml import etree
from gooseeker import GsExtractor

# 访问并读取网页内容
url = "http://www.gooseeker.com/cn/forum/7"
conn = request.urlopen(url)
doc = etree.HTML(conn.read())

bbsExtra = GsExtractor() 
bbsExtra.setXsltFromAPI("31d24931e043e2d5364d03b8ff9cc77e" , "gooseeker_bbs_xslt")   # 设置xslt抓取规则,第一个参数是app key,请到会员中心申请
result = bbsExtra.extract(doc)   # 调用extract方法提取所需内容

print(str(result))

源代码下载位置请看文章末尾的GitHub源。segmentfault

4,抓取结果

运行上节的代码,便可在控制台打印出提取结果,是一个xml文件,若是加上换行缩进,内容以下图:
图片描述api

5,相关文档

1, Python即时网络爬虫项目: 内容提取器的定义网络

6,集搜客GooSeeker开源代码下载源

1, GooSeeker开源Python网络爬虫GitHub源app

7,文档修改历史

  • 2016-06-06:V1.0url

  • 2016-06-06:V2.0spa

  • 2016-06-06:V2.1,增长GitHub下载源

相关文章
相关标签/搜索