zg手册 之 scrapy 开发(4)-- javascript 动态页面的抓取

javascript 动态页面

目前许多网站大量运用js脚本进行一些页面的处理,这些页面的抓取对爬虫是个挑战。 这类页面的抓取,我用到了下面的方法javascript

  1. 分析页面(firebug/chrome调试工具 等),找到ajax获取的数据源,看是否能够直接发请求获取java

  2. 调用浏览器引擎(webkit)获取最后 js 执行过完成的页面python

  3. 调用无界面依赖的浏览器引擎(headless browser) casperjs,phantomjs 获取最后的页面web


使用 webkit 抓取

安装须要的软件ajax

# Xvfb 模拟 Xwindows
sudo apt-get install xvfb
# 安装 python webkit包

添加增长下面的下载代码(增长的位置我后面说明)chrome

webview = webkit.WebView()
webview.connect( 'load-finished', lambda v,f: gtk.main_quit() )
webview.load_uri( request.url )
gtk.main()
renderedBody = str(webview.execute_script('document.documentElement.innerHTML'))
# renderedBody 是执行后页面的内容

注意的上面的代码我没有说明写在哪里,网上不少例子都是说写 下载中间件(DownloaderMiddleware)里,这是有些问题的windows

  1. scrapy 是基于twisted的异步网络框架。若是下载中间件中长时间阻塞,就会阻塞整个异步处理流程浏览器

  2. scrapy 自己的下载 delay 功能,是在中间件下面一层生效(中间件和下载器之间),也就是说若是在下载中间件这里中断处理流程,下载时间间隔功能将失去做用。网络

  3. 还有一个问题就是 上面的方案须要启动模拟的 x-server (xvfb)框架


目前的方案

  1. casperjs,phantomjs 无界面浏览器(headless browser)

  2. 写一个 scrapy 的 下载handler,这是scrapy支持的插件,而且不影响其余框架功能的运行,下载器的开发我会在下一篇讲一下


原文连接: http://www.hopez.org/blog/9/1396371345

相关文章
相关标签/搜索