工做中常常与数据打交道,去网上抓取数据也成了屡见不鲜。之前就准备抽空总结下的。html
最近恰好看到 http://segmentfault.com/q/1010000000124036 上这篇文章有人问到了,java
并且下面有热心pythoner 已经回答了,特此整理下,以备忘。python
问题:如今要抓取一批页面,并将指定标签里面的数据抓取出来,如何作到通用性好,稳定可用?git
一、使用第三方库:mechanizegithub
import mechanize import cookielib if __name__=='__main__': br = mechanize.Browser() br.set_cookiejar(cookielib.LWPCookieJar()) # Cookie jar br.set_handle_equiv(True) # Browser Option br.set_handle_gzip(True) br.set_handle_redirect(True) br.set_handle_referer(True) br.set_handle_robots(False) br.set_handle_refresh(mechanize._http.HTTPRefreshProcessor(), max_time=1) br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')] br.open("http://apple.com") print br.title()
输出为Apple正则表达式
对于mechanize的详细使用,参考 http://my.oschina.net/leejun2005/blog/83451 ubuntu
二、使用第三方库: Beautiful Soup 扩展包来解析segmentfault
import urllib from bs4 import BeautifulSoup content = urllib.urlopen('http://www.apple.com/').read() soup = BeautifulSoup(content) print soup.find('title').string
输出为Apple浏览器
对于Beautiful Soup的详细使用,参考 http://www.crummy.com/software/BeautifulSoup/bs4/doc/cookie
Python爬虫入门(8):Beautiful Soup的用法 http://python.jobbole.com/81349/
三、使用第三方库: lxml 扩展包来解析
from lxml import html doc = html.parse('http://www.apple.com/') title = doc.find('.//title').text print title
四、可使用第三方库: pyquery (常常与 lxml 结合使用)
from pyquery import PyQuery as pq d = pq(url='http://apple.com') print 'Title: ', d('title').text()
五、直接使用正则来解析:
import urllib import re url='http://apple.com' html = urllib.urlopen(url).read() m = re.findall(r"<title>(.*)</title>", html) print m[0]
输出为Apple
有关python正则的使用请见《Python正则表达式操做指南》
注:
以上几种方法中,推荐优先使用前 4 种,或者有其它优秀的第三方库你也能够尝试。
之因此不推荐最后的正则解析缘由有2:
(1)HTML存在一些标签不规范的场景,如<p>, <BR>, 等能够单独出现,不用配对出现,
你能够简单的认为他的语法很是灵活,不像 xml 那样限制的很严格,之因此浏览器能解析是由于
浏览器背后作了许多鲜为人知的解析工做,若是你要用正则来作,你也须要考虑不少状况,
并且通用性也会大打折扣。这也是建议你选择第三方库的主要缘由。
(2)直接用正则这么解析,在面对复杂的抓取的时候,正则的性能会是严重的瓶颈。
REF:
Python网页解析:BeautifulSoup vs lxml.html
http://my.oschina.net/apoptosis/blog/118647
六、在 java 中你可使用 jsoup 来方便的解析 html 标签:
使用 jsoup 对 HTML 文档进行解析和操做
http://www.ibm.com/developerworks/cn/java/j-lo-jsouphtml/
http://jsoup.org/cookbook/extracting-data/example-list-links
https://github.com/code4craft/jsoup-learning jsoup-learning
public static void parseHtmlTag(String html) throws IOException { // Document doc = Jsoup.parse(html); Document doc = Jsoup.connect("http://www.hao123.com").get(); Elements links = doc.select("a[href]"); for (Element link : links) { System.out.println(link.attr("abs:href") + "\t" + link.text()); } }
http://www.hao123.com# 再也不提醒 http://go.client.baidu.com/?linkid=211 http://www.hao123.com 设为主页 http://www.hao123.com/redian/tongzhi.htm 主页修复 ...