使用python写爬虫的人,应该都听过beautifulsoup4
这个包,用来它来解析网页甚是方便。那么在java里有没有相似的包呢?固然有啦!并且也很是好用。下面隆重介绍jsoup
!html
jsoup 是一个解析 HTML 的第三方 java 库,它提供了一套很是方便的 API,可以使用 DOM,CSS 以及类 jQuery 的操做方法来取出和操做数据。java
jsoup
实现了 WHATWG HTML5 规范,可以与现代浏览器解析成相同的DOM。其解析器可以尽最大可能从你提供的HTML文档来建立一个干净的解析结果,不管HTML的格式是否完整。好比它能够处理没有关闭的标签。python
举个栗子:正则表达式
<p>Lorem <p>Ipsum parses to <p>Lorem</p> <p>Ipsum</p>
它也能够处理隐式标签,建立可靠的文档结构(html标签包含head 和 body,在head只出现恰当的元素)。api
官网地址在这里, 对应的中文文档在这里,以及 jar 包的下载地址。浏览器
文档由多个Elements和TextNodes组成 ;cookie
其继承结构以下:Document继承Element继承Node, TextNode继承 Node.post
一个Element包含一个子节点集合,并拥有一个父Element。他们还提供了一个惟一的子元素过滤列表。编码
jsoup 能够从包括字符串、URL 地址以及本地文件来加载 HTML 文档,并生成 Document 对象实例。url
// (1)从字符串中获取 String html = "<html><head><title>First parse</title></head>" + "<body><p>Parsed HTML into a doc.</p></body></html>"; Document doc1 = Jsoup.parse(html); // (2)从 URL 直接加载 HTML 文档 // get方法 Document doc2 = Jsoup.connect("http://www.163.com").get(); // post方法 Document doc = Jsoup.connect("http://example.com") .data("query", "Java") .userAgent("Mozilla") .cookie("auth", "token") .timeout(3000) .post(); // (3)从文件中加载 HTML 文档 File input = new File("D:/test.html"); Document doc = Jsoup.parse(input,"UTF-8","http://www.163.com/");
经常使用到的方法以下:
public static Connection connect(String url) public static Document parse(String html, String baseUri) public static Document parse(URL url, int timeoutMillis) throws IOException public static Document parse(File in, String charsetName) throws IOException public static Document parse(InputStream in, String charsetName, String baseUrl) throws IOException
parse
方法可以将输入的 HTML 解析为一个新的文档 (Document),只要解析的不是空字符串,就能返回一个结构合理的文档,其中包含(至少) 一个head和一个body元素。
上面的参数 baseUri
的做用是,若是要解析的html中存在相对路径,那么就根据这个参数变成绝对路径, 若是不须要能够传入一个空字符串。
注:经过connect方法来得到 html 源码,有的时候会遇到乱码的问题,这个时候该怎么办么?方法里有一个 parse
方法,传入参数 InputStream
、charsetName
以及baseUrl
,全部能够这样解决:
String url = "http://xxxxxxx"; Document document = Jsoup.parse(new URL(url).openStream(), "GBK", url);// 以 gbk 编码为栗。
Jsoup的强项是解析html,固然了,它能处理一些简单状况,遇到复杂的情形仍是使用 httpClient 这个包吧,你值得拥有!
举个栗子
Element content = doc.getElementById("content"); Elements links = content.getElementsByTag("a"); Elements mx = content.getElementsByClass("help");
注:doc 为 Document 对象。
还有写经常使用的方法,好比
public Elements getElementsByAttributeValue(String key, String value) public Element attr(String attributeKey, String attributeValue) public Elements getAllElements() // 得到孩子节点中全部的文本拼接 public String text() // 得到节点的内部html public String html()
Document 对象还有一个方法
// 获取标题 public String title() // 得到某节点的html,这个方法继承自Node类,因此Element类也有该方法 public String outerHtml()
在元素检索方面,jsoup 的选择器简直无所不能。
jsoup 选择器不少,这里仅仅举出几个栗子,
Elements links = doc.select("a[href]"); // 具备href属性的a标签 Elements pngs = doc.select("img[src$=.png]");// src属性以.png结尾的img标签 Element masthead = doc.select("div.masthead").first();// class属性为masthead的div标签中的第一个 Elements resultLinks = doc.select("h3.r > a"); // class属性为r的h3标签的直接子a标签 Elements resultLinks = doc.select(img[src~=(?i)\.(png|jpe?g)])
Selector选择器概述
tagname: 经过标签查找元素,好比:a ns|tag: 经过标签在命名空间查找元素,好比:能够用 fb|name 语法来查找 <fb:name> 元素 #id: 经过ID查找元素,好比:#logo .class: 经过class名称查找元素,好比:.masthead [attribute]: 利用属性查找元素,好比:[href] [^attr]: 利用属性名前缀来查找元素,好比:能够用[^data-] 来查找带有HTML5 Dataset属性的元素 [attr=value]: 利用属性值来查找元素,好比:[width=500] [attr^=value], [attr$=value], [attr*=value]: 利用匹配属性值开头、结尾或包含属性值来查找元素,好比:[href*=/path/] [attr~=regex]: 利用属性值匹配正则表达式来查找元素,好比: img[src~=(?i)\.(png|jpe?g)] *: 这个符号将匹配全部元素
Selector选择器组合使用
el#id: 元素+ID,好比: div#logo el.class: 元素+class,好比: div.masthead el[attr]: 元素+class,好比: a[href] 任意组合,好比:a[href].highlight ancestor child: 查找某个元素下子元素,好比:能够用.body p 查找在"body"元素下的全部 p元素 parent > child: 查找某个父元素下的直接子元素,好比:能够用div.content > p 查找 p 元素,也能够用body > * 查找body标签下全部直接子元素 siblingA + siblingB: 查找在A元素以前第一个同级元素B,好比:div.head + div siblingA ~ siblingX: 查找A元素以前的同级X元素,好比:h1 ~ p el, el, el:多个选择器组合,查找匹配任一选择器的惟一元素,例如:div.masthead, div.logo
伪选择器selectors
:lt(n): 查找哪些元素的同级索引值(它的位置在DOM树中是相对于它的父节点)小于n,好比:td:lt(3) 表示小于三列的元素 :gt(n):查找哪些元素的同级索引值大于n,好比: div p:gt(2)表示哪些div中有包含2个以上的p元素 :eq(n): 查找哪些元素的同级索引值与n相等,好比:form input:eq(1)表示包含一个input标签的Form元素 :has(seletor): 查找匹配选择器包含元素的元素,好比:div:has(p)表示哪些div包含了p元素 :not(selector): 查找与选择器不匹配的元素,好比: div:not(.logo) 表示不包含 class=logo 元素的全部 div 列表 :contains(text): 查找包含给定文本的元素,搜索不区分大不写,好比: p:contains(jsoup) :containsOwn(text): 查找直接包含给定文本的元素 :matches(regex): 查找哪些元素的文本匹配指定的正则表达式,好比:div:matches((?i)login) :matchesOwn(regex): 查找自身包含文本匹配指定正则表达式的元素
注: 上述伪选择器索引是从0开始的,也就是说第一个元素索引值为0,第二个元素index为1等。
对于 Elements 的来历,看这里
public class Elements extends ArrayList<Element>
另外,能够查看Selector API参考来了解更详细的内容
能够看出,jsoup 使用跟 jQuery 如出一辙的选择器对元素进行检索,以上的检索方法若是换成是其余的 HTML 解释器,至少都须要不少行代码,而 jsoup 只须要一行代码便可完成。
// 为全部连接增长 rel=nofollow 属性 doc.select("div.comments a").attr("rel", "nofollow"); // 为全部连接增长 class=mylinkclass 属性 doc.select("div.comments a").addClass("mylinkclass"); // 删除全部图片的 onclick 属性 doc.select("img").removeAttr("onclick"); // 清空全部文本输入框中的文本 doc.select("input[type=text]").val(""); // 得到rel属性的值 doc.select("div.comments a").attr("rel");