代码地址以下:
http://www.demodashi.com/demo/11643.htmlhtml
昨天LZ去面试,遇到一个大牛,被血虐一番,发现本身基础仍是很薄弱,对java一些原理掌握的仍是不够稳固,好比java反射注解,知道一点就是说不出来,很尴尬... 生命不止,学习不止啊java
以前那个项目 QNews 用的是的第三方的数据平台,因此访问次数会有限制,这就很无奈。。。git
个人博客地址github
天天只能请求100次....可是LZ这个穷屌丝也买不起服务器,因此就上网查,有什么别的方法能够获取数据,意外之间发现了jsoup这个强大的框架,就花了上午时间学习了一下,而后下午作了一个小Demo,功能比较单一,请见谅。面试
其实一开始的时候是想 爬今日头条的数据,可是发现数据老是为空,我估计是上锁了... 而后就把矛头转向了 简书,哈哈哈...果真简书就是好,数据直接就能够爬到了, 好开心啊!!浏览器
先演示一波动态图:服务器
话说这个布局就花了我半个小时...框架
一些基础的我就不说了,就简单说明一下个人数据是如何爬到的。能够直接去看一下个人源码,写的比较仓促,一些细节没有处理好,多多指教。布局
官方文档学习
compile 'org.jsoup:jsoup:1.9.2'
在单个部分上 右击,而后点击检查选项(我用的是QQ浏览器,其余何尝试),底部就会跳出网页的源码,而且会跟踪到这个item对应的源码。
从上图能够大概了解到每一个<li></li>
标签里的内容就是咱们每一个item的信息。
Document
对象Document document = Jsoup.connect("http://www.jianshu.com/") .timeout(10000) .get();
这里经过创建与服务器的连接,并设置10s的超时链接来获取
Document
对象
Elements
对象Elements noteList = document.select("ul.note-list"); Elements li = noteList.select("li");
找到文章列表模块,发现
<ul class="note-list></ul>
是咱们须要信息的跟标签。经过select
方法查询节点全部信息。
for (Element element : li) { ... }
下面所有都是
li
标签的列表,里面的内容大体类似,咱们就能够经过循环来遍历里面的信息。
由于信息比较多,我就选择比较有表明性的来将一下。
有个很是简单的方式:直接在你须要获取内容的部分右击,点击 检查,就能够直接追踪到要查询的位置。
就拿标题而言,直接在标题右击-->检查,便可,一目了然。而后我把数据截图一下。
String title = element.select("a.title").text()
经过
select
查询节点信息,而后.text
获取里面文本内容。
String avatar = element.select("a.avatar").select("img").attr("src")
这个就是先找到头像 节点,而后图片节点,最后经过
attr
获取图片url
String authorLink = element.select("a.blue-link").attr("abs:href")
这里注意
href
元素,他存放的就是跳转连接,不过是相对路径,这个时候就须要经过attr("abs:href")
获取绝对路径。
其余 就 大同小异,其实我知道也就这么多,也是不断尝试经过打印得出来的,仍是比较心酸的,比较没学过 js
,不过对 js
挺有兴趣的。
剩下的就是将获取到的数据加载到bean对象中
public class JianshuBean { private String authorName; // 做者 private String authorLink; // 做者连接 private String time; // 更新时间 private String primaryImg; // 主图 private String avatarImg; // 头像 private String title; // 标题 private String titleLink; // 标题连接 private String content; // 内容 private String collectionTagLink; // 专题连接 private String readNum; // 阅读量 private String talkNum; // 评论 private String likeNum; // 喜欢 private String collectionTag; // 专题 // ... get set }
for (Element element : li) { JianshuBean bean = new JianshuBean(); bean.setAuthorName(element.select("div.name").text()); // 做者姓名 bean.setAuthorLink(element.select("a.blue-link").attr("abs:href")); // 做者首页连接 bean.setTime(element.select("span.time").attr("data-shared-at")); // 发表时间 bean.setPrimaryImg(element.select("img").attr("src")); // 主图 bean.setAvatarImg(element.select("a.avatar").select("img").attr("src")); // 头像 bean.setTitle(element.select("a.title").text()); // 标题 bean.setTitleLink(element.select("a.title").attr("abs:href")); // 标题连接 bean.setContent(element.select("p.abstract").text()); // 内容 bean.setCollectionTagLink(element.select("a.collection-tag").attr("abs:href")); // 专题连接 String[] text = element.select("div.meta").text().split(" "); if (text[0].matches("[0-9]+")) { bean.setReadNum(text[0]); bean.setTalkNum(text[1]); bean.setLikeNum(text[2]); } else { bean.setCollectionTag(text[0]); bean.setReadNum(text[1]); bean.setTalkNum(text[2]); bean.setLikeNum(text[3]); } mBeans.add(bean); }
再来看一下效果:
但愿你们多多支持我,谢谢!
jsoup爬虫简书首页数据作个小Demo
注:本文著做权归做者,由demo大师代发,拒绝转载,转载须要做者受权