你们好,提及爬虫相信不少程序员都听到过,简单来说就是自动批量抓网络上信息的程序。接下来我结合github上一个爬虫框架NetDiscovery进行演示。html
框架可以帮助咱们处理一些基础的、与目标任务没直接联系的工做,让咱们专一在目标任务上。尤为对于爬虫初学者来讲,很快就能体会到操做爬虫带来的效果与成就感,而没必要去操心额外的事情。等入了门,再尝试不依赖框架独立从零写一个爬虫程序,而后再去研究别人已经搭建好的爬虫框架,等到能阅读爬虫框架源代码之后,相信您已经对网络爬虫有必定的研究了。java
Java JDK八、IntelliJ IDEA、Google Chromenode
爬虫框架NetDiscovery: github.com/fengzhizi71…git
从某人才招聘网上获取指定的岗位信息:公司名称、岗位名称程序员
用chrome浏览器打开目标网页,输入查询条件,找到展现岗位信息的网页: github
红框位置里的文字是咱们计划要写程序去自动获取的信息。正则表达式
建立一个gradle的java工程:chrome
在项目中添加爬虫框架NetDiscovery的两个jar包, 目前版本是0.0.9.3,版本不高,但版本的更新迭代很快,相信是一个有成长力的框架。浏览器
group 'com.sinkinka'
version '1.0-SNAPSHOT'
apply plugin: 'java'
sourceCompatibility = 1.8
repositories {
maven{url 'http://maven.aliyun.com/nexus/content/groups/public/'}
mavenCentral()
jcenter();
}
dependencies {
testCompile group: 'junit', name: 'junit', version: '4.12'
implementation 'com.cv4j.netdiscovery:netdiscovery-core:0.0.9.3'
implementation 'com.cv4j.netdiscovery:netdiscovery-extra:0.0.9.3'
}
复制代码
maven.aliyun.com/nexus/conte…bash
参考框架中example模块下的示例代码,以及另外一个实例项目: github.com/fengzhizi71…
在java的main方法里编写以下代码:
package com.sinkinka;
import com.cv4j.netdiscovery.core.Spider;
import com.sinkinka.parser.TestParser;
public class TestSpider {
public static void main(String[] args) {
//目标任务的网页地址,能够拷贝到浏览器去查看
String url = "http://www.szrc.cn/HrMarket/WLZP/ZP/0/%E6%95%B0%E6%8D%AE";
//依靠NetDiscovery,咱们只须要写一个parser类就能够实现基本的爬虫功能了
Spider.create()
.name("spider-1") //名字随便起
.url(url)
.parser(new TestParser()) //parser类
.run();
}
}
复制代码
TestParser类的代码:
package com.sinkinka.parser;
import com.cv4j.netdiscovery.core.domain.Page;
import com.cv4j.netdiscovery.core.parser.Parser;
import com.cv4j.netdiscovery.core.parser.selector.Selectable;
import java.util.List;
/**
* 针对目标网页的解析类
*/
public class TestParser implements Parser {
@Override
public void process(Page page) {
String xpathStr = "//*[@id=\"grid\"]/div/div[1]/table/tbody/tr";
List<Selectable> trList = page.getHtml().xpath(xpathStr).nodes();
for(Selectable tr : trList) {
String companyName = tr.xpath("//td[@class='td_companyName']/text()").get();
String positionName = tr.xpath("//td[@class='td_positionName']/a/text()").get();
if(null != companyName && null != positionName) {
System.out.println(companyName+"------"+positionName);
}
}
}
}
复制代码
运行结果:
本文依赖爬虫框架,用尽可能简单的代码演示了抓取网页信息的一种方法。后续会发布更多实操性的内容供你们参考。
NetDiscovery爬虫框架的基本原理图
下一篇:Java网络爬虫实操(2)