原本这篇文章该几个月前写的,后来忙着忙着就给忘记了。
ps:事多有时候反倒会耽误事。
几个月前,记得群里一朋友说想用selenium去爬数据,关于爬数据,通常是模拟访问某些固定网站,将本身关注的信息进行爬取,而后再将爬出的数据进行处理。
他的需求是将文章直接导入到富文本编辑器去发布,其实这也是爬虫中的一种。
其实这也并不难,就是UI自动化的过程,下面让咱们开始吧。css
一、java语言
二、IDEA开发工具
三、jdk1.8
四、selenium-server-standalone(3.0以上版本)html
import org.junit.AfterClass; import org.junit.BeforeClass; import org.junit.Test; import org.openqa.selenium.By; import org.openqa.selenium.WebDriver; import org.openqa.selenium.chrome.ChromeDriver; import java.awt.*; import java.awt.event.KeyEvent; import java.util.concurrent.TimeUnit; /** * @author rongrong * Selenium模拟访问网站爬虫操做代码示例 */ public class Demo { private static WebDriver driver; static final int MAX_TIMEOUT_IN_SECONDS = 5; @BeforeClass public static void setUpBeforeClass() throws Exception { driver = new ChromeDriver(); String url = "https://temai.snssdk.com/article/feed/index?id=6675245569071383053&subscribe=5501679303&source_type=28&content_type=1&create_user_id=34013&adid=__AID__&tt_group_id=6675245569071383053"; driver.manage().window().maximize(); driver.manage().timeouts().implicitlyWait(MAX_TIMEOUT_IN_SECONDS, TimeUnit.SECONDS); driver.get(url); } @AfterClass public static void tearDownAfterClass() throws Exception { if (driver != null) { System.out.println("运行结束!"); driver.quit(); } } @Test public void test() throws InterruptedException { Robot robot = null; try { robot = new Robot(); } catch (AWTException e1) { e1.printStackTrace(); } robot.keyPress(KeyEvent.VK_CONTROL); robot.keyPress(KeyEvent.VK_A); robot.keyRelease(KeyEvent.VK_A); Thread.sleep(2000); robot.keyPress(KeyEvent.VK_C); robot.keyRelease(KeyEvent.VK_C); robot.keyRelease(KeyEvent.VK_CONTROL); driver.get("https://ueditor.baidu.com/website/onlinedemo.html"); Thread.sleep(2000); driver.switchTo().frame(0); driver.findElement(By.tagName("body")).click(); robot.keyPress(KeyEvent.VK_CONTROL); robot.keyPress(KeyEvent.VK_V); robot.keyRelease(KeyEvent.VK_V); robot.keyRelease(KeyEvent.VK_CONTROL); Thread.sleep(2000); } }
笔者并非特别建议使用selenium作爬虫,缘由以下:java
每次运行爬虫都要打开一个浏览器,初始化还须要加载图片、JS渲染等等一大堆东西;web
有人说,把换成无头浏览器,原理都是同样的,都是打开浏览器,并且不少网站会验证参数,若是对方看到你恶意请求访问,会办了你的请求,而后你又要考虑更换请求头的事情,事情复杂程度不知道多了多少,还得去改代码,麻烦死了。chrome
加载了不少可能对您没有价值的补充文件(如css,js和图像文件)。 与真正须要的资源(使用单独的HTTP请求)相比,这可能会产生更多的流量。浏览器