如何从网页中下载图片

 

若是作为爬虫颇有必要从网页中下载图片到本地,那么咱们利用jsoup来进行该操做,jsoup 是一个很不错的html解析器。
网页中下载图片须要这么两步操做
1.获取绝对路径
不少网页中用的是相对路径,所以获取图片的绝对路径很重要
方法一:咱们就利用jsoup来获取
Element p_w_picpath = document.select("img").first();
String url = p_w_picpath.absUrl("src");
// url = http://www.example.com/p_w_picpaths/chicken.jpg
或者
String url = p_w_picpath.attr("abs:src");
他们的前提利用connect方式获取而不是文件方式
Document doc = Jsoup.connect("http://jsoup.org").get();
 
Element link = doc.select("a").first();
String relHref = link.attr("href"); // == "/"
String absHref = link.attr("abs:href"); // "http://jsoup.org/"
 
方法二:利用jdk中url
URL url  = new URL("http://www.example.com/index.html");
URI uri = url.toURI();
System.out.println(uri.resolve("p_w_picpaths/chicken.jpg").toString());
 
2.第二步则就是下载图片
URL   url   =   new   URL( "图片地址"); 
URLConnection   uc   =   url.openConnection(); 
InputStream   is   =   uc.getInputStream(); 
File   file   =   new   File( "本地路径 "); 
FileOutputStream   out   =   new   FileOutputStream(file); 
int   i=0; 
while   ((i=is.read())!=-1)   { 
out.write(i); 
is.close();
相关文章
相关标签/搜索