学习网站:
麦子学院scrapy
python网络爬虫
解析代码:python
import scrapy from tutorial.items import DmItem class DmozSpider(scrapy.Spider): name = "dm" #爬虫名 allowed_domains = ["dmoz.org"]#allow_domains是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页。 start_urls = [ "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/", "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/" ]#要爬取的网站 #parse解析的方法, #调用的时候传入从每个URL传回的Response对象做为惟一参数, #负责解析并匹配抓取的数据(解析为item),跟踪更多的URL。 def parse(self, response): #爬取网页全部的ul标签下li标签 for li in response.xpath('//*[@id="bd-cross"]/fieldset[3]/ul/li'): #项目=载入DmItem()类 item = DmItem() #项目['标题']=li标签里面的a标签的文子() item['title'] = li.xpath('a/text()').extract() #链接=li标签里a标签的href属性 item['link'] = li.xpath('a/@href').extract() #描述=li标签里的text() item['desc'] = li.xpath('text()').extract() yield item#返回项目
备注:简单的罗列一下有用的xpath路径表达式网络