python学习:(1)爬虫(抓取博客园新闻)

前言html

  说到python,对它有点耳闻的人,第一反应可能都是爬虫~python

  这两天看了点python的皮毛知识,忍不住想写一个简单的爬虫练练手,JUST DO ITajax

准备工做chrome

  要制做数据抓取的爬虫,对请求的源页面结构须要有特定分析,只有分析正确了,才能更好更快的爬到咱们想要的内容。编程

  打开博客园任何一个新闻页面,好比https://news.cnblogs.com/n/570973/,思路是经过这个源页面,而且根据页面中的“上一篇”、“下一篇”等连接,源源不断的爬取其它新闻内容。json

  浏览器访问https://news.cnblogs.com/n/570973/,右键“查看源代码”,初步只想取一些简单的数据(文章标题、做者、发布时间等),在HTML源码中找到相关数据的部分:windows

  1)标题(url):<div id="news_title"><a href="//news.cnblogs.com/n/570973/">SpaceX重复使用的飞船成功与国际空间站对接</a></div>浏览器

  2)做者:<span class="news_poster">投递人 <a href="//home.cnblogs.com/u/34358/">itwriter</a></span>网络

  3)发布时间:<span class="time">发布于 2017-06-06 14:53</span>函数

  4)当前新闻ID : <input type="hidden" value="570981" id="lbContentID">

  固然了,要想“顺藤摸瓜”,“上一篇”和“下一篇”连接的结构很是重要;但发现一个问题,页面中的这两个<a>标签,它的连接和文本内容,是经过js渲染的,这可如何是好?尝试寻找资料(python执行js之类的),可对于python菜鸟来讲,可能有点超前了,打算另找方案。

  虽然这两个连接是经过js渲染的,可是理论上来讲,js之因此能渲染该内容,应该也是经过发起请求,获得响应后执行的渲染吧;那么是否能够经过监视网页加载过程看看有什么有用信息呢?在此要为chrome/firefox这些浏览器点个赞了,开发者工具/网络,能够清清楚楚的看到全部资源的请求和响应状况。

  

  它们的请求地址分别为:

  1)上一篇新闻ID:https://news.cnblogs.com/NewsAjax/GetPreNewsById?contentId=570992

  2)下一篇新闻ID:https://news.cnblogs.com/NewsAjax/GetNextNewsById?contentId=570992

  响应的内容为JSON

  

  此处ContentID就是咱们须要的,能够根据这个值,知道当前新闻的上一篇或下一篇新闻URL,由于新闻发布的页面地址是有固定格式的:https://news.cnblogs.com/n/{{ContentID}}/  (红色内容就是可替换的ID)

工具

  1)python 3.6(安装的时候同时安装pip,而且加入环境变量)

  2)PyCharm 2017.1.3

  3)第三方python库(安装:cmd -> pip install name)

    a)pyperclip : 用于读写剪贴板

    b)requests : 基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库。它比 urllib 更加方便,能够节约咱们大量的工做

    c)beautifulsoup4 : Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,经过解析文档为用户提供须要抓取的数据

源码

代码我的以为都是很基础易懂的(毕竟菜鸟也写不出高深的代码),有疑问或是建议的,请不吝赐教

 

#! python3
# coding = utf-8
# get_cnblogs_news.py
# 根据博客园内的任意一篇新闻,获取全部新闻(标题、发布时间、发布人)
# https://news.cnblogs.com/n/123456/

# 这是标题格式 :<div id="news_title"><a href="//news.cnblogs.com/n/570973/">SpaceX重复使用的“龙”飞船成功与国际空间站对接</a></div>
# 这是发布人格式 :<span class="news_poster">投递人 <a href="//home.cnblogs.com/u/34358/">itwriter</a></span>
# 这是发布时间格式 :<span class="time">发布于 2017-06-06 14:53</span>

# 当前新闻ID :<input type="hidden" value="570981" id="lbContentID">

# html中获取不到上一篇和下一篇的直接连接,由于它是使用ajax请求后期渲染的
# 须要另外请求地址,获取结果,JSON
# 上一篇 https://news.cnblogs.com/NewsAjax/GetPreNewsById?contentId=570971
# 下一篇 https://news.cnblogs.com/NewsAjax/GetNextNewsById?contentId=570971

# 响应内容
# ContentID : 570971
# Title : "Mac支持外部GPU VR开发套件售599美圆"
# Submitdate : "/Date(1425445514)"
# SubmitdateFormat : "2017-06-06 14:47"

import sys, pyperclip
import requests, bs4
import json

# 解析并打印(标题、做者、发布时间、当前ID)
# soup : 响应的HTML内容通过bs4转化的对象
def get_info(soup):
    dict_info = {'curr_id': '', 'author': '', 'time': '', 'title': '', 'url': ''}

    titles = soup.select('div#news_title > a')
    if len(titles) > 0:
        dict_info['title'] = titles[0].getText()
        dict_info['url'] = titles[0].get('href')

    authors = soup.select('span.news_poster > a')
    if len(authors) > 0:
        dict_info['author'] = authors[0].getText()

    times = soup.select('span.time')
    if len(times) > 0:
        dict_info['time'] = times[0].getText()

    content_ids = soup.select('input#lbContentID')
    if len(content_ids) > 0:
        dict_info['curr_id'] = content_ids[0].get('value')

    # 写文件
    with open('D:/cnblognews.csv', 'a') as f:
        text = '%s,%s,%s,%s\n' % (dict_info['curr_id'], (dict_info['author'] + dict_info['time']), dict_info['url'], dict_info['title'])
        print(text)
        f.write(text)
    return dict_info['curr_id']

# 获取前一篇文章信息
# curr_id : 新闻ID
# loop_count : 向上多少条,若是为0,则无限向上,直至结束
def get_prev_info(curr_id, loop_count = 0):
    private_loop_count = 0
    try:
        while loop_count == 0 or private_loop_count < loop_count:
            res_prev = requests.get('https://news.cnblogs.com/NewsAjax/GetPreNewsById?contentId=' + curr_id)
            res_prev.raise_for_status()
            res_prev_dict = json.loads(res_prev.text)
            prev_id = res_prev_dict['ContentID']

            res_prev = requests.get('https://news.cnblogs.com/n/%s/' % prev_id)
            res_prev.raise_for_status()
            soup_prev = bs4.BeautifulSoup(res_prev.text, 'html.parser')
            curr_id = get_info(soup_prev)

            private_loop_count += 1
    except:
        pass

# 获取下一篇文章信息
# curr_id : 新闻ID
# loop_count : 向下多少条,若是为0,则无限向下,直至结束
def get_next_info(curr_id, loop_count = 0):
    private_loop_count = 0
    try:
        while loop_count == 0 or private_loop_count < loop_count:
            res_next = requests.get('https://news.cnblogs.com/NewsAjax/GetNextNewsById?contentId=' + curr_id)
            res_next.raise_for_status()
            res_next_dict = json.loads(res_next.text)
            next_id = res_next_dict['ContentID']

            res_next = requests.get('https://news.cnblogs.com/n/%s/' % next_id)
            res_next.raise_for_status()
            soup_next = bs4.BeautifulSoup(res_next.text, 'html.parser')
            curr_id = get_info(soup_next)

            private_loop_count += 1
    except:
        pass


# 参数从优先从命令行获取,若是无,则从剪切板获取
# url是博客园新闻版块下,任何一篇新闻
if len(sys.argv) > 1:
    url = sys.argv[1]
else:
    url = pyperclip.paste()

# 没有获取到有地址,则抛出异常
if not url:
    raise ValueError

# 开始从源地址中获取新闻内容
res = requests.get(url)
res.raise_for_status()
if not res.text:
    raise ValueError

#解析Html
soup = bs4.BeautifulSoup(res.text, 'html.parser')
curr_id = get_info(soup)
print('backward...')
get_prev_info(curr_id)
print('forward...')
get_next_info(curr_id)
print('done')

 

运行

  将以上源代码保存至D:/get_cnblogs_news.py ,windows平台下打开命令行工具cmd:

  输入命令:py.exe D:/get_cnblogs_news.py https://news.cnblogs.com/n/570992/ 回车

  解析:py.exe就不用解释了,第二个参数为python脚本文件,第三个参数为须要爬的源页面(代码里有另外一种考虑,若是你将https://news.cnblogs.com/n/570992/这个url拷贝在系统剪贴板的时候,能够直接运行:py.exe D:/get_cnblogs_news.py

  命令行输出界面(print)

  

  保存到csv文件的内容

  

 

推荐菜鸟python学习书箱或资料:

  1)廖雪峰的Python教程,很基础易懂:http://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000

  2)Python编程快速上手  让繁琐工做自动化.pdf

  

文章仅是给本身学习python的日记,若有误导请批评指正(不喜勿喷),如对您有帮助,荣幸之至。

相关文章
相关标签/搜索