Python基于urllib,re爬取百度的国内即时新闻

Python应用于爬虫领域业界已经至关的普遍了,今天就采用urllib + re 爬取下百度国内即时新闻。html

Image 2.png


软件环境:python


Python    : 3.6.0   windows

PyCharm: Community 2017.2 ide


Python 下载地址 https://www.python.org/downloads/url

Pycharm 下载地址(Community是免费的) https://www.jetbrains.com/pycharm/download/#section=windows spa


主要思路:code

采用urllib请求制定url,拿到网页的html,而后采用re进行正则匹配找到新闻标题htm


爬取过程:blog


1. 导入urllib 和 re 两个模块utf-8

import urllib
from urllib import request
import re


2. 采用urllib.request.urlopen 打开百度信息url,并取得全部html

url = "http://news.baidu.com/guonei"
response = urllib.request.urlopen(url)
html = response.read().decode('utf-8')


urllib.urlopen()方法用于打开一个url地址。

read()方法用于读取URL上的数据,并把整个页面下载下来。


3. 在Chrome中按F12能够查看到网页的源代码,能够看到新闻位于 div id="instant-news"下面

image.png

4. 获取即时信息的整个div的html并存储到变量: instant_news_html

pattern_of_instant_news = re.compile('<div id="instant-news.*?</div>',re.S)
instant_news_html = re.findall(pattern_of_instant_news, html)[0]


5. 从所有news的html中匹配出每个新闻标题

pattern_of_news = re.compile('<li><a.*?>(.*?)</a></li>', re.S)
news_list = re.findall(pattern_of_news, instant_news_html)
for news in news_list:
    print(news)

将会看到如入结果

image.png

完整源代码:

import urllib
from urllib import request
import re

url = "http://news.baidu.com/guonei"
response = urllib.request.urlopen(url)
html = response.read().decode('utf-8')

pattern_of_instant_news = re.compile('<div id="instant-news.*?</div>',re.S)
instant_news_html = re.findall(pattern_of_instant_news, html)[0]

pattern_of_news = re.compile('<li><a.*?>(.*?)</a></li>', re.S)
news_list = re.findall(pattern_of_news, instant_news_html)

for news in news_list:
    print(news)


参考资料:

urllib  

re

相关文章
相关标签/搜索