本节内容:
一、正则表达式
二、re模块的运用
三、简单的爬虫练习
1、正则表达式(Regular Expression)
正则表达式是对字符串操做的⼀种逻辑公式. 咱们⼀般使⽤正则表达式对字符串进⾏匹配和过滤. 使⽤正则的优缺点:
优势: 灵活, 功能性强, 逻辑性强.
缺点: 上⼿难. ⼀旦上⼿, 会爱上这个东⻄
⼯具: 各⼤⽂本编辑器⼀般都有正则匹配功能. 咱们也能够去
http://tool.chinaz.com/regex/进⾏在线测试.
一、元字符: 元字符才是正则表达式的灵魂.
元字符中的内容太多了, 在这⾥只介绍⼀些常⽤的.
二、字符组
字符组很简单⽤[]括起来. 在[]中出现的内容会被匹配. 例如:[abc] 匹配a或b或c
若是字符组中的内容过多还可使⽤- ,
例如: [a-z] 匹配a到z之间的全部字⺟ [0-9]匹配全部阿拉伯数字
思考: [a-zA-Z0-9]匹配的是什么?
三、简单的元字符
基本的元字符. 这个东⻄⽹上⼀搜⼀⼤堆. 可是常⽤的就那么⼏个:
. 匹配除换⾏符之外的任意字符
\w 匹配字⺟或数字或下划线
\s 匹配任意的空⽩符
\d 匹配数字
\n 匹配⼀个换⾏符
\t 匹配⼀个制表符
\b 匹配⼀个单词的结尾
^ 匹配字符串的开始
$ 匹配字符串的结尾
\W 匹配⾮字⺟或数字或下划线
\D 匹配⾮数字
\S 匹配⾮空⽩符
a|b 匹配字符a或字符b
() 匹配括号内的表达式,也表示⼀个组
[...] 匹配字符组中的字符
[^...] 匹配除了字符组中字符的全部字符
四、量词
如何⼀次性匹配不少个字符呢,
咱们要⽤到量词
* 重复零次或更屡次
+ 重复⼀次或更屡次
? 重复零次或⼀次
{n} 重复n次
{n,} 重复n次或更屡次
{n,m} 重复n到m次
五、惰性匹配和贪婪匹配
在量词中的*, +,{} 都属于贪婪匹配. 就是尽量多的匹配到结果.
str: 麻花藤昨天让英雄联盟关服了
reg: 麻花藤.*
此时匹配的是整句话
若是.*后面跟东西,就是尽量的到后面的东西匹配

在使⽤.*后⾯加了, 则是尽量的少匹配. 表⽰惰性匹配
str: 麻花藤昨天让英雄联盟关服了
reg: 麻花藤.*?
此时匹配的是 麻花藤
str: <div>胡辣汤</div>
reg: <.*>
结果: <div>胡辣汤</div>
str: <div>胡辣汤</div>
reg: <.*?>
结果:
<div>
</div>
str: <div>胡辣汤</div>
reg: <(div|/div*)?>
结果:
<div>
</div>
.*?x的特殊含义 找到下⼀个x为⽌.
str: abcdefgxhijklmn
reg: .*?x
结果:abcdefgx
六、正则分组
在正则中使⽤()进⾏分组.
老的⾝份证号有15位. 新的⾝份证号有18位. 而且新的⾝份证号结尾有多是x.
^[1-9]\d{14}(\d{2}[0-9x])?$
^([1-9]\d{16}[0-9x]|[1-9]\d{14})$
七、转义
在正则表达式中, 有不少有特殊意义的是元字符,
⽐如\n和\s等,若是要在正则中匹配正常的"\n"⽽不是"换⾏符"就须要对"\"进⾏转义, 变成'\\'.
在python中, ⽆论是正则表达式, 仍是待匹配的内容, 都是以字符串的形式出现的,
在字符串中\也有特殊的含义, 自己还须要转义. 因此若是匹配⼀次"\n", 字符串中要写成'\\n', 那么正则⾥就要写成"\\\\n",这样就太麻烦了.
这个时候咱们就⽤到了r’\n’这个概念, 此时的正则是r’\n’就能够了.
2、re模块
一、search
search 会进⾏匹配. 可是若是匹配到了第⼀个结果. 就会返回这个结果. 若是匹配不上search返回的则是None
fe: 找到第一个就返回,找不到就返回None
search 查找,找到就返回,找不到就None res = re.search("e", "i have a dream.") print(res.group()).
二、match
只能从字符串的开头进⾏匹配
fe:
三、findall
查找全部. 返回list
fe:
lst = re.findall("\w+", "alex is a oldboy") print(lst)
四、 finditer
和findall差很少. 只不过这时返回的是迭代器
fe:
it = re.finditer("\w+", "i have a dream") print(it)
五、分组
()优先级
(?:xxx)去掉优先级,匹配所有
()这个分组是优先级
lst = re.findall(r"www\.(baidu|oldboy)\.com","www.baidu.com")
六、其余操做
ret = re.split('[ab]', 'qwerafjbcd')
八、爬虫重点
obj = re.compile(r'(?P<id>\d+)(?P<name>e+)')
九、两个坑,分组优先级,和split的切割
坑1:注意: 在re模块中和咱们在线测试⼯具中的结果多是不⼀样的.
ret = re.findall('www.(baidu|oldboy).com', 'www.oldboy.com') print(ret)
坑2:split⾥也有⼀个坑
ret=re.split("\d+","eva3egon4yuan") print(ret)
lst = re.split("[ab]", "alex is a good man and have big bande") print(lst)
3、简单爬虫练习
()这种优先级的问题有时候会帮咱们完成不少功能.
fe1: 来看⼀个比较复杂的例⼦,
内含干掉数字签名证书的方法:
import re from urllib.request import urlopen import ssl
fe2: 简单的爬虫
from urllib import request import re url = "https://www.dytt8.net/html/gndy/dyzz/20181114/57791.html"
fe3:多个分页信息的爬虫
from urllib.request import urlopen import re obj = re.compile(r'<div class="item">.*?<spanclass="title">(?P<name>.*?)</span>.*?导演: (?P<daoyan>.*?) .*?<span class="rating_num" property="v:average">(?P<fen>.*?)</span>.*?<span>(?P<ren>.*?)人评价</span>', re.S) def getContent(url): content = urlopen(url).read().decode("utf-8") return content def parseContent(content): it = obj.finditer(content)
总结:
正则表达式和re模块就说这么多. 若是要把正则全部的内容所有讲清楚讲明⽩, ⾄少要⼀周以上的时间. 对于咱们⽇常使⽤⽽⾔. 上述知识点已经够⽤了. 若是碰到⼀些极端状况建议想办法分部处理. 先对字符串进⾏拆分. 而后再考虑⽤正则.