由于最近需要使用爬虫爬取数据进行测试,所以开始了爬虫的填坑之旅,那么首先就是先系统的学习下关于正则相关的知识啦。所以将下面正则方面的知识点做了个整理。语言环境为Python。主要讲解下Python的Re模块。
下面的语法我就主要列出一部分,剩下的在python官网直接查阅即可: docs.python.org/3/library/r…
一、基础语法总结
1.1、匹配单个字符
a . \d \D \w \W \s \S [...] [^...]
匹配单个字符(.)
规则:匹配除换行之外的任意字符
In [24]: re.findall("f.o","foo is not fao") Out[24]: ['foo', 'fao']
匹配任意(非)数字字符(\d \D)
\d [0-9]
\D [^0-9]
匹配任意(非)普通字符(\w \W)
\w 普通字符 包括[_0-9A-Za-z] 同时也包括汉字
\W 非普通字符
匹配任意(非)空字符(\s \S)
\s 匹配任意空字符 [\r\n\t]
\S 匹配任意非空字符
匹配字符集合([...])
[A-Z][a-z][0-9][_123a-z]
匹配字符集([^...])
规则:字符集取非,除列出的字符之外的任意一个字符
[^abc] --> 除a b c之外任意字符
1.2、匹配多个字符
* 匹配0次或者多次
+ 匹配1次或者多次
"htmlcode">In [61]: re.search(r"(https|http|ftp):\/\/\w+\.\w+\.(com|cn)","https://www.baidu.com").group(0) Out[61]: 'https://www.baidu.com' In [62]: re.search(r"(https|http|ftp):\/\/\w+\.\w+\.(com|cn)","https://www.baidu.com").group(1) Out[62]: 'https'1.6、贪婪模式和非贪婪模式
正则表达式的重复匹配总是尽可能多的向后匹配更多的内容。 贪婪模式包括:* + "htmlcode">
In [106]: re.findall(r"ab+","abbbbbbbb") Out[106]: ['ab'] In [107]: re.findall(r"ab","abbbbbbbb") Out[107]: ['a']二、Re模块
接下来我所有函数里面的参数解释如下:
pattern:正则表达式
string:目标字符串
pos:截取目标字符串起始位置
endpose:截取目标字符串结束位置
flags:功能标志
replaceStr:替换的字符串
max:最多替换几处(默认替换全部)有上图我们看出来,接下来我们要将的Python中re模块、regex对象、match对象三者之间是存在一定关系的。
1、re模块的compile方法返回一个regex对象
2、re模块和regex对象的finditer()、fullmatch()、match()、search()等方法返回一个match对象
3、他们分别有自己的属性和方法
2.1、compile
regex = re.compile(pattern, flags = 0) # 生成正则表达式对象2.2、findall
re.findall(pattern,string,pos,endpose) # 从目标字符串中匹配所有符合条件的内容2.3、split
re.split(pattern,string,flags) #根据正则表达式对目标字符串进行分割
In [79]: re.split(r'\s+',"Hello World") Out[79]: ['Hello', 'World']2.4、sub
re.sub(pattern,replaceStr,string,max,flags) In [80]: re.sub(r'\s+',"##","hello world") Out[80]: 'hello##world'2.5、subn
re.subn(pattern,replaceStr,string,max,flags) #功能同sub,但是返回值返回替换后的字符串和替换了几处
In [80]: re.sub(r'\s+',"##","hello world") Out[80]: ('hello##world',1)2.6、finditer
re.finditer(pattern,string) #使用正则表达式匹配目标字符串,返回一个match对象,match对象调用group()之后才能拿到值
In [87]: it = re.finditer(r'\d+',"2014nianshiqiqngduo 08aoyun 512dizhen") In [88]: for i in it: ....: print(i) ....: <_sre.SRE_Match object at 0x7f0639767920> <_sre.SRE_Match object at 0x7f0639767ac0> <_sre.SRE_Match object at 0x7f0639767920> In [93]: it = re.finditer(r'\d+',"2014nianshiqiqngduo 08aoyun 512dizhen") In [94]: for i in it: ....: print(i.group()) ....: 2014 08 5122.7、fullmatch
fullmatch(pattern,string,flags) #完全匹配目标字符串,相当于加了^ 和 $
2.8、match
re.match(pattern,string,flags) #匹配目标字符串开头的位置
2.9、search
re.search(pattern,string,flags) # 正则表达式匹配目标字符串,只匹配第一处
三、一些练习题
3.1、匹配首字母大写的单词
import re f = open('test.txt') pattern= r'\b[A-Z][a-zA-Z]*\s*' # pattern= r'\b[A-Z]\S' L = [] for i in f: L += re.findall(pattern,i) print(L)test.txt文档内容如下:
Hello World -12.6 Nihao 123 How are you -12 1.24 asdk 34%, 占比 1/2 2003 - 2005./%3.2、匹配数字(正数、负数、小数、百分数、分数)
import re pattern = "-" f = open('test.txt') l = [] for line in f: l += re.finditer(pattern,line) for i in l: print(i.group())总结
以上所述是小编给大家介绍的Python 正则表达式模块,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新动态
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]