由于最近需要使用爬虫爬取数据进行测试,所以开始了爬虫的填坑之旅,那么首先就是先系统的学习下关于正则相关的知识啦。所以将下面正则方面的知识点做了个整理。语言环境为Python。主要讲解下Python的Re模块。
下面的语法我就主要列出一部分,剩下的在python官网直接查阅即可: docs.python.org/3/library/r…
一、基础语法总结
1.1、匹配单个字符
a . \d \D \w \W \s \S [...] [^...]
匹配单个字符(.)
规则:匹配除换行之外的任意字符
In [24]: re.findall("f.o","foo is not fao") Out[24]: ['foo', 'fao']
匹配任意(非)数字字符(\d \D)
\d [0-9]
\D [^0-9]
匹配任意(非)普通字符(\w \W)
\w 普通字符 包括[_0-9A-Za-z] 同时也包括汉字
\W 非普通字符
匹配任意(非)空字符(\s \S)
\s 匹配任意空字符 [\r\n\t]
\S 匹配任意非空字符
匹配字符集合([...])
[A-Z][a-z][0-9][_123a-z]
匹配字符集([^...])
规则:字符集取非,除列出的字符之外的任意一个字符
[^abc] --> 除a b c之外任意字符
1.2、匹配多个字符
* 匹配0次或者多次
+ 匹配1次或者多次
"htmlcode">In [61]: re.search(r"(https|http|ftp):\/\/\w+\.\w+\.(com|cn)","https://www.baidu.com").group(0) Out[61]: 'https://www.baidu.com' In [62]: re.search(r"(https|http|ftp):\/\/\w+\.\w+\.(com|cn)","https://www.baidu.com").group(1) Out[62]: 'https'1.6、贪婪模式和非贪婪模式
正则表达式的重复匹配总是尽可能多的向后匹配更多的内容。 贪婪模式包括:* + "htmlcode">
In [106]: re.findall(r"ab+","abbbbbbbb") Out[106]: ['ab'] In [107]: re.findall(r"ab","abbbbbbbb") Out[107]: ['a']二、Re模块
接下来我所有函数里面的参数解释如下:
pattern:正则表达式
string:目标字符串
pos:截取目标字符串起始位置
endpose:截取目标字符串结束位置
flags:功能标志
replaceStr:替换的字符串
max:最多替换几处(默认替换全部)有上图我们看出来,接下来我们要将的Python中re模块、regex对象、match对象三者之间是存在一定关系的。
1、re模块的compile方法返回一个regex对象
2、re模块和regex对象的finditer()、fullmatch()、match()、search()等方法返回一个match对象
3、他们分别有自己的属性和方法
2.1、compile
regex = re.compile(pattern, flags = 0) # 生成正则表达式对象2.2、findall
re.findall(pattern,string,pos,endpose) # 从目标字符串中匹配所有符合条件的内容2.3、split
re.split(pattern,string,flags) #根据正则表达式对目标字符串进行分割
In [79]: re.split(r'\s+',"Hello World") Out[79]: ['Hello', 'World']2.4、sub
re.sub(pattern,replaceStr,string,max,flags) In [80]: re.sub(r'\s+',"##","hello world") Out[80]: 'hello##world'2.5、subn
re.subn(pattern,replaceStr,string,max,flags) #功能同sub,但是返回值返回替换后的字符串和替换了几处
In [80]: re.sub(r'\s+',"##","hello world") Out[80]: ('hello##world',1)2.6、finditer
re.finditer(pattern,string) #使用正则表达式匹配目标字符串,返回一个match对象,match对象调用group()之后才能拿到值
In [87]: it = re.finditer(r'\d+',"2014nianshiqiqngduo 08aoyun 512dizhen") In [88]: for i in it: ....: print(i) ....: <_sre.SRE_Match object at 0x7f0639767920> <_sre.SRE_Match object at 0x7f0639767ac0> <_sre.SRE_Match object at 0x7f0639767920> In [93]: it = re.finditer(r'\d+',"2014nianshiqiqngduo 08aoyun 512dizhen") In [94]: for i in it: ....: print(i.group()) ....: 2014 08 5122.7、fullmatch
fullmatch(pattern,string,flags) #完全匹配目标字符串,相当于加了^ 和 $
2.8、match
re.match(pattern,string,flags) #匹配目标字符串开头的位置
2.9、search
re.search(pattern,string,flags) # 正则表达式匹配目标字符串,只匹配第一处
三、一些练习题
3.1、匹配首字母大写的单词
import re f = open('test.txt') pattern= r'\b[A-Z][a-zA-Z]*\s*' # pattern= r'\b[A-Z]\S' L = [] for i in f: L += re.findall(pattern,i) print(L)test.txt文档内容如下:
Hello World -12.6 Nihao 123 How are you -12 1.24 asdk 34%, 占比 1/2 2003 - 2005./%3.2、匹配数字(正数、负数、小数、百分数、分数)
import re pattern = "-" f = open('test.txt') l = [] for line in f: l += re.finditer(pattern,line) for i in l: print(i.group())总结
以上所述是小编给大家介绍的Python 正则表达式模块,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]