re模块,分组在re模块中的使用,使用正则表达式的技巧,爬虫实例

#re模块
import re

# findall 返回列表 找所有的匹配项
# search  匹配就 返回一个变量,通过group取匹配到的第一个值,不匹配就返回None,group会报错
# match   相当于search的正则表达式中加了一个'^'

# spilt   返回列表,按照正则规则切割,默认匹配到的内容会被切掉
# sub/subn 替换,按照正则规则去寻找要被替换掉的内容,subn返回元组,第二个值是替换的次数

# compile  编译一个正则表达式,用这个结果去search match findall finditer 能够节省时间
# finditer 返回一个迭代器,所有的结果都在这个迭代器中,需要通过循环+group的形式取值 能够节省内存



# 永远不要起一个py文件的名字 这个名字和你已知的模块同名
# regex

# 查找
# findall : 匹配所有 每一项都是列表中的一个元素
ret = re.findall('d+','sjkhk172按实际花费928') # 正则表达式,带匹配的字符串,flag
ret = re.findall('d','sjkhk172按实际花费928') # 正则表达式,带匹配的字符串,flag
print(ret)

#finditer  返回一个迭代器,所有的结果都在这个迭代器中,需要通过循环+group的形式取值 能够节省内存
import re
obj=re.compile(r'<(?P<st1>.*?)>d+<(?P<st2>.*?)>www',re.S)
it=obj.finditer('af<褚熙>12<123>wwwafasdasaasd'
'<哈哈>6<heiehi>wwwasfsaffas'
'd<666>0<saf>wwwsasdfa')
for el in it:
print(el.groups()) #('褚熙', '123') ('哈哈', 'heiehi') ('666', 'saf')
print(el.group()) #<褚熙>12<123>www <哈哈>6<heiehi>www <666>0<saf>www
print(el.group('st1'),el.group('st2')) #褚熙 123 哈哈 heiehi 666 saf
# search : 只匹配从左到右的第一个,得到的不是直接的结果,而是一个变量,通过这个变量的group方法来获取结果
# 如果没有匹配到,会返回None,使用group会报错
ret = re.search('d+','sjkhk172按实际花费928')
print(ret)  # 内存地址,这是一个正则匹配的结果
print(ret.group()) # 通过ret.group()获取真正的结果

ret = re.search('d','owghabDJLBNdgv')
print(ret)
print(ret.group())

ret = re.search('d+','sjkhk172按实际花费928')
if ret :   # 内存地址,这是一个正则匹配的结果
    print(ret.group()) # 通过ret.group()获取真正的结果


# match 从头开始匹配,相当于search中的正则表达式加上一个^
ret = re.match('d+$','172sjkhk按实际花费928')
print(ret)

# 字符串处理的扩展 : 替换 切割
# split
s = 'alex|taibai|egon|'
print(s.split('|'))
s = 'alex83taibai40egon25'
ret = re.split('d+',s)
print(ret)

# sub # 谁 旧的 新的 替换次数
ret = re.sub('d+','H','alex83taibai40egon25')
print(ret)

ret = re.sub('d+','H','alex83taibai40egon25',1)
print(ret)

# subn 返回一个元组,第二个元素是替换的次数
ret = re.subn('d+','H','alex83taibai40egon25')
print(ret)

# re模块的进阶 : 时间/空间
# compile 节省你使用正则表达式解决问题的时间
# 编译 正则表达式 编译成 字节码
# 在多次使用的过程中 不会多次编译
ret = re.compile('d+')   # 已经完成编译了
print(ret)
res = ret.findall('alex83taibai40egon25')
print(res)
res = ret.search('sjkhk172按实际花费928')
print(res.group())

# finditer 节省你使用正则表达式解决问题的空间/内存
ret = re.finditer('d+','alex83taibai40egon25')
for i in ret:
    print(i.group())
#分组在re模块中的使用
import re
s = '<a>wahaha</a>'  # 标签语言 html 网页
ret = re.search('<(w+)>(w+)</(w+)>',s)
print(ret.group())  # 所有的结果
print(ret.group(1)) # 数字参数代表的是取对应分组中的内容
print(ret.group(2))
print(ret.group(3))

# 为了findall也可以顺利取到分组中的内容,有一个特殊的语法,就是优先显示分组中的内容
ret = re.findall('(w+)',s)
print(ret)
ret = re.findall('>(w+)<',s)
print(ret)

# 取消分组优先(?:正则表达式)
ret = re.findall('d+(.d+)?','1.234*4')
print(ret)

# 关于分组
# 对于正则表达式来说 有些时候我们需要进行分组,来整体约束某一组字符出现的次数
# (.[w]+)?

# 对于python语言来说 分组可以帮助你更好更精准的找到你真正需要的内容
# <(w+)>(w+)</(w+)>

# split
ret = re.split('d+','alex83taibai40egon25')
print(ret)
ret = re.split('(d+)','alex83taibai40egon25aa')
print(ret)

# python 和 正则表达式 之间的特殊的约定

# 分组命名 (?P<这个组的名字>正则表达式)
s = '<a>wahaha</a>'
ret = re.search('>(?P<con>w+)<',s)
print(ret.group(1))
print(ret.group('con'))

s = '<a>wahaha</a>'
pattern = '<(w+)>(w+)</(w+)>'
ret = re.search(pattern,s)
print(ret.group(1) == ret.group(3))

# 使用前面的分组 要求使用这个名字的分组和前面同名分组中的内容匹配的必须一致
pattern = '<(?P<tab>w+)>(w+)</(?P=tab)>'
ret = re.search(pattern,s)
print(ret)

# 2018-12-06
# 2018.12.6
# 2018 12 06
# 12:30:30
#使用正则表达式的技巧
import re

ret=re.findall(r"d+","1-2*(60+(-40.35/5)-(-4*3))")
# 从"1-2*(60+(-40.35/5)-(-4*3))"中取整数
# ['1', '2', '60', '40', '35', '5', '4', '3']
print(ret)

# 你要匹配的内容太没有特点了 容易和你不想匹配的内容混在一起
# 精准的取到整数 过滤掉小数

ret=re.findall(r"d+.d+|d+","1-2*(60+(-40.35/5)-(-4*3))")
print(ret)
ret=re.findall(r"d+.d+|(d+)","1-2*(60+(-40.35/5)-(-4*3))")
ret.remove('')
print(ret)

# 正则表达式如果写的足够好的话 能够最大限度的简化我们的操作
#爬虫实例 豆瓣电影top250
import re
from urllib.request import urlopen

def getPage(url):   # 获取网页的字符串
    response = urlopen(url)
    return response.read().decode('utf-8')

def parsePage(s):
    ret = com.finditer(s)  # 从s这个网页源码中 找到所有符合com正则表达式规则的内容 并且以迭代器的形式返回
    for i in ret:
        yield {
            "id": i.group("id"),
            "title": i.group("title"),
            "rating_num": i.group("rating_num"),
            "comment_num": i.group("comment_num"),
        }

def main(num):  # 0  25 50  # 这个函数执行10次,每次爬取一页的内容
    url = 'https://movie.douban.com/top250?start=%s&filter=' % num
    response_html = getPage(url)   # response_html就是这个url对应的html代码 就是 str
    ret = parsePage(response_html) # ret是一个生成器
    print(ret)
    f = open("move_info7", "a", encoding="utf8")
    for obj in ret:
        print(obj)
        data = str(obj)
        f.write(data + "
")
    f.close()

com = re.compile(
        '<div class="item">.*?<div class="pic">.*?<em .*?>(?P<id>d+).*?<span class="title">(?P<title>.*?)</span>'
        '.*?<span class="rating_num" .*?>(?P<rating_num>.*?)</span>.*?<span>(?P<comment_num>.*?)评价</span>', re.S)

count = 0
for i in range(10):
    main(count)
    count += 25
原文地址:https://www.cnblogs.com/PythonMrChu/p/9736277.html