爬虫网站图片且保存到本地

#https://www.cnblogs.com/zjltt/p/6955965.html 写的比较好的正则网站
#写个简单的爬虫,把这个链接http://so.fengniao.com/index.php?action=Image&keyword=%E7%A7%81%E6%88%BF,里面所有的图片保存到本地
import  requests
import  re

#获取URL返回内容
def url_text(url):
    text = requests.get(url)
    return  text.text

#返回内容截取IMG的URL
def img_url(text):
    img_list=re.findall('<img.*/></a>',text) #正则提取img标签
    img_url_list=[] #定义放img图片的url
    for row in img_list:
        img_url_list.append(row.split(' ')[1].split('"')[1]) #对IMG标签分割,提取URL部分,放入list
    return img_url_list #返回img的URL的list

#下载图片函数 def download_img(img_url_list,path): for name_num,url in enumerate(img_url_list): #枚举遍历图片list下标及URL img_result=requests.get(url) #请求获取图片内容 name="%s%s.jpg"%(path,name_num) #下载图片的路径及名称,名称是list下标 img_file=open(name,'wb') #二进制打开文件 img_file.write(img_result.content) #把图片内容写入文件 close_file(img_file) #关闭文件 #关闭文件 def close_file(file): file.close() path='./pic/' url='http://so.fengniao.com/index.php?action=Image&keyword=%E7%A7%81%E6%88%BF' download_img(img_url(url_text(url)),path) #调取下载图片函数
原文地址:https://www.cnblogs.com/xiaokuangnvhai/p/11175570.html