【python小练】0013

第 0013 题: 用 Python 写一个爬图片的程序,爬 这个链接里的日本妹子图片 :-)

科科。。。妹子就算了,大晚上的爬点吃的吧。食物图集:抿一口,舔一舔,扭一扭~·SCD

写个简单的爬图爬虫方法还蛮多的。

这次尝试用urlib.request来实现。

读取图片网源码,利用re.compile找到其中符合要求的img标签生成图片list,最后用request.urlretrieve下载图片到本地。

Code:

import os
import re
import urllib.request

def pic_collector(url):
    content = urllib.request.urlopen(url).read()
    r = re.compile('<img class="BDE_Image" pic_type="1" width="450" height="450" src="(.*?)" ')
    pic_list = r.findall(content.decode('utf-8'))

    os.mkdir('pic_collection')
    os.chdir(os.path.join(os.getcwd(), 'pic_collection'))
    for i in range(len(pic_list)):
        pic_num = str(i) + '.jpg'
        urllib.request.urlretrieve(pic_list[i], pic_num)
        print("success!" + pic_list[i])

pic_collector("http://tieba.baidu.com/p/4341640851")

Note:

1. re.compile()内容由网页源代码决定。比如我扒的这个网页,用chrome查看源代码,找到想下载的包含图片的<img>标签,其完整内容如下(以某一张图为例):

<img class="BDE_Image" pic_type="1" width="450" height="450" src="http://imgsrc.baidu.com/forum/w%3D580/sign=a6080fca870a19d8cb03840d03fb82c9/2683ea039245d688be88e4dfa3c27d1ed31b2445.jpg" size="259380">

即所扒的图片标签内容匹配'<img class="BDE_Image" pic_type="1" width="450" height="450" src="(.*?)"'。不必把标签完整的表达都写出来,但要包含到src内容

2. r.findall()中的content后要有decode('utf-8')这样才是能看懂的utf-8格式网页源代码

3. os.mkdir(filename)新建文件夹;os.chdir(filename)更改路径到xx文件夹;os.getcwd()获取当前文件夹名(字符串)

4. urllib.request.urlretrieve(pic,pic_name) 保存图片到上述路径并设定文件名

保存的文件如下图:

今后看到美少年的皂片不必再无限右键了,朕心甚慰_(:3 」∠)_

哦,要是在贴吧、堆糖想下载xx页到xx页图片怎么办,。Ծ ‸ Ծ。

比如上面那个图片贴,网址是酱紫的:

http://tieba.baidu.com/p/4341640851?pn=1  #第1页
http://tieba.baidu.com/p/4341640851?pn=2  #第2页
http://tieba.baidu.com/p/4341640851?pn=3  #第3页 
http://tieba.baidu.com/p/4341640851?pn=4  #第4页
...
http://tieba.baidu.com/p/4341640851?pn=n  #第n页

那就改一下代码啦,在原先的函数里添加两个参数m——起始页数,n——结束页数,即fetch_pictures(url, m, n)

import urllib.request
import re
import os


def fetch_pictures(url, m, n):

    os.chdir(os.path.join(os.getcwd(), 'pic_collection'))
    temp = 1  # 记录图片张数

    for x in range(n-m+1):
        html_content = urllib.request.urlopen(url + "?pn=" + str(n+x-1)).read()  # key!
        r = re.compile('<img class="BDE_Image" pic_type="1" width="450" height="450" src="(.*?)" ')
        picture_url_list = r.findall(html_content.decode('utf-8'))
        print(picture_url_list)

        for i in range(len(picture_url_list)):
            picture_name = str(temp) + '.jpg'
            urllib.request.urlretrieve(picture_url_list[i], picture_name)
            print("Success!" + picture_url_list[i])
            temp += 1

fetch_pictures("http://tieba.baidu.com/p/4341640851", 1, 3)

这样就可以下载第1~3页的图片了,想下整张帖子的图片就看下页数自己改呗。

原文地址:https://www.cnblogs.com/liez/p/5397447.html