3、爬取干货集中营的福利图片

 1 #!/usr/bin/env python
 2 #-*- coding: utf-8 -*-
 3 
 4 import json
 5 import urllib
 6 import requests
 7 
 8 
 9 # 指定url路径,经过查看url获取的信息:0/0是全部的json信息
10 pre_url = "http://gank.io/api/data/福利/0/0"
11 
12 # http://gank.io/
13 # 分类数据: http://gank.io/api/data/数据类型/请求个数/第几页
14 # 数据类型: 福利 | Android | iOS | 休息视频 | 拓展资源 | 前端 | all
15 # http://gank.io/api/data/福利/10/1
16 # 请求个数: 数字,大于0
17 # 第几页:数字,大于0
18 
19 
20 
21 # 图片路径列表,有些图片地址是https的,爬取的话需要验证证书,不爬取https开头的图片
22 http_image_list = []
23 #https_image_list = []
24 
25 # 1.获取路径的json数据
26 response = requests.get(pre_url).text
27 # 2.jsong格式转换成字符串
28 data_dict = json.loads(response)
29 # 3.获取图片地址数量
30 num = len(data_dict['results'])
31 for i in range(0,num):
32     url_web = data_dict['results'][i]['url']
33     # http开头的图片路径
34     if url_web.split(':')[0] == 'http':
35         http_image_list.append(url_web)
36     # https开头的图片路径
37     # if url_web.split(':')[0] == 'https':
38     #     https_image_list.append(url_web)
39 
40 # 保存图片地址为文件
41 with open('http_image.txt','w') as obj:
42      data = json.dumps(http_image_list)
43      obj.write(data)
44      
45 # with open('https_image.txt','w') as obj:
46 #     data = json.dumps(https_image_list)
47 #     obj.write(data)
48 
49 # 图片保存路径
50 http_save_path = "D:\zipai\"
51 
52 # 具体格式可以调整
53 for x in range(0, 304):
54     urllib.request.urlretrieve(http_image_list[x], http_save_path + str(x) + '.jpg')
55     print('保存http第%s张图片' % x)
56 
57 # 网站有反爬机制,爬取到303个时被拦截报错,此时,翻转过来,倒着爬取
58 rev = http_image_list[::-1]
59 
60 for x in range(0, 267):
61     urllib.request.urlretrieve(rev[x], http_save_path + str(x+304) + '.jpg')
62     print('保存http第%s张图片' % x)
原文地址:https://www.cnblogs.com/sanduzxcvbnm/p/9209544.html