基于scrapy-redis的分布式爬虫

一.scrapy框架是否可以自己实现分布式?

  答案是不可以的,原因有两个:

      1.  因为每台机器上部署的scrapy的框架都有各自的调度器(多台机器无法共享同一个调度器)

      2. 原生的scrapy管道无法被共享,所以多台机器爬取到的数据无法通过同一个管道对数据进行统一的数据持久化存储。(多台机器无法共享同一个管道)

二.基于scrapy-redis组件的分布式爬虫

概念: 使用多台机器组成一个分布式的机群,在机群中运行同一组程序,进行联合数据的爬取

scrapy-redis组件中为我们封装好了可以被多台机器共享的调度器和管道,我们可以直接使用并实现分布式数据爬取。

实现方式:

     1.基于该组件的RedisSpider类

      2.基于该组件的RedisCrawlSpider类

三.分布式实现流程:两种方式是统一的

1 下载scrapy-redis组件:pip install scrapy-redis

2 redis配置文件的配置:

 注释:bind 127.0.0.1,表示可以让其他ip访问redis

 将yes该为no:protected-mode no,表示可以让其他ip操作redis

3 修改爬虫文件中的相关代码:

      将爬虫类的父类修改成基于RedisSpider或者RedisCrawlSpider。注意:如果原始爬虫文件是基于Spider的,则应该将父类修改成RedisSpider,如果原始爬虫文件是基于CrawlSpider的,则应该将其父类修改成RedisCrawlSpider。

       注释或者删除start_urls列表,且加入redis_key属性,属性值为scrpy-redis组件中调度器队列的名称

4 在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的管道

ITEM_PIPELINES = {
    'scrapy_redis.pipelines.RedisPipeline': 400
}

5 在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的调度器 

# 增加了一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据, 从而实现请求去重的持久化
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 使用scrapy-redis组件自己的调度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 配置调度器是否要持久化, 也就是当爬虫结束了, 要不要清空Redis中请求队列和去重指纹的set。如果是True, 就表示要持久化存储, 就不清空数据, 否则清空数据
SCHEDULER_PERSIST = True

6 在配置文件中进行爬虫程序链接redis的配置:

REDIS_HOST = 'redis服务的ip地址'
REDIS_PORT = 6379
REDIS_ENCODING = ‘utf-8’

7 开启redis服务器:redis-server 配置文件

8 开启redis客户端:redis-cli

9 运行爬虫文件:scrapy runspider SpiderFile  或  scrapy  crawl  SpiderFile

10 向调度器队列中扔入一个起始url(在redis客户端中操作):lpush redis_key属性值   起始url

  

  

  

  

原文地址:https://www.cnblogs.com/panzhihui/p/12194032.html