爬虫框架之scrapy

首先,什么是scrapy?

文档地址:http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/overview.html

Scrapy 使用了Twisted['twɪstɪd]异步网络框架,可以加快我们的下载速度。

说到异步:调用在发出之后,这个调用就直接返回,不管有无结果;异步是过程。 非阻塞:关注的是程序在等待调用结果(消息,返回值)时的状态,

指在不能立刻得到结果之前,该调用不会阻塞当前线程。

下面我们了解下scrapy的工作流程:

调度器把requests-->引擎-->下载中间件--->下载器

下载器发送请求,获取响应---->下载中间件---->引擎--->爬虫中间件--->爬虫

爬虫提取url地址,组装成request对象---->爬虫中间件--->引擎--->调度器

爬虫提取数据--->引擎--->管道

管道进行数据的处理和保存

下面一张图可以帮助我们知道框架里每个模块的具体作用:

scrapy框架的作用:通过少量代码实现快速抓取

掌握scrapy中每个模块的作用: 引擎(engine):负责数据和信号在不腰痛模块间的传递 调度器(scheduler):实现一个队列,存放引擎发过来的request请求对象 下载器(downloader):发送引擎发过来的request请求,获取响应,并将响应交给引擎 爬虫(spider):处理引擎发过来的response,提取数据,提取url,并交给引擎 管道(pipeline):处理引擎传递过来的数据,比如存储 下载中间件(downloader middleware):可以自定义的下载扩展,比如设置代理ip 爬虫中间件(spider middleware):可以自定义request请求和进行response过滤

理解异步和非阻塞的区别:异步是过程,非阻塞是状态

创建scrapy的项目: scrapy startproject myspider

创建scrapy爬虫:在项目目录下执行 scrapy genspider itcast itcast.cn

运行scrapy爬虫:在项目目录下执行 scrapy crawl itcast

以下代码是一个简单的爬取博客内容:

# -*- coding: utf-8 -*-
import scrapy


class MoviesSpider(scrapy.Spider):
name = 'movies'
allowed_domains = ['zifangsky.cn']
start_urls = ['http://zifangsky.cn']

def parse(self, response):
# with open("zuoye.html","w",encoding="utf8") as f:
# f.write(response.text)

mes = response.xpath("//article[@class='well clearfix']")
for i in mes:
l_dict = {}
l_dict['title'] = i.xpath("./header/h1/a/text()").extract_first()
l_dict['text'] = i.xpath("./div[@class='entry-summary entry-content clearfix']/p/text()").extract_first()
print(dict)
yield l_dict

try:
next_pag = response.xpath("//a[text()='2']/@href")


执行时注意在
settings.py设置开启
pipeline ITEM_PIPELINES = {
'myspider.pipelines.ItcastPipeline': 400
}

可以在settings中设置ROBOTS协议 # False表示忽略网站的robots.txt协议,默认为True

ROBOTSTXT_OBEY = False

爬虫就是根据你的需求爬去你想要的内容,而框架实现的是对爬虫效率的提升,用少量的代码完成你的需求

这也是scrpy受欢迎之处

 
原文地址:https://www.cnblogs.com/ssjz12/p/10139862.html