python_09

今日内容:

scrapy各组件

Components:

1、引擎(EGINE)
引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。

2、调度器(SCHEDULER)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址。

3、下载器(DOWLOADER)
用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的。

4、爬虫(SPIDERS)
SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求。

5、项目管道(ITEM PIPLINES)
在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作。

6、下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,
你可用该中间件做以下几件事:
  (1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
  (2) change received response before passing it to a spider;
  (3) send a new Request instead of passing received response to a spider;
  (4) pass response to a spider without fetching a web page;
  (5) silently drop some requests.

7、爬虫中间件(Spider Middlewares)
位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)

1、进入终端cmd:
        -scrapy

2、创建scrapy项目
    1.创建文件夹存放scrapy项目
        -D:Scrapy_project

    2.cmd终端输入命令
    -scrapy starproject Spider_Project
    会在D:Scrapy_project下生成文件夹
        -Spider_Project :Scrapy项目文件

    3.创建好后会提示
        -cd Spider_Project     #切换到scrapy项目目录下
                          #爬虫程序名称   #目标网站域名
        -scrapy genspider  baidu          www.baidu.com     #创建爬虫程序

3.启动scrapy项目,执行爬虫程序
    # 找到爬虫程序文件执行
    scrapy runspider 爬虫程序.py
    # 切换到爬虫程序执行目录下
        -cd D:Scrapy_projectSpider_ProjectSpider_Projectspiders
        -scrapy runspider baidu.py
from scrapy.cmdline import execute

# 写终端命令
# scrapy crawl baidu
# 执行baidu爬虫程序
# execute(['scrapy', 'crawl', 'baidu'])

# 创建爬取链家网程序
# execute(['scrapy', 'genspider', 'lianjia', 'lianjia.com'])

# --nolog     去除日志
execute('scrapy crawl --nolog lianjia'.split(' '))

'''
Scrapy在Pycharm中使用
1.创建scrapy项目
在settings.py文件中有
    -ROBOTSTXT_OBEY = True     #默认遵循robot协议
修改为:
    -ROBOTSTXT_OBEY = False
'''




原文地址:https://www.cnblogs.com/zhanglei97/p/11066424.html