今日内容:
scrapy各组件
Components:
1、引擎(EGINE)
引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。
2、调度器(SCHEDULER)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址。
3、下载器(DOWLOADER)
用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的。
4、爬虫(SPIDERS)
SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求。
5、项目管道(ITEM PIPLINES)
在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作。
6、下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,
你可用该中间件做以下几件事:
(1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
(2) change received response before passing it to a spider;
(3) send a new Request instead of passing received response to a spider;
(4) pass response to a spider without fetching a web page;
(5) silently drop some requests.
7、爬虫中间件(Spider Middlewares)
位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)
1、进入终端cmd: -scrapy 2、创建scrapy项目 1.创建文件夹存放scrapy项目 -D:Scrapy_project 2.cmd终端输入命令 -scrapy starproject Spider_Project 会在D:Scrapy_project下生成文件夹 -Spider_Project :Scrapy项目文件 3.创建好后会提示 -cd Spider_Project #切换到scrapy项目目录下 #爬虫程序名称 #目标网站域名 -scrapy genspider baidu www.baidu.com #创建爬虫程序 3.启动scrapy项目,执行爬虫程序 # 找到爬虫程序文件执行 scrapy runspider 爬虫程序.py # 切换到爬虫程序执行目录下 -cd D:Scrapy_projectSpider_ProjectSpider_Projectspiders -scrapy runspider baidu.py
from scrapy.cmdline import execute # 写终端命令 # scrapy crawl baidu # 执行baidu爬虫程序 # execute(['scrapy', 'crawl', 'baidu']) # 创建爬取链家网程序 # execute(['scrapy', 'genspider', 'lianjia', 'lianjia.com']) # --nolog 去除日志 execute('scrapy crawl --nolog lianjia'.split(' ')) ''' Scrapy在Pycharm中使用 1.创建scrapy项目 在settings.py文件中有 -ROBOTSTXT_OBEY = True #默认遵循robot协议 修改为: -ROBOTSTXT_OBEY = False '''