Scrapy官网程序执行示例

Windows 10家庭中文版本,Python 3.6.4,Scrapy 1.5.0,

Scrapy已经安装很久了,前面也看了不少Scrapy的资料,自己尝试使其抓取微博的数据时,居然连登录页面(首页)都进不去,后又在前几日补充学习了re、requests、urllib3、bs4.BeautifulSoup的一些知识后,今天正式开始学习Scrapy爬虫框架。希望通过学习和实践,可以开发出分布式爬虫程序,可以抓取各种网站的数据,包括微博的,包括不熟悉的暗网的。

本文介绍了运行Scrapy官网的示例的过程。

由于孤的系统安装了Python 2.7和Python 3.6,因此,在第一次运行时居然出错了。

1.在Eclipse中编写程序(有自动提示)

2.打开命令行执行程序

第一次输入的是官网的命令:scrapy runspider scrapy0.py,结果执行错误——默认使用了Python 2.7的解释器。

更改执行命令为:python3 -m scrapy runspider scrapy0.py,再次执行,成功:

显示抓取到的数据:

执行scrapy runspider命令后发生了什么呢?在官文Scrapy at a glance中有介绍。

3.在命令行中结束程序:Ctrl+C

4.其它

4.1. 源码解读

其实,在编写爬虫程序之前,首先应该分析网站的数据的,然后再根据网站的数据指定抓取规则。

在官网示例中,抓取的是https://blog.scrapinghub.com中的文章的标题,这个标题位于class为entry-title的<h2>标签中,但这个标题的文字又被一个<a>标签包含,因此,才有了parse函数中的解析语法:

response.css('h2.entry-title')

title.css('a ::text').extract_first()

因为一个页面上有多个文章引用,因此,首先用for循环打印此本页的所有标题,

然后,执行【翻页】,去新的页面找到新的标题,于是有了parse中的第二个for循环。

但孤对第二个for循环中的response.follow(...)函数了解有限,还需阅读官网,大概的功能就是 跳转到新页面——<a>标签对象,指定解析函数——还是这个parse函数。

4.2. 网页分析——重难点

其实,开发爬虫程序前,首先要确定源网站的数据格式,需要对源网站进行网页结构、数据分析等工作,而且这个工作会在网页改版后立即调整——调整会导致爬虫【短时间】失效,也可能【长时间】失效。

下面是https://blog.scrapinghub.com的分析(这个比较简单,之前看的文章都是拿知乎、微博、博客园做例子,非常“凶残”):使用了Chrome浏览器的Developer Tool(F2 或 Ctrl + Shift + J打开)

4.3. 继续改进

Scrapy首页中是在命令行执行程序,其实,可以在Eclipse中直接执行,需要写更多代码,还需dig;

Scrapy首页还提到了部署,可以试试部署到云平台或自己的服务器;

之前看资料讲,需要设定爬虫的运行周期或频率,不一定要每时每刻运行,也是可以在Scrapy中配置吧?或者要外部程序?

本示例的抓取结果是输出到命令行窗口,之前看的资料提示可以结合Mongodb、Redis将抓取的数据存储到本地,那么,这就会涉及到更多内容了,比如,重复抓取数据、抓取数据的页面/图片保存、数据量太大、制定关键字抓取等,一个一个来解决;

5.示例启动过程

5.1. 启动

INFO: Scrapy 1.5.0 started (bot: scrapybot)

INFO: Versions: lxml 4.2.1.0, ...

INFO: Enabled extensions: ...

INFO: Enabled downloader middlewares: ...

INFO: Enabled spider middlewares: ...

INFO: Enabled item pipelines: ...

INFO: Spider opened

INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)

DEBUG: Crawled (200) <GET https://blog.scrapinghub.com> (referer: None)

...数据来了...

5.2. 结束

INFO: Dumping Scrapy stats: 

{

...

 'finish_reason': 'shutdown',

 'finish_time': datetime.datetime(2018, 6, 26, 1, 13, 42, 25259),

 'request_depth_max': 4,

...

 'start_time': datetime.datetime(2018, 6, 26, 1, 13, 36, 126224)}

INFO: Spider closed (shutdown)

6.后记

之前看爬虫资料时,觉得自己可以做一个系统给每个人提供 个性化的爬虫(自行指定关键词)。在和朋友聊过后发现,原来,今日头条就是这个干的啊。哈,谁让自己不早点学习呢。

原文地址:https://www.cnblogs.com/luo630/p/9227834.html