爬虫入门【11】Pyspider框架入门—使用HTML和CSS选择器下载小说

开始之前

首先我们要安装好pyspider,可以参考上一篇文章。
从一个web页面抓取信息的过程包括:
1、找到页面上包含的URL信息,这个url包含我们想要的信息
2、通过HTTP来获取页面内容
3、从HTML中提取出信息来
4、然后找到更多的URL,回到第2步继续执行~

选择一个开始的URL

我推荐一部小说给大家《恶魔法则》。
今天我们从网上将这部小说的内容按照章节下载下来。
小说目录的url为https://www.ybdu.com/xiaoshuo/4/4646/

创建一个Pyspider项目

我们现在控制台命令行中输入pyspider all,命令,然后打开浏览器,输入http://localhost:5000/。
点击右面的Create按钮,输入项目名称,点击创建即可。
【插入图片,创建项目】

项目内容编辑

创建项目之后,在浏览器出现一个框架,左面是结果显示区,最主要的是一个run命令。
右面是我们输入代码的内容。由于这个代码编辑界面不太友好,建议我们将代码拷贝到pycharm中,编辑好或者修改好之后再复制回来运行。
【插入图片,空白项目内容】

我们如果访问https页面,一定要添加validate_cert=False,否则会报SSL错误。

第一步:on_start()函数

这一步主要是获取目录页。
这个方法会获取url的页面,并且调用callback方法去解析相应内容,产生一个response对象。
【插入图片,小说目录】

@every(minutes=24 * 60)
    def on_start(self):
        self.crawl(url, callback=self.index_page,validate_cert=False)

第二步:index_page()函数

当我们第一次点击run按钮的时候,会对目录页进行解析,返回所有章节的url。
【插入图片,章节标签】

【插入图片,pyspider目录】

@config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        for each in response.doc('ul[class="mulu_list"]>li>a').items():
            self.crawl(each.attr.href, callback=self.detail_page,validate_cert=False)

第三步:detail_page()函数

我们将分析每章节的url,获取标题和正文内容,保存成一个txt文件。
【插入图片,标题标签】

【插入图片,正文标签】

@config(priority=2)
    def detail_page(self, response):
        curPath = os.getcwd()
        tempPath = '恶魔法则'
        targetPath = curPath + os.path.sep + tempPath
        if not os.path.exists(targetPath):
            os.makedirs(targetPath)
        else:
            print('路径已经存在!')
        filename=response.doc('h1').text()+'.txt'
        filePath = targetPath + os.path.sep + filename
        with open(filePath, 'w',encoding='utf-8') as f:
            content=response.doc('div[class="contentbox"]').text()
            f.write(content)
            print('写入成功!')

总结

通过以上三步,我们已经将小说的所有章节都能够保存下来。如果让项目自动运行呢?
【插入图片,开始运行】

我们回到Pyspider的控制台,将对应项目的状态调整为running或者debug,点击后面的运行,项目就能够自己动起来了。

【插入图片,结果所有章节】

所有代码

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2017-12-12 19:28:47
# Project: Nover_Fetch

import os
from pyspider.libs.base_handler import *
url='https://www.ybdu.com/xiaoshuo/4/4646/'

class Handler(BaseHandler):
    headers={
        'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:56.0) Gecko/20100101 Firefox/56.0'
    }
    crawl_config = {
        'headers':headers,
        'timeout':1000
    }

    @every(minutes=24 * 60)
    def on_start(self):
        self.crawl(url, callback=self.index_page,validate_cert=False)
        #这个方法会获取url的页面,并且调用callback方法去解析相应内容

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        for each in response.doc('ul[class="mulu_list"]>li>a').items():
            self.crawl(each.attr.href, callback=self.detail_page,validate_cert=False)

    @config(priority=2)
    def detail_page(self, response):
        curPath = os.getcwd()
        tempPath = '恶魔法则'
        targetPath = curPath + os.path.sep + tempPath
        if not os.path.exists(targetPath):
            os.makedirs(targetPath)
        else:
            print('路径已经存在!')
        filename=response.doc('h1').text()+'.txt'
        filePath = targetPath + os.path.sep + filename
        with open(filePath, 'w',encoding='utf-8') as f:
            content=response.doc('div[class="contentbox"]').text()
            f.write(content)
            print('写入成功!')

原文地址:https://www.cnblogs.com/xingzhui/p/8029738.html