记录使用过或者二次开发过的python模块与框架

scrapy:

十分强大的爬虫模块,爬虫spiders须指定一个start_urls作为起始的任务,使用Rule(xpath,css)解析到新的任务,将需要的数据按照item结构,通过pipelines存储到指定的地方

合理使用下载中间件downloadermiddleware的内置中间件,或者编写自己的中间件可以完成不同的需求

Mass-web:

使用多进程进行漏洞扫描,内置了几类payload:Xss,Trav,Xpathi,Sqli等,适用于替换参数的漏洞扫描,请求不定义headers,不判断假200,只返回是否存在漏洞的结果

可以在其框架结构的基础上改进开发为批量漏洞扫描的工具

cansina:

多线程扫描web目录,扫描目录保存在文本文件中

可以在其中引入多进程,对于一些有防护的网站进行相应处理(waf,假200等)

beehive:

基于 Beebeeto-framework 的开源安全漏洞检测利用框架,可以通过使用它快速的进行漏洞挖掘、漏洞利用、后续渗透等工作

使用多线程,单target扫描

可以按照其Poc的结构编写自己的Poc,将Poc保存为文件并添加到数据库中使用,并修改为多targets扫描

原文地址:https://www.cnblogs.com/leaf-7/p/5509415.html