scrapy:
十分强大的爬虫模块,爬虫spiders须指定一个start_urls作为起始的任务,使用Rule(xpath,css)解析到新的任务,将需要的数据按照item结构,通过pipelines存储到指定的地方
合理使用下载中间件downloadermiddleware的内置中间件,或者编写自己的中间件可以完成不同的需求
Mass-web:
使用多进程进行漏洞扫描,内置了几类payload:Xss,Trav,Xpathi,Sqli等,适用于替换参数的漏洞扫描,请求不定义headers,不判断假200,只返回是否存在漏洞的结果
可以在其框架结构的基础上改进开发为批量漏洞扫描的工具
cansina:
多线程扫描web目录,扫描目录保存在文本文件中
可以在其中引入多进程,对于一些有防护的网站进行相应处理(waf,假200等)
beehive:
基于 Beebeeto-framework 的开源安全漏洞检测利用框架,可以通过使用它快速的进行漏洞挖掘、漏洞利用、后续渗透等工作
使用多线程,单target扫描
可以按照其Poc的结构编写自己的Poc,将Poc保存为文件并添加到数据库中使用,并修改为多targets扫描