zoukankan      html  css  js  c++  java
  • wscan——一个基于协程的轻量级Web目录扫描器

    wscan v2.4

    wscan——一个基于协程的轻量级Web目录扫描器

    写来平时用来打CTF,探测敏感信息和目录结构的,主要目的还是要优雅 、快捷一点 :)

    适用于CTF这类网站页面不多,需要敏感文件、目录结构探测的网站扫描

    安装

    $ python3 -m pip install wscan

    特性

    • Fuzz网站目录
    • 遍历爬取网站url
    • 多协程更效率
    • 可随机User-agent
    • 自定义Fuzz后缀名
    • 指定爬取协程数
    • 404页面识别(粗略)
    • 友好的界面以及优雅快捷的使用方法 : )

    Demo

    Demo

    用法:

    Type -h for help ::

    $ wscan [-u URL] [-f] [-m] [Extend options]

    • -u URL: 目标URL
    • -f: 启用Fuzz功能
    • -m: 启用链接爬取功能(就是遍历爬取,网站大的话会炸锅)
    • -b BASE: Fuzz的基址 如: -b /cms/app. [ Default: / ] (将会从/cms/app为基础,在其后面添加字典路径进行Fuzz)
    • -e EXTEND: Fuzz的后缀名. [Default: php]
    • -max NUM: 协程最大值. [ Default: 20 ]
    • -t TIMEOUT: 请求超时时间. [Default: 12]
    • -404 NOT_FOUND: 自定义404页面的关键字,用于判断自定义404页面。如: "Not found"
    • -o: 指定输出路径
    • -s: 爬取静态资源链接(一般XSS、CSRF等题里面会用到静态资源如js,css,img等)
    • --no-re: 爬链接的时候禁止重定向
    • --no-map: 在扫描报告中不输出站点结构图
    • -v,-vv: -v显示详细信息,-vv显示最详细的信息
    • -h: 帮助

    例子

      $ wscan -u "http://www.example.com/" -f -m 

    安装依赖

    • Python >=3.5
    • aiohttp
    • colorama
    • bs4

    感谢开源作者 maurosoria 开源的 dirsearch为wscan提供的灵感以及Fuzz字典。

    English Document

    wscan is a Fast & Simple web site scanner.

    Base on aiohttp and refer to the dirsearch of multi-threading version.

    Can both run on Linux & Windows.

    Install

    $ python3 -m pip install wscan

    Features

    • Fuzz web site path
    • Mapping a site map
    • Multi-co-routine
    • User-agent randomization
    • Custom extensions
    • Custom maximum of co-routine
    • Friendly interface
    • Elegant and convenient :)

    Demo

    Demo

    Usage:

    Type -h for help ::

    $ wscan [-u URL] [-f] [-m] [Extend options]

    • -u URL: Target URL.

    • -f: Fuzz target url with dictionary .

    • -m: Crawl all URL on the target to get a map.

    • -b BASE: Base URL of fuzzing e.g -b /cms/app. [ Default: / ]

    • -e EXTEND: Suffix name used for fuzzing. [Default: php]

    • -max NUM: Max num of co-routine. [ Default: 20 ]

    • -t TIMEOUT: Requests timeout. [Default: 12]

    • -o: Output dir

    • -404 NOT_FOUND: Customize a 404 identification, it'll be used as a keyword for searching text. e.g. "Not found"

    • -s: Crawl static resources when mapping target.

    • --no-re: Don't redirect when requesting.

    • -o: Don't record site map in scan report

    • -v,-vv: Show more detail.

    • -h: Show this help message and exit.

    Example

      $ wscan -u "http://www.example.com/" -f -m 

    Requires

    • Python >=3.5
    • aiohttp
    • colorama
    • bs4

    更新日志

    V2.4.1

    2019-12-16:
    1. 修复Linux下字符重叠问题

    V2.4

    2019-12-15:
    1. 修复bug: coroutine never wait
    2. 修复bug: InvalidURL Error
    3. 优化扫描日志输出 3.1 日志保存路径设置为当前目录(避免Linux下Permission Denied) 3.2 生成扫描后正常响应的请求路径记录,即日志中Web urls部分
    4. 添加新特性 4.1 404页面识别(粗略),后面看情况添加simhash计算相似度,避免太臃肿。 4.2 指定请求超时时间、日志生成细节等参数

    v2.3

    2019/9/20
    1. 优化爬虫协程以及站点展示

    转载:https://github.com/Testzero-wz/wscan

  • 相关阅读:
    看到你还在用Maven,Gradle难道不香吗?
    技术干货|完美搭建web自动化环境
    使用可视化的Docker进行自动化测试
    使用Robot Framework实现多平台自动化测试
    还在手工写接口测试文档吗,已经out了
    巧用Python脚本解决自动化图形验证码难题
    为什么要进行URL编码
    C# (CLR) 中内存分配解析
    DIV+CSS规范命名大全集合
    Memcached集群/分布式/高可用 及 Magent缓存代理搭建过程 详解
  • 原文地址:https://www.cnblogs.com/thespace/p/12453923.html
Copyright © 2011-2022 走看看