zoukankan      html  css  js  c++  java
  • Xray和360爬虫联动形成自动化挖洞

    Xray和360爬虫联动形成自动化挖洞

    0X00前言

    好兄弟一直让我写一篇关于自动化扫描漏洞的文章,由于在公司实习没时间写一些文章,这段时间离职闲下来后,准备写一下教程。PS:已经有很多大佬写过了,我这里只是更简单的写一下,以及记录一下我曾经踩过的坑。

    0X01自动化原理

    原理已经有很多大佬解释过了这里不再赘述,直接上图:

    0X02开始搭建

    由于我的阿里云服务器是买了一台win2008,因此以下教程都是基于windows的:

    Xray:

    xray 为单文件二进制文件,无依赖,也无需安装,下载后直接使用。

    下载地址为:

    Github: https://github.com/chaitin/xray/releases (国外速度快)

    网盘: https://yunpan.360.cn/surl_y3Gu6cugi8u (国内速度快)

    Xray的简单使用教程请参考:https://www.cnblogs.com/L0ading/p/12388898.html

    360crawlergo

    crawlergo是一个使用chrome headless模式进行URL入口收集的动态爬虫。 使用Golang语言开发,基于chromedp 进行一些定制化开发后操纵CDP协议,对整个页面关键点进行HOOK,灵活表单填充提交,完整的事件触发,尽可能的收集网站暴露出的入口。同时,依靠智能URL去重模块,在过滤掉了大多数伪静态URL之后,仍然确保不遗漏关键入口链接,大幅减少重复任务。

    下载地址为:

    https://github.com/0Kee-Team/crawlergo

    crawlergo 只依赖chrome运行即可:

    新版本chromium下载地址:https://www.chromium.org/getting-involved/download-chromium

    Linux下载地址:https://storage.googleapis.com/chromium-browser-snapshots/Linux_x64/706915/chrome-linux.zip

     

    如果觉得分开配置比较麻烦,网上也有大佬直接放在一起的项目

    下载链接:https://github.com/timwhitez/crawlergo_x_XRAY

     

    下载好后是这样一个界面;

    其中xray文件夹以及crawlergo文件夹都是空文件夹,目的是用来存放xray以及crawlergo

     

    将最新版的xray放入xray文件夹中:

    然后生成ca证书等一系列常规操作。

    在crawlergo文件夹中放入下载好的最新的crawlergo.exe可执行文件,

    再将launcher.py以及target.txt放入crawlergo文件夹中

    接下来便是踩坑环节

    配置好launcher.py的cmd变量中的crawlergo爬虫配置(主要是chrome路径改为本地路径), 默认为:

    ./crawlergo -c C:Program Files (x86)GoogleChromeApplicationchrome.exe -t 20 -f smart --fuzz-path --output-mode json target

    这个路径是你安装chrome的路径

    比如我的chrome.exe在改文件夹下

    因此配置路径为

    cmd = ["crawlergo.exe", "-c", "C:/Users/Administrator/Desktop/chrome-win/chrome-win/chrome.exe","-t", "20","-f","smart","--fuzz-path", "--output-mode", "json", target]

    此处最需要注意的是在windows上复制文件路径后斜杠为

    我们需要将路径中的改为/

     

    同时我们还要配置地址和xray监听地址为一致

     0X03开始被动扫描挖洞

    1.将目标url一个一个写入crawlergo文件夹下的target.txt文件中。

    2.进入xray文件夹启动xray的被动监听状态

    如:.xray_windows_amd64.exe webscan --listen 127.0.0.1:7777 --html-output proxy.html

    3. 进入crawlergo文件夹执行360爬虫进行爬取

    我们在target.txt文件中写入awvs的测试站点http://testphp.vulnweb.com/

    执行:python launcher.py

    可以看到xray已经接收到流量并开始扫描出漏洞

    Crawlergo文件夹下多出来的文件

    sub_domains.txt为爬虫爬到的子域名, crawl_result.txt为爬虫爬到的ur

    进入xray文件夹下可以看到多出一个html文件,该文件为xray扫描结果

     

     0X04后续

    这样我们便可以快乐的自动挖洞了。

    我们还可以利用server酱实现漏洞的自动推送。

    0X05参考链接

    https://github.com/timwhitez/crawlergo_x_XRAY

    https://xz.aliyun.com/t/7047

    https://github.com/timwhitez/crawlergo_x_XRAY

    https://github.com/0Kee-Team/crawlergo

     

  • 相关阅读:
    赔了多少钱
    datatables使用
    Django开发汇总
    STF的DOCKER搭建
    ubuntu基本
    python 列表、元组、字典、字符串
    Appium环境搭建
    AppCrawler环境搭建
    TASK 总结
    python & jira
  • 原文地址:https://www.cnblogs.com/L0ading/p/13186891.html
Copyright © 2011-2022 走看看