zoukankan      html  css  js  c++  java
  • 渗透利器-kali工具 (第二章-3) 信息收集之子域名扫描 -Sublist3

    本文内容:

    • 子域名收集的作用
    • 收集子域名的方法
    • robots.txt文件的作用

    从几个维度来收集子域名。

    1,子域名收集的作用:
      1.扩大渗透测试范围

      2.找到目标站点的突破口

      3.业务边界安全

      子域名收集盲区:

        子域名打开就是404页面、403页面,怎么做,

        案例分析:https://nosec.org/home/detail/2011.html

    2,收集子域名的方法:

      1.在线收集子域名:
        谷歌语法:
          通过特定站点范围查询子域:site:qq.com

        在线爆破:

          在线枚举爆破:http://z.zcjun.com/

        证书搜索:

          基于SSL证书查询子域:https://crt.sh/

        DNS搜索:

          基于DNS记录查询子域:https://dns.bufferover.run/dns?q=

      2.Fuzzdomain工具

        使用gitub下载相应的子域发现工具

        使用此命令下载:

          git clone https://github.com/aboul3la/Sublist3r

        安装模块:

          sudo pip install -r requirements.txt

        枚举目标子域:

          python sublist3r.py -d xxx.cn

        枚举子域并且显示开放80和443端口的子域

          python sublist3r.py -d xxx.cn -p 80,443

        枚举目标子域并保存

          Python shublist3r.py -d xxx.cn -o xxx.txt

      3.用户事件:

        通过目标站点用户事件找到子域以及敏感信息

        1.历史漏洞:

          乌云镜像站:http://www.anquan.us/

        2.使用手册、通知:

          举例:某学院通知:https://dwz.cn/OOWeYYy6

    3,robots.txt文件的作用:
      robots协议[爬虫协议、机器人协议等]:

        全称是:网络爬虫排除标准,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

      robots.txt文件的重要性:

        robots.txt是搜索引擎蜘蛛访问网站时要查看的第一个文件,并且会根据robots.txt文件的内容来爬行网站。

        在某种意义上说,它的一个任务就是指导蜘蛛爬行,减少搜索引擎蜘蛛的工作量。

      robots.txt文件的存放位置:

        网站根目录下,通过"域名/robots.txt"能正常访问即可。

        如:http://xxx.cn/robots.txt

        写法:https://baijiahao.baidu.com/s?id=1616368344109675728&wfr=spider&for=pc

  • 相关阅读:
    js yui
    ie tbody table 兼容方法
    js json ie不支持json
    js ie 6,7,8 使用不了 firstElementChild
    js for in
    js json 单双引号互换
    html table 上移下移
    js autoComplate
    开发总结
    CentOS6.7 下安装git
  • 原文地址:https://www.cnblogs.com/xz25/p/12825191.html
Copyright © 2011-2022 走看看