- 子域名收集的作用
- 收集子域名的方法
- robots.txt文件的作用
子域名收集的作用
扩大渗透测试范围
找到目标站点突破口
业务边界完全
常见子域盲区
子域名打开就是404页面、403页面
收集子域名的方法
在线收集子域名
谷歌语法
通过特定站点范围查询子域:site:***.com
在线爆破
在线枚举爆破:http://phpinfo.me/domain/
证书收缩
基于SSL证书查询子域:https://crt.sh/
DNS搜索
基于DNS记录查询子域:http://dns.bufferover.run/dns?q=
Fuzzdomain工具
使用github下载相应的子域发现工具
git clone https://github.com/aboul3la/Sublist3r
安装模块
sudo pip install -r requirements.txt
枚举目标子域
python sublist3r.py -d aqlab.cn
枚举子域并且显示开放80和443端口的子域
python sublist3r.py -d aqlab.cn -p 80,443
枚举目标子域并保存
Python sublist3r.py -d aqlab.cn -o aqlab.txt
用户事件
历史漏洞
乌云镜像: http://www.anquan.us/
使用手册、通知
使用御剑扫描敏感目录
御剑
御剑也是一-款好用的网站后台扫描工具,图形化页面,使用起来简单上手
了解御剑后台扫描工具的使用
学习如何使用御剑后台扫描工具
robots.txt文件的作用
Robots协议
(也称为爬虫协议、机器人协议等)全称是“网络爬虫排除标准”(Robots Exclus ion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页而不能抓取。
Robots.txt文件的重要性
robots.txt是搜索引擎蜘蛛访问网站时要查看的第一个文件,并且会根据robots.txt文件的内容来爬行网站。在某种意义上说,它的一个任务就是指导蜘蛛爬行,减少搜索引擎蜘蛛的工作量。
Robots.txt文件的存放位置
网站根目录下,通过“域名/robots.txt"能正常访问即可,如http://域名/robots.txt
写法https://baijiahao.baidu.com/s?id=1616368344109675728&wfr=spider&for=pc