zoukankan      html  css  js  c++  java
  • AWVS安装与基础

    --- 下一步

    AWVS简介
    1.AWVS是一个自动化WEB应用程序安全测试工具,审计检查漏洞sql注入,xss夸站点脚本攻击和其他能被黑客利用的漏洞和网页应用

    2.为什么要用AWVS
     黑客具备广泛攻击手段,sql注入,xss,文件包含,目录遍历,参数篡改,绕过等,用软件来解决

    功能简介
    1.整站扫描
    2.站点爬行
    3.发现目标
    4.子域名扫描
    5.盲SQL注射
    6.HTTP编辑
    7.HTTP嗅探
    8.HTTP模糊测试
    9.认证测试
    10.网络服务扫描器
    11.网络服务编辑器
    12.AcuSensor技术代理

    1.AWVS安装
    需要:安装包。破解补丁

    1.安装包---acunetix.exe---下一步---选择目录----安装
    2.破解补丁---打开出现音乐---对勾---下一步---弹出界面---下一步---下一步

    2.站点扫描

    File(文件)---New---web site San---website URL:目标地址---下一步--- Scanning profile(选择扫描哪些)xss还是sql---Customize(自己定义扫描哪些)---Enable post scanning(收集端口信息必须勾选)---下一步---Target()自动检测配置以及版本型号---下一步--login(会员信息)登录可以爬到更多---下一步---下一步等报告

    3.扫描结果分析

    从扫描结果可以看出威胁等级:Level2:Medium

    ①Total alerts found(漏洞分类/数量)
     High=高威 0
     Medium=中威 2
     Low=低威 3
     informational=额外信息

     ②Target information 目标信息地址
       web server banner(服务器版本信息)= Apache/2.4.10(win32)OpenSSL/0.9.8b php
       Operating system = windows
       Web server = Apache 2.x
       Technologies = PHP
     
     ③Statistics(扫描统计)
       Scan time = 2minutes,32seconds 花费了2分32秒
       Number of requests  = 2205 发送了2205个请求
       Average response time = 87.38 milliseconds 平均每一个响应花费87.38毫秒
     
     ④ Web Alerts web方面的漏洞
       
       查看他的详细信息有什么方法造成漏洞,在看返回包

     ⑤ port Scanner 目标开放了哪些端口
     
     ⑥ Knowledge Base
       
        目标开放的东西

      ⑦Site strure 地址的目录数
         OK = 200
         Forbidden = 403

    ⑧Cookies 值。

    ⑩保存扫描结果
    11,Report保存报告---导出报告格式

           报告格式pdf不是很好导入,可以查看下

    4.站点爬虫与http编辑(重点)该软件的核心就是爬虫

    1.打开AWVS
    2.tools--site crawler
    3.startURL:输入站点地址
    4.点击右侧开始
    5.观察他的服务,以及状态码
    6.configuration--Scan Settings---Crawling Options



    Crawling Options--下爬虫的设置
    1在扫描结束的时候开启http sniffer 目的是让用户手动去浏览,一面crawler没有爬行到
    2爬行网站首页所有连接
    3.不抓取上级目录
    4.抓取子目录
    5.尝试抓取其他的连接(不全是从首页爬行到的)
    6.处理robots.txt和sitemap.xml
    7.是否忽略路径中的大小写
    8.从每个文件夹中先爬去类似index.php.default.asp的文件
    9.防止无限递归目录。
    10.如果探测到url重写的话,警告用户
    11.忽略文件格式(例如,js,css等)
    12.防止自定义404界面的探测
    13.将www.admin.com和admin.com视为同一个站
    14.启用这个项目,如果在一个文件夹中存在超过20中写入模式的话,爬虫只会爬行前20个
    15优化输出已知的应用。

    HTTP Edittor 类似于burp的Ranpt一样,重发器

    5.目标查找和二级域名扫描(属于信息收集)

    操作方法:

      Target Finder(目标查找)

    ①Target Finder---IP Range(输入要查找的地址)---List of Ports(端口)---开始
    显示有哪些

    ②Response Headers(响应头)

    ③Response Data(网页源代码)

    ④View page(网页展示)




    Subdomain Scanner(二级域名查找)
    ①Subdomain Scanner---Domain(输入根域名)---DNS目标或者自定义的---Timeout(sec)响应超时的时间---开始

    ②Response Headers(响应头)

    ③Response Data(网页源代码)

    ④View page(网页展示)

    6.认证测试密码表单

    认证测试器

    ①Target URL to test:xxxxxx  要进行测试的地址

    ②Authentication method:http   认证方式有HTTP和表单
    ③slect user/passwor---会自动识别出来输入框一---输入框二---在用图标确定账号和密码----ok

    ④Logon has faled if: HTTP status code is----no
    登录错误关键字,可以用正则表达式,http状态码,页面包含字符
    错误关键字有三种1.HTTP status code is http状态码
                    2.Result contains 结果包含了
                    3.结果匹配与正则表达式

    ⑤Usemane dictionary path:账号字典路径
    ⑥passwor dictionary path:密码字典路径

    ⑦显示
    Valid Combinations
    会提示出使用什么组合

    7.HTTP Snidder抓包

    先设置浏览器代理

    HTTP Snidder配置
    陷阱设置:
    ASP或PHP的请求
    只是请求
    带有GET参数的请求
    带有POST参数的请求
    响应头
    不设置图片,css,script的陷阱
    不设置请求
    不设置响应
    高亮php错误信息
    替换user agent
    记录HOST字符
    记录SERVER字符
    记录URL
    记录X-POWERED-BY字符
    记录GET方式参数
    记录POST方式的参数

    HTTP Sniffer配置
    跟burp suite的功能类似,获取数据包,修改数据包,提交或丢弃。
    需要点击Start, 和Enbte Traps

    1.Tools
    2.HTTP Sniffer
    3.Edit Traps(编辑陷阱)
    4.Enable Traps(截取)
    5.Start(开始)

  • 相关阅读:
    Activator.CreateInstance 反射实例化对象
    MVC Form提交
    Redis 下载
    List<T> 序列化与反序列化
    快速反射DataTable
    数据库特性
    javascript判断文件大小
    MD5
    HttpHelper
    cacheHelper
  • 原文地址:https://www.cnblogs.com/fanghan/p/13066481.html
Copyright © 2011-2022 走看看