zoukankan      html  css  js  c++  java
  • AWVS安装与基础

    --- 下一步

    AWVS简介
    1.AWVS是一个自动化WEB应用程序安全测试工具,审计检查漏洞sql注入,xss夸站点脚本攻击和其他能被黑客利用的漏洞和网页应用

    2.为什么要用AWVS
     黑客具备广泛攻击手段,sql注入,xss,文件包含,目录遍历,参数篡改,绕过等,用软件来解决

    功能简介
    1.整站扫描
    2.站点爬行
    3.发现目标
    4.子域名扫描
    5.盲SQL注射
    6.HTTP编辑
    7.HTTP嗅探
    8.HTTP模糊测试
    9.认证测试
    10.网络服务扫描器
    11.网络服务编辑器
    12.AcuSensor技术代理

    1.AWVS安装
    需要:安装包。破解补丁

    1.安装包---acunetix.exe---下一步---选择目录----安装
    2.破解补丁---打开出现音乐---对勾---下一步---弹出界面---下一步---下一步

    2.站点扫描

    File(文件)---New---web site San---website URL:目标地址---下一步--- Scanning profile(选择扫描哪些)xss还是sql---Customize(自己定义扫描哪些)---Enable post scanning(收集端口信息必须勾选)---下一步---Target()自动检测配置以及版本型号---下一步--login(会员信息)登录可以爬到更多---下一步---下一步等报告

    3.扫描结果分析

    从扫描结果可以看出威胁等级:Level2:Medium

    ①Total alerts found(漏洞分类/数量)
     High=高威 0
     Medium=中威 2
     Low=低威 3
     informational=额外信息

     ②Target information 目标信息地址
       web server banner(服务器版本信息)= Apache/2.4.10(win32)OpenSSL/0.9.8b php
       Operating system = windows
       Web server = Apache 2.x
       Technologies = PHP
     
     ③Statistics(扫描统计)
       Scan time = 2minutes,32seconds 花费了2分32秒
       Number of requests  = 2205 发送了2205个请求
       Average response time = 87.38 milliseconds 平均每一个响应花费87.38毫秒
     
     ④ Web Alerts web方面的漏洞
       
       查看他的详细信息有什么方法造成漏洞,在看返回包

     ⑤ port Scanner 目标开放了哪些端口
     
     ⑥ Knowledge Base
       
        目标开放的东西

      ⑦Site strure 地址的目录数
         OK = 200
         Forbidden = 403

    ⑧Cookies 值。

    ⑩保存扫描结果
    11,Report保存报告---导出报告格式

           报告格式pdf不是很好导入,可以查看下

    4.站点爬虫与http编辑(重点)该软件的核心就是爬虫

    1.打开AWVS
    2.tools--site crawler
    3.startURL:输入站点地址
    4.点击右侧开始
    5.观察他的服务,以及状态码
    6.configuration--Scan Settings---Crawling Options



    Crawling Options--下爬虫的设置
    1在扫描结束的时候开启http sniffer 目的是让用户手动去浏览,一面crawler没有爬行到
    2爬行网站首页所有连接
    3.不抓取上级目录
    4.抓取子目录
    5.尝试抓取其他的连接(不全是从首页爬行到的)
    6.处理robots.txt和sitemap.xml
    7.是否忽略路径中的大小写
    8.从每个文件夹中先爬去类似index.php.default.asp的文件
    9.防止无限递归目录。
    10.如果探测到url重写的话,警告用户
    11.忽略文件格式(例如,js,css等)
    12.防止自定义404界面的探测
    13.将www.admin.com和admin.com视为同一个站
    14.启用这个项目,如果在一个文件夹中存在超过20中写入模式的话,爬虫只会爬行前20个
    15优化输出已知的应用。

    HTTP Edittor 类似于burp的Ranpt一样,重发器

    5.目标查找和二级域名扫描(属于信息收集)

    操作方法:

      Target Finder(目标查找)

    ①Target Finder---IP Range(输入要查找的地址)---List of Ports(端口)---开始
    显示有哪些

    ②Response Headers(响应头)

    ③Response Data(网页源代码)

    ④View page(网页展示)




    Subdomain Scanner(二级域名查找)
    ①Subdomain Scanner---Domain(输入根域名)---DNS目标或者自定义的---Timeout(sec)响应超时的时间---开始

    ②Response Headers(响应头)

    ③Response Data(网页源代码)

    ④View page(网页展示)

    6.认证测试密码表单

    认证测试器

    ①Target URL to test:xxxxxx  要进行测试的地址

    ②Authentication method:http   认证方式有HTTP和表单
    ③slect user/passwor---会自动识别出来输入框一---输入框二---在用图标确定账号和密码----ok

    ④Logon has faled if: HTTP status code is----no
    登录错误关键字,可以用正则表达式,http状态码,页面包含字符
    错误关键字有三种1.HTTP status code is http状态码
                    2.Result contains 结果包含了
                    3.结果匹配与正则表达式

    ⑤Usemane dictionary path:账号字典路径
    ⑥passwor dictionary path:密码字典路径

    ⑦显示
    Valid Combinations
    会提示出使用什么组合

    7.HTTP Snidder抓包

    先设置浏览器代理

    HTTP Snidder配置
    陷阱设置:
    ASP或PHP的请求
    只是请求
    带有GET参数的请求
    带有POST参数的请求
    响应头
    不设置图片,css,script的陷阱
    不设置请求
    不设置响应
    高亮php错误信息
    替换user agent
    记录HOST字符
    记录SERVER字符
    记录URL
    记录X-POWERED-BY字符
    记录GET方式参数
    记录POST方式的参数

    HTTP Sniffer配置
    跟burp suite的功能类似,获取数据包,修改数据包,提交或丢弃。
    需要点击Start, 和Enbte Traps

    1.Tools
    2.HTTP Sniffer
    3.Edit Traps(编辑陷阱)
    4.Enable Traps(截取)
    5.Start(开始)

  • 相关阅读:
    【POJ 3162】 Walking Race (树形DP-求树上最长路径问题,+单调队列)
    【POJ 2152】 Fire (树形DP)
    【POJ 1741】 Tree (树的点分治)
    【POJ 2486】 Apple Tree (树形DP)
    【HDU 3810】 Magina (01背包,优先队列优化,并查集)
    【SGU 390】Tickets (数位DP)
    【SPOJ 2319】 BIGSEQ
    【SPOJ 1182】 SORTBIT
    【HDU 5456】 Matches Puzzle Game (数位DP)
    【HDU 3652】 B-number (数位DP)
  • 原文地址:https://www.cnblogs.com/fanghan/p/13066481.html
Copyright © 2011-2022 走看看