AWVS安装与基础

--- 下一步

AWVS简介
1.AWVS是一个自动化WEB应用程序安全测试工具,审计检查漏洞sql注入,xss夸站点脚本攻击和其他能被黑客利用的漏洞和网页应用

2.为什么要用AWVS
 黑客具备广泛攻击手段,sql注入,xss,文件包含,目录遍历,参数篡改,绕过等,用软件来解决

功能简介
1.整站扫描
2.站点爬行
3.发现目标
4.子域名扫描
5.盲SQL注射
6.HTTP编辑
7.HTTP嗅探
8.HTTP模糊测试
9.认证测试
10.网络服务扫描器
11.网络服务编辑器
12.AcuSensor技术代理

1.AWVS安装
需要:安装包。破解补丁

1.安装包---acunetix.exe---下一步---选择目录----安装
2.破解补丁---打开出现音乐---对勾---下一步---弹出界面---下一步---下一步

2.站点扫描

File(文件)---New---web site San---website URL:目标地址---下一步--- Scanning profile(选择扫描哪些)xss还是sql---Customize(自己定义扫描哪些)---Enable post scanning(收集端口信息必须勾选)---下一步---Target()自动检测配置以及版本型号---下一步--login(会员信息)登录可以爬到更多---下一步---下一步等报告

3.扫描结果分析

从扫描结果可以看出威胁等级:Level2:Medium

①Total alerts found(漏洞分类/数量)
 High=高威 0
 Medium=中威 2
 Low=低威 3
 informational=额外信息

 ②Target information 目标信息地址
   web server banner(服务器版本信息)= Apache/2.4.10(win32)OpenSSL/0.9.8b php
   Operating system = windows
   Web server = Apache 2.x
   Technologies = PHP
 
 ③Statistics(扫描统计)
   Scan time = 2minutes,32seconds 花费了2分32秒
   Number of requests  = 2205 发送了2205个请求
   Average response time = 87.38 milliseconds 平均每一个响应花费87.38毫秒
 
 ④ Web Alerts web方面的漏洞
   
   查看他的详细信息有什么方法造成漏洞,在看返回包

 ⑤ port Scanner 目标开放了哪些端口
 
 ⑥ Knowledge Base
   
    目标开放的东西

  ⑦Site strure 地址的目录数
     OK = 200
     Forbidden = 403

⑧Cookies 值。

⑩保存扫描结果
11,Report保存报告---导出报告格式

       报告格式pdf不是很好导入,可以查看下

4.站点爬虫与http编辑(重点)该软件的核心就是爬虫

1.打开AWVS
2.tools--site crawler
3.startURL:输入站点地址
4.点击右侧开始
5.观察他的服务,以及状态码
6.configuration--Scan Settings---Crawling Options



Crawling Options--下爬虫的设置
1在扫描结束的时候开启http sniffer 目的是让用户手动去浏览,一面crawler没有爬行到
2爬行网站首页所有连接
3.不抓取上级目录
4.抓取子目录
5.尝试抓取其他的连接(不全是从首页爬行到的)
6.处理robots.txt和sitemap.xml
7.是否忽略路径中的大小写
8.从每个文件夹中先爬去类似index.php.default.asp的文件
9.防止无限递归目录。
10.如果探测到url重写的话,警告用户
11.忽略文件格式(例如,js,css等)
12.防止自定义404界面的探测
13.将www.admin.com和admin.com视为同一个站
14.启用这个项目,如果在一个文件夹中存在超过20中写入模式的话,爬虫只会爬行前20个
15优化输出已知的应用。

HTTP Edittor 类似于burp的Ranpt一样,重发器

5.目标查找和二级域名扫描(属于信息收集)

操作方法:

  Target Finder(目标查找)

①Target Finder---IP Range(输入要查找的地址)---List of Ports(端口)---开始
显示有哪些

②Response Headers(响应头)

③Response Data(网页源代码)

④View page(网页展示)




Subdomain Scanner(二级域名查找)
①Subdomain Scanner---Domain(输入根域名)---DNS目标或者自定义的---Timeout(sec)响应超时的时间---开始

②Response Headers(响应头)

③Response Data(网页源代码)

④View page(网页展示)

6.认证测试密码表单

认证测试器

①Target URL to test:xxxxxx  要进行测试的地址

②Authentication method:http   认证方式有HTTP和表单
③slect user/passwor---会自动识别出来输入框一---输入框二---在用图标确定账号和密码----ok

④Logon has faled if: HTTP status code is----no
登录错误关键字,可以用正则表达式,http状态码,页面包含字符
错误关键字有三种1.HTTP status code is http状态码
                2.Result contains 结果包含了
                3.结果匹配与正则表达式

⑤Usemane dictionary path:账号字典路径
⑥passwor dictionary path:密码字典路径

⑦显示
Valid Combinations
会提示出使用什么组合

7.HTTP Snidder抓包

先设置浏览器代理

HTTP Snidder配置
陷阱设置:
ASP或PHP的请求
只是请求
带有GET参数的请求
带有POST参数的请求
响应头
不设置图片,css,script的陷阱
不设置请求
不设置响应
高亮php错误信息
替换user agent
记录HOST字符
记录SERVER字符
记录URL
记录X-POWERED-BY字符
记录GET方式参数
记录POST方式的参数

HTTP Sniffer配置
跟burp suite的功能类似,获取数据包,修改数据包,提交或丢弃。
需要点击Start, 和Enbte Traps

1.Tools
2.HTTP Sniffer
3.Edit Traps(编辑陷阱)
4.Enable Traps(截取)
5.Start(开始)

原文地址:https://www.cnblogs.com/fanghan/p/13066481.html