天天看点

htcap:一款实用的递归型Web漏洞扫描工具

今天给大家介绍的是一款名叫 htcap 的开源 web 漏洞扫描工具,它通过拦截 ajax 调用和页面 dom

结构的变化并采用递归的形式来爬取单页面应用(spa)。htcap

并不是一款新型的漏洞扫描工具,因为它主要针对的是漏洞扫描点的爬取过程,然后使用外部工具来扫描安全漏洞。在 htcap

的帮助下,我们就可以通过手动或自动渗透测试来对现代 web应用进行漏洞扫描了。

htcap:一款实用的递归型Web漏洞扫描工具

一、环境要求

python 2.7

phantomjs v2

sqlmap

arachni

二、工具下载和运行

$ git clonehttps://github.com/segment-srl/htcap.git htcap 

$ htcap/htcap.py 

三、命令行参数

$ htcap crawl -h 

usage: htcap [options] url outfile 

options:  

 -h               帮助菜单 

 -w               覆盖输出文件 

 -q               不显示处理过程信息 

  -mmode         设置爬取模式: 

                     - passive:不与页面交互 

                      - active:触发事件 

                      - aggressive:填写输入值并爬取表单 (默认) 

  -sscope          设置爬取范围: 

                      - domain:仅爬取当前域名 (默认) 

                      - directory:仅爬取档期那目录 (以及子目录)  

                      - url: 仅分析单一页面 

 -d               最大爬取深度 (默认: 100) 

 -p               连续表单的最大爬取深度 (默认: 10) 

 -f               主动模式下不爬取表单 

 -h               保存页面生成的html代码 

  -ddomains      待扫描的域名,多个域名用逗号分隔 (例如*.target.com) 

  -ccookies       以json格式或name=value键值对的形式设置cookie,多个值用分号隔开 

  -ccookie_file   包含cookie的文件路径  

  -rreferer       设置初始引用 

  -xexcluded      不扫描的url地址,多个地址用逗号隔开 

  -pproxy         设置代理,protocol:host:port-  支持'http'或'socks5' 

  -nthreads       爬虫线程数量 (默认: 10) 

  -acredentials   用户http验证的用户名和密码,例如username:password 

  -uuseragent    设置用户代理 

  -ttimeout       分析一个页面最长可用时间(默认300) 

 -s               跳过初始url检测 

 -g               分组query_string参数 

 -n               不使用标准化url路径 (保留../../) 

 -r               最大重定向数量 (默认10) 

 -i               忽略robots.txt 

四、htcap简单介绍

htcap的扫描过程分为两步,htcap首先会尽可能地收集待测目标可以发送的请求,例如url、表单和ajax请求等等,然后将收集到的请求保存到一个sqlite数据库中。爬取工作完成之后,我们就可以使用其他的安全扫描工具来测试这些搜集到的测试点,最后将扫描结果存储到刚才那个sqlite数据库之中。

htcap内置了sqlmap和arachni模块,sqlmap主要用来扫描sql注入漏洞,而arachni可以发现xss、xxe、代码执行和文件包含等漏洞。

htcap所采用的爬虫算法能够采用递归的方式爬取基于ajax的页面,htcap可以捕获ajax调用,然后映射出dom结构的变化,并对新增的对象进行递归扫描。当htcap加载了一个测试页面之后,htcap会尝试通过触发所有的事件和填充输入值来触发ajax调用请求,当htcap检测到了ajax调用之后,htcap会等待请求和相关调用完成。如果之后页面的dom结构发生了变化,htcap便会用相同算法对新增元素再次进行计算和爬取,直到触发了所有的ajax调用为止。

1. 爬虫模块

<a></a>

<a>2. 爬取范围</a>

<a>htcap可以指定爬取范围,可选范围包括:域名、目录和url。如果范围是域名的话,htcap只会爬取给定的域名地址;如果范围为目录,那么htcap将会爬取指定目录以及该目录下的所有子目录;如果设置的是url,那么htcap将只会分析单个页面。</a>

<a>作者:alpha_h4ck 来源:51cto</a>