目錄:
0×00、什麼是Acunetix Web Vulnarability Scanner ( What is AWVS?)
0×01、AWVS安裝過程、主要檔案介紹、界面簡介、主要操作區域簡介(Install AWVS and GUI Description)
0×02、AWVS的菜單欄、工具欄簡介(AWVS menu bar & tools bar)
0×03、 開始一次新掃描之掃描類型、掃描參數詳解(Scan Settings、Scanning Profiles)
0×04、AWVS的應用程式配置詳解(Application Settings)
0×05、AWVS的蜘蛛爬行功能(Site Crawler)
0×06、AWVS的目标探測工具(Target Finder)
0×07、AWVS的子域名探測工具(Subdomain Scanner)
0×08、AWVS的SQL盲注測試工具(Blind SQL Injection)
0×09、AWVS的HTTP請求編輯器(HTTP Editor)
0×10、AWVS的HTTP嗅探工具(HTTP Sniffer)
0×11、AWVS的HTTP模糊測試工具(HTTP Fuzzer)
0×12、AWVS的認證測試工具(Authentication Tester)
0×13、AWVS的WEB WSDL掃描測試工具(Web Services Scanner、Web Services Editor)
0×00、什麼是Acunetix Web Vulnarability Scanner
Acunetix Web Vulnerability Scanner(簡稱AWVS)是一款知名的Web網絡漏洞掃描工具,它通過網絡爬蟲測試你的網站安全,檢測流行安全漏洞。它包含有收費和免費兩種版本,AWVS官方網站是:
http://www.acunetix.com/,目前最新版是V10.5版本,官方下載下傳位址:
https://www.acunetix.com/vulnerability-scanner/download/,官方免費下載下傳的是試用14天的版本。這裡我們以V10.5破解版來講解。
功能以及特點:
a)、自動的用戶端腳本分析器,允許對 Ajax 和 Web 2.0 應用程式進行安全性測試。
b)、業内最先進且深入的 SQL 注入和跨站腳本測試
c)、進階滲透測試工具,例如 HTTP Editor 和 HTTP Fuzzer
d)、可視化宏記錄器幫助您輕松測試 web 表格和受密碼保護的區域
e)、支援含有 CAPTHCA 的頁面,單個開始指令和 Two Factor(雙因素)驗證機制
f)、豐富的報告功能,包括 VISA PCI 依從性報告
h)、高速的多線程掃描器輕松檢索成千上萬個頁面
i)、智能爬行程式檢測 web 伺服器類型和應用程式語言
j)、Acunetix 檢索并分析網站,包括 flash 内容、SOAP 和 AJAX
k)、端口掃描 web 伺服器并對在伺服器上運作的網絡服務執行安全檢查
l)、可導出網站漏洞檔案
0×01、AWVS安裝過程、主要檔案介紹、界面簡介、主要操作區域簡介
注:本文提供的破解 方式僅供軟體試用,請于連結文字24小時内删除 ,如需使用請購買正版!
1、下載下傳位址:
http://pan.baidu.com/s/1i3Br6ol提取密碼:u60f 。其中 2016_02_17_00_webvulnscan105.exe是AWVS v10.5的安裝包,而Acunetix_Web_Vulnerability_Scanner_10.x_Consultant_Edition_KeyGen_Hmily 是破解更新檔。AWVS安裝的方法與安裝windows程式安裝方法一樣,我們這裡主要講解安裝的主要點:

2、安裝到最後一步的時候将“Launch Acunetix Web Vulnerbility Scanner”前的勾去掉,安裝完成之後将會在桌面生成兩個圖示:
3、之後我們将破解更新檔移動到AWVS的安裝目錄,打開破解更新檔。點選patch之後便可以完成破解,最後關閉破解更新檔。
4、破解之後,程式将彈出下面程式,直接點選next下一步
5、最後提示激活成功之後,直接Flish完成安裝,提示Successfuly表示成功安裝。
6、啟動桌面上的Acunetix Web Vulnerability Scanner 10.5,在菜單欄上選擇——Help——About可以看到AWVS的版本,以及包括“Program Updates”可檢查軟體更新,我們這裡就不更新。畢竟我們下的是最新版的。
7、主要程式介紹:在程式安裝路徑“C:\Program Files (x86)\Acunetix\Web Vulnerability Scanner 10” 中主要檔案的作用如下:
8、安裝界面介紹:啟動AWVS可以看到整個程式的界面
①、标題欄
②、菜單欄
③、工具欄
④、主要操作區域
⑤、主界面
⑥、狀态區域
9:主要操作區域簡介:
0×02、AWVS的菜單欄、工具欄簡介(AWVS menus bar & tools bar)
a)、菜單欄
File——New——Web Site Scan :建立一次網站掃描
File——New——Web Site Crawl:建立一次網站爬行
File——New——Web Services Scan:建立一個WSDL掃描
Load Scan Results:加載一個掃描結果
Sava Scan Results:儲存一個掃描結果
Exit:退出程式
Tools:參考主要操作區域的tools
Configuration——Application Settings:程式設定
Configuration——Scan Settings:掃描設定
Configuration——Scanning Profiles:側重掃描的設定
Help——Check for Updates:檢查更新
Help——Application Directories——Data Directory:資料目錄
Help——Application Directories——User Directory:使用者目錄
Help——Application Directories——Scheduler Sava Directory:計劃任務儲存目錄
Help——Schedule Wen Interface:打開WEB形式計劃任務掃描處
Help——Update License:更新AWVS的許可資訊
Help——Acunetix Support——User Mannul(html):使用者HTML版手冊
Help——Acunetix Support——User Mannul(PDF):使用者PDF版手冊
Help——Acunetix Support——Acunetix home page:AWVS官網
Help——Acunetix Support——HTTP Status:HTTP狀态碼簡介
b)、工具欄
從左到右分别是(這些都可以在主要操作區域找到,是以不常用):
建立掃描——網站掃描——網站爬行——目标查找——目标探測——子域名掃描——SQL盲注——HTTP編輯——HTTP嗅探——HTTP Fuzzer——認證測試——結果對比——WSDL掃描——WSDL編輯測試——程式設定——掃描設定——側重掃描設定——計劃任務——報告
0×03:一次新的掃描的功能全面概述(Scan Settings:掃描類型、掃描參數)
1、點選菜單欄的 New Scan 建立一次掃描, 網站掃描開始前,需要設定下面選項:
1). Scan type
2). Options
3). Target
4). Login
5). Finsh
1、Scan type:
①:Scan single website:在Website URL處填入需要掃描的網站網址,如果你想要掃描一個單獨的應用程式,而不是整個網站,可以在填寫網址的地方寫入完整路徑。wvs支援HTTP/HTTPS網站掃描。
②:Scan using saved crawling results:導入WVS内置 site crawler的爬行到的結果,然後對爬行的結果進行漏洞掃描。
③:Access the scheduler interface:如果被掃描的網站構成了一個清單形式(也就是要掃描多個網站的時候),那麼可以使用Acunetix的Scheduler功能完成任務,通路
http://localhost:8183,掃描後的檔案存放在“C:\Users\Public\Documents\Acunetix WVS 10\Saves”.
Acunetix的計劃任務,主要特性如下:
a). 可用于大量掃描,掃描結果儲存在“C:\Users\Public\Documents\Acunetix WVS 10\Saves”。
b). 掃描結束,可以使用郵件通知。
c). 可設定計劃時間,什麼時候允許掃描,什麼時候不允許掃描
2、Options:
Scanning options :側重掃描的漏洞類型設定
①:Scanning profile:設定側重掃描的類型,包含16種側重檢測類型,如下:
每種側重掃描的類型又有包含多種掃描script,如果需要做調整或者修改,請檢視 Configuration >> Scanning Profiles
Scanning Profiles中的每個側重掃描的類型下都包含了非常多的掃描腳本,由于太多我就不一一介紹,随便點選一個,右邊就有對該掃描腳本的介紹,随意抽選幾個介紹,例如:
ftp_anonymous.script:掃描ftp匿名登入漏洞PHPInfo.script:掃描是否有phpinfo洩露
Backup_File.script:掃描網站的備份檔案wordpress_8.script:針對 wordpress弱密碼測試
你也可以選擇掃描的腳本,然後建立自己的掃描政策,如下:
選擇自己需要的政策,可以單擊儲存按鈕儲存一份政策,單擊X按鈕删除一個政策
Scan Setting:掃描配置
②:可定制掃描器掃描選項,AWVS在預設情況下隻有“default”預設掃描參數配置政策,點選旁邊的Customize則可以自定義:
與界面主操作區域對應:如下
(注意要點:如果在建立向導中設定Scan setting隻會影響本次掃描的掃描參數設定,如果在主界面中的Scan Setting設定則是全局配置)
此處可以設定各種掃描參數配置,包括點選白色處“
”是建立配置,單擊X則是删除配置。
a)、Scan options 掃描配置
①:禁用蜘蛛爬行出發現的問題,AWVS在漏洞測試之前會使用蜘蛛功能對網站先進行測試,此處是禁用蜘蛛爬行發現的問題,如:錯誤的連結。一般這樣的錯誤都是風險很低的警告資訊。
②:scanning mode 是指掃描的模式分為三種如下:
Heuristic:标準的掃描模式,掃描線程和深度一緻
Quick:快速掃描模式
Extensive:擴充性掃描,完整掃描模式
它們三種模式的掃描線程、深度如下:
③:目錄爬行的遞歸深度,預設為5級,使用0則關閉
不要發出超過500個相同類型的警告,使用0則關閉
④:開啟目标端口掃描功能,但該掃描速度較慢,建議使用NMAP端口掃描
⑤:收集不常見的HTTP請求狀态,例如HTTP 500狀态碼
⑥:在掃描過程中如果伺服器停止響應嘗試25次之後中止掃描
⑦:在掃描過程中,是否使用網站設定的cookie
⑧:網站中連結到其它主機的檔案,而這些網站與主站的關系相近,例如:
www.baidu.com連結中包含test.baidu.com,你可以在這裡添加允許與主站關系很大的域名來進行掃描,可以使用通配符形式。這樣掃描的時候将掃描這些主機的漏洞。
b)、Headers and Cookies 頭部與Cookie
(a)、Test cookies for all files (by default it will only check files with parameters)
通路所有檔案,都使用cookie測試(預設情況下,隻有帶參數的檔案才使用cookie進行檢測)。
(b)、Manipulate the HTTP headers listed below
操控HTTP頭部資訊,可按照自己的要求定制HTTP頭。
(c)、Add Header
添加一個HTTP頭部,在新增的“enter header name here”單擊此處可以輸入你的頭部名稱。
(d)、Remove Selected
移除你選中的HTTP頭部
c)、Parameter Exclusion 掃描參數排除
有些參數不影響使用者會話的操作,你可以排除這些參數被放在這個名單中,掃描器将不會去掃描測試這些參數,注意:名稱應該為正規表達式
(a)、添加一個參數排除:
包含URL(*代表任何URL)、名字(要過濾的參數,一般以正規表達式表示)、type(請求方式,包含Any任何類型、GET、POST類型、COOKIE類型)
(b)、移除選中的排除
d)、GHDB 利用Google hacking資料庫檢測
Google hacking資料庫設定,包含了1467條資料在資料庫中
AWVS在掃描的過程中利用google hacking技術在google搜尋引擎上對目标網站進行資訊搜集。下面的文法是對網站的資訊搜尋的google文法。
(a)、Short description: 簡要描述資訊:(參考:
http://baike.baidu.com/view/336231.htm)
(b)、Query String :Google上查詢的字元
(c)、 Filter GHDB:GHDB過濾搜尋 (Short description:簡要描述 Query String 查詢字元串 Full description:所有描述)
(d)、check visible:檢測明顯的 unchek visible:不檢測明顯的 check only visible:檢測僅明顯的
③: Crawling options 爬行設定:
針對特定的掃描場景,自定義爬蟲的行為,這些選項将定義爬蟲的行為:
start HTTP Sniffer for manual crawling at the end of process:蜘蛛爬行過程結束後啟動HTTP嗅探,以發行更多連結。
Get first URL only:隻掃描首頁,不抓取任何連結。
Do not fetch anyting above start folder:不掃描上級目錄,例如:建立掃描為
http://www.baidu.com/cms/,将不會掃描cms上級目錄的連結。
Fetch files below base folder:掃描子目錄。
Fetch directory indexes even if not linked:擷取目錄索引,即使沒有關聯性的。
Retrieve and process robots.txt, sitemap.xml. :抓取并分析robots.txt、sitemap.xml中出現的目錄、URL。
lgnore CASE differences in paths:忽略目錄的大小寫敏感
fetch default index files (index.php,default.asp):嘗試擷取每個目錄下的預設索引檔案,例如掃描
http://qq.com,如果爬行到test目錄則嘗試擷取test目錄下是否有索引檔案,例如:
http://qq.c/test/index.php。
try to prevent infinite derectory recursion:防止抓取到死循環的無限目錄。如:
http://qq.com/admin/admin/admin/admin/admincrawl should request only linked files: 爬行應請求隻有關聯性的檔案。
ignore parameters on file extensions like .js .css…etc:忽略檔案擴充名類似為js css的參數。
disable auto custom 404 detection(application will use only user defined reles):禁用自動定制404檢測(應用程式将使用使用者定義的規則)。
consider
www.domain.comand domain.com as the same host:如果啟用該項那麼AWVS會認為www域名和頂級域名是同一主機。
enable input limitaion heuristics:如果啟用該選項,并在同一目錄下的檔案被檢測20多個相同的輸入方案,抓取工具隻會抓取前20個相同的輸入方案。
optimize inputs for known applications: 對已知應用程式輸入的優化。
maximum num ber of variations:變化的最大數目,例如:
http://www.baidu.com/index.php?id=1,這裡設定ID的最大值為50。link depth limitation:連結深度限制,例如從A站點抓取發現了一個連結,又從該連結上發現另一個連結,以此類推最大深度預設為100。
structure depth limitation:子目錄的最大深度的限制,預設最大15級目錄。
maximun number of files in a derectory:在一個目錄下AWVS爬取檔案數量的最大值。
maximum number of path schemes:判斷路徑任務的最大任務數。
crawler file limit:爬蟲爬行檔案的數量限制。
④:file extension filters: 檔案擴充名過濾
AWVS将讀取該配置,嘗試掃描哪些字尾的檔案,例如排除掉的字尾檔案,AWVS在工作的時候将不掃描被排除的字尾檔案,因為掃描它們毫無意義。
a)、包含的擴充名,AWVS将會掃描的字尾擴充檔案
b)、 排除的擴充名,AWVS将不掃描的字尾擴充檔案
⑤: Directory and file filters:目錄和檔案過濾
定義一個目錄清單被排除在爬行和掃描過程通配符允許您篩選一系列檔案:如/dir1/* 或者/dir1/a *。表示将不掃描/dir1/下的檔案,/dir1/a*表示的是不掃描dir1下以a開頭的檔案的漏洞。
a)、過濾的URL
b)、是否為正規表達式
⑥:URL Rewrite:URL重定向設定
一些網站使用URL重寫,這裡你可以定義一個清單的URL重定向不同網站幫助爬蟲浏覽這些網站。
⑦:HTTP Options
定義在爬行和掃描過程的HTTP頭選項
(a)、使用者目前的agent
(b)、定義不同浏覽器的agent
(c)、檢查最大的并發連接配接數
(d)、HTTP的請求逾時時間
(e)、AWVS對兩個請求之間延遲的毫秒,某些WAF對通路請求時間太快會進行攔截
(f)、HTTP請求的檔案位元組大小限制,預設5120kb
(h)、自定義HTTP 頭部,例如自定義IP報頭或者其它的HTTP頭,如下:
⑧:Lan Settings
配置代理伺服器來掃描網站漏洞
a)、http代理伺服器
b)、Socks代理伺服器
⑨:DeepScan
深度掃描,深度掃描技術,嵌入WebKit提供使用JavaScript基礎技術如AJAX / HTML5和SPA 網站全面支援
a)、啟用深度掃描
b)、掃描從外部引入的腳本中存在的漏洞,例如scr=
http://www.qq.com/xx.jspc)、Session 逾時的秒數
⑩:Custom Cookie
自定義Cookie,例如你在網站的登入之後擷取Cookie,将Cookie添加到這來就可以實作預登陸狀态下的掃描
a)、添加、移除自定義的cookie ,包含要添加的URL,使用*表示所有的URL,以及對應的Cookie值。
b)、掃描時鎖定自定義的cookie
⑾:Input Fileds
此處主要設定送出表單時的字段對應的預設值,例如在HTML表單送出中出現age的字段,則會自動填寫值為20。字段中:*web*中的是含有通配符的表示形式,例如1web2這樣的就是滿足*web*,而字段的值則有多種變量如下:
${alpharand}:a-z的随機字元串
${numrand}:0-9随機數字
${alphanumrand}:上兩個的組合(随機字元串+随機數字)
(a)、從URL中 解析表單的字段,例如輸入
http://login.taobao.com将從這裡讀取表單的字段,值如果有預設則填寫預設,沒有則需要自己添加,例如對wooyun.org自動提取表單的字段,預設值則需要自己設定,這樣友善在掃描的時候AWVS自動填寫預設的值去送出表單進行漏洞測試
(b)、添加、移除、前後順序設定自定義的表單字段,包含:名字、值、長度
⑿ : AcuSensor
傳感器技術 ,從這個節點,您可以啟用或禁用acusensor和它的功能和設定密碼。
(a)、啟動AcuSensor技術
(b)、為AcuSensor設定密碼
(c)、請求檔案清單
(d)、開啟伺服器警告
(e)、在一個特定的URL上測試AcuSensor
⒀:Port Scanner
配置端口掃描程式的、socket、逾時和端口設定
(a)、使用者掃描端口的線程數
(b)、連接配接逾時的毫秒時間設定
(c)、添加、移除掃描的端口,這裡已經列舉了常用的端口,AWVS将會掃描這裡的端口。
⒂:Custom 404
自定義404頁面,為了掃描中防止誤報,應當自定義404頁面
自定404頁面的方式:
①:自定義404的URL
②:404頁面的關鍵字比對
③:比對的關鍵字出現的位置
Location header:出現在HTTP頭部
Result body:出現在HTTP的正文處
Result headers:出現在HTTP的頭部+正文處
④:測試404頁面是否存在Pattern中輸入的,如果成功表示404頁面中存在該關鍵字
⑤:是否為正規表達式
當然你可以單擊向下展開的按鈕,可以測試網站的404頁面包括頭部、浏覽形式的檢視,然後你可以選擇404的關鍵字,通過點選“Generate pattern from selection”來生成404的關鍵字或者表達式,并且會自動設定出現的位置。
Adjust advanced scan setting:
在掃描向導中顯示進階掃描設定,如下面的Advanced就是進階選項
Advanced:
進入進階之後分别是:
①:在爬行結果之後選擇我們需要掃描哪些檔案
②:自定義從哪裡開始掃描,導入txt檔案,例如掃描
http://www.baidu.com,不想從根路徑開始掃,而從二級目錄
/test/,将其儲存到txt檔案中之後将從test二級目錄開始掃描
③:爬行的時候使用外部測試工具,蜘蛛爬行的過程中将運作您設定的指令,以及逾時時間設定
④:設定包含一個火狐擴充插件Selenium IDE生成的HTML檔案,蜘蛛爬行的過程中将會根據它來進行爬行。
Target:
(a)、掃描目标的根路徑
(b)、服務的banner
(c)、目标URL
(d)、目标作業系統
(e)、目标的Web容器
(f)、目标的程式語言
Login:
①:使用預先設定的登入序列,可以直接加載lsr檔案,也可以點選白色處開始按照步驟建立一個登入序列(具體步驟參考後面的示範)
②:填寫使用者名密碼,嘗試自動登入.在某些情況下,可以自動識别網站的驗證。
Finish:
①:使用AcuSensor傳感技術的設定
②:爬行與掃描中是否區分大小寫
③:将這次的設定儲存為一個政策,以便下次直接使用政策
開始掃描:
①:
依次為:
#1、Generater report from this scan :
使用Configuration Settings可定制報告的某些資訊,例如logo等.
轉換為不同的格式報告:
②:掃描結果顯示,包含存在漏洞的名字、連結、參數等,Site Structrus是網站爬行出的結構狀态、Cookie是爬行的Cookie資訊。
③:詳情資訊顯示,需要點選左邊的掃描結果才會展示詳情資訊。如下圖就是左側顯示的SQL注入和參數,右邊是SQL注入的詳情。
如果不點選則是掃描的高低危漏洞統計,如下圖就是威脅等級:Level 3,漏洞總結果是17個,High(紅色):高危漏洞2個,Medium(橙色):中危漏洞8個,Low(藍色):低危漏洞5個,Informational(綠色):提示資訊2個。
④ :顯示三個資訊。
Taget Information:包含目标站點 1、是否應答、2、WebServer的banner、3、作業系統、4、Web容器、5、程式語言
Statistics:對掃描的各種資訊統計,包含1、掃描的總時間、2、HTTP請求數量、3、平均掃描時間、4、掃描重複次數
Progress:掃描進度資訊的提示,包含1、是否掃描完成,100.00%表示已完成,2、端口掃描是否完成 3、蜘蛛爬行是否完成(檔案數量、目錄數量、變量數量)、4、腳本資訊 5、内部子產品
⑤ 顯示應用程式運作、測試的日志、錯誤日志。
0×04、AWVS的應用程式配置詳解
三個設定點:
1、Application Settings:
1、Application Updates: 程式更新的配置
Application Updates:程式更新
①:程式更新,分為兩種:
At application startup:在程式啟動時自動檢查更新
When ‘check for updates’ is clicked:使用者點選“General——Program Updates——Check for updates”時更新
②: 更新時使用代理伺服器來更新程式,需填寫主機名、代理端口、使用者名和密碼
2、Logging: 日志配置
①:Enable logging:開啟日志功能
②:Log infomational messages:将程式的提示資訊記入日志
③:Log warning messages:将程式的警告資訊記入日志
④:Log Errir messages:将程式的錯誤資訊記入日志
⑤:Log HTTP request and response to a file:将程式中發起的HTTP請求和響應資訊記錄到一個檔案中log\httplog.txt
⑥:Log only HTTP error in HTTP log:隻記錄HTTP的錯誤資訊在HTTP的日志中
⑦:Include timestamps:在記錄日志的時候包含産生每條記錄的時間戳
⑧:On error switch to Error Log tab:在發生錯誤資訊的時候,自動切換到Error Log面闆
⑨:number log files to keep before deleting:删除日志前需要保留的日志數量,預設2個
3、Saved Scan Results 掃描儲存資料庫的設定
①:儲存報告的資料庫類型:分為: MS Access 和 MS SQLSERVER兩種,如果使用SQLserver将要填寫SQLServer的資料庫位址、使用者名、密碼包括資料庫名等。
②:Access資料庫的儲存位置,預設是:C:\ProgramData\Acunetix WVS 10\Data\Database\vulnscanresults.mdb
③:如果你使用SQLServer資料庫,不想填寫資料庫IP\使用者名\密碼\資料庫名等資訊,你可以直接導入.dbconfig格式的資料庫配置
④:掃描完成之後自動儲存結果。
4 、HTTP Authentication HTTP基本驗證
此驗證主要用于如下類似的HTTP基本認證:
①:AWVS在掃描過程中可識别基本驗證,在此過程中不要詢問我們是否需要驗證,選中此項AWVS将不會提示我們哪些頁面需要認證。
②:自動儲存憑證資訊,在AWVS掃描過程中詢問我們HTTP認證的賬号密碼,勾選此項之後,當我們輸入使用者名密碼之後,AWVS将自動儲存我們的輸入,以便以後掃描時不再需要輸入。
③:配置需要驗證的 Host主機、路徑Path、Username使用者名和Password密碼。
按鈕中:
Add Credentials:添加一個憑證
Remove Selected:删除選擇的憑證
Edit:編輯選中的憑證
Show Password:顯示已添加的憑證的密碼
5、Client Certificates: 證書驗證
①:Certificate file:選擇證書檔案 Password:證書密碼 URL:驗證證書的URL位址
②:Import Certificate:上方填寫完整之後點選此按鈕導入證書 Remove selected:移除選中的證書
6、Login Sequence Manager:表單驗證 【重點】
表單驗證使用者某些頁面,例如掃描背景、掃描使用者登入後可通路的頁面時候,需要登入使用者密碼驗證再進行掃描
與建立掃描向導中的“Login”功能一緻,需要建立一個表單驗證。
①:New sequence :建立一個表單驗證 Edit sequence:編輯一個表單驗證 Remove sequence:移除選中的驗證
Browser:浏覽表單驗證檔案,字尾為.lsr。
如何建立一個表單驗證,過程三個步驟如下,以DVWA滲透測試演練系統來示範:
#1、Record Login Actions 記錄登入操作,這一步是選擇需要登入的頁面之後,輸入賬号密碼進行登入,然後程式将會記錄登入的所有操作、包括輸入的賬号密碼以及登陸後跳轉的頁面
①:此處标記的是你掃描的URL
②:此處當然你登入的表單區域了
③:三個按鈕 Record :開始記錄登入的操作 Stop:停止記錄登入操作 Play:回放你錄制的登入操作來确定是否正确
⑤:這裡記錄的是你的幾個動作,如上圖隻有三個動作:
1、導航到
http://127.0.0.1/dvwa/login.php2、對表單的username字段輸入admin賬号
3、對表單的password字段輸入password密碼
4、雖然上圖沒有第四步,但是第四步是:Clik on Login,就是我們點選登入的這個步驟
④: ↓ ↑:上下鍵來調整登入的步驟 ,+ 、- :增加或删除一個登入步驟
⑥:顯示登入每個步驟的類型、目标、逾時時間、填入的值
第一步記錄登入操作已經成功完成,點選Next進入下一步
#2、Record Restrictions:記錄限制請求,此處的記錄的原因是如果AWVS在掃描登入狀态的頁面的時候,如果請求到類似Logout的退出請求,那麼就會結束會話并登出,這樣下來我們就無法繼續掃描背景的漏洞了,是以此時我們需要記錄一個限制的位址,也就是告訴AWVS,哪個請求是會退出會話,當然不僅僅是退出,如果一個背景有“登出”、“退出”、“重新登入”三個按鈕,我們也要同時記錄着三個請求。
針對DVWA的限制請求記錄步驟
①:首先Restrict按鈕是要呈現按下的狀态,此時就會開始記錄使用者點選的限制請求
②:DVWA中的左側導航“Logout”是退出的連結,我們點選它之後中間會彈出一個攔截
③:攔截中的資料就是我們點選“Logout”的請求,這裡有三個按鈕
Restrict request using exact match :記錄下此請求辨別為精确的限制限制,也就是說将它告訴AWVS不要請求該連結
Forward :放過這個請求,不标記它為限制請求
Forward all:停止抓取所有請求,釋放所有的請求
是以這裡我們選擇:第一個按鈕,标記
http://127.0.0.1/dvwa/logout.php;為限制請求,不讓AWVS去請求它。
如上圖:停止抓取請求,點選“Restrict”使這個按鈕呈未按下狀态,然後可以看到右上角出現的限制限制的請求連結,OK,Next進入下一步了。看到successfully,我想你已經知道這步是成功确定了一種檢測有效會話的模式。
#3、檢測會話是否有效:完成第二部步驟之後進入第三步驟是檢測我們的會話是否有效,如果有效就完成了一次表單登入驗證的流程。
②:Detect while navigating:導航檢測,選中進入進入下一步
①:随意點選一個需要登入連結,如果彈出Successfully則說明我們去點選這個連結的會話是正确的,
③:曆史檢測:擷取曆史檢測的正确性
⑤:這裡會自動擷取登入狀态之後的關鍵字或狀态碼,并以一種方式判斷,這裡分别有幾種方法:
a)、檢測到登入後的的狀态碼是多少,或者不是多少?
status code is
status code is not
b)、檢測登入後的關鍵字是在頭部、還是不在頭部?
Pattern is found in headers
Pattern is not found in headers
c)、檢測登入後的關鍵字是否在傳回的響應中?
Pattern is found in response
Pattern is not found in response
④:Check Pattern:測試AWVS提取的關鍵字是否正确,如果是successfully則表示正确
⑥:完成登入表單驗證的步驟之後儲存會話檔案,字尾為.lsr
最後AWVS可以正常掃描登入狀态後的頁面的漏洞了:
7、False Positives 處理誤報
此處是存儲誤報的連結、請求的。在我們掃描的結果中,如果你認為這一項是AWVS的誤報,右擊選擇它”Mark alert(s) as false positive“将它放置到誤報區域内,AWVS下次掃該站點的時候将不會再認為它是一個漏洞。Removed Selected則是移除選中的誤報。
8、HTTP Sniffer 代理型嗅探抓包設定
Acunetix HTTP 代理設定,預設監聽8080端口(此功能預設不開啟)
①:監聽的接口分為兩種:
local interface (recommended):接受本機的代理請求(推薦)
all interface (not recommended) 接受所有的代理請求(不推薦)
②:監聽的端口,預設是8080
此配置設定之後點選“Apply”應用之後,在主操作區域的Tools中選擇HTTP Sniffer,将本地浏覽器設定代理為127.0.0.1:8080,再點選“Start”就可以擷取嗅探到通路網頁的資料包了
9、Scheduler:計劃任務性掃描
使用者可以不啟動AWVS來掃描漏洞,可以直接通路Web版實作計劃任務,可以掃描多個網站漏洞,使用該項服時要保證Acunetix WVS Scheduler v10服務已經啟動。
Web Interface:Web版掃描的配置
Listen open port:Web界面計劃任務的端口,通路:
http://localthost:8183Allow remote computers to connect:允許遠端計算機通路我們的Web版的計劃掃描頁面,如果一旦開啟則強制使用HTTPS協定另外還需要設定賬戶密碼來進行驗證,為了保證它的安全性。
Use HTTPS:使用HTTSP協定加密傳輸的資料
Require authentication:使用使用者名、密碼形式驗證,一般配合“Allow remote computers to connect”來使用。
Change administrative password:修改認證的使用者名密碼
Scan:設定計劃任務掃描的線程與儲存結果
Scan results save folder:Web任務計劃掃描結果的儲存位置
Parallel scans (max 10):同時掃描的網站的數量,最多10,如果你的許可證書是正版,最大數量可達到500個
Email Notifications:配置郵件伺服器将掃描工作通過郵件形式發送給您
Send email notifications when scans are fnished:選擇是否掃描工作的時候發送郵件通知我們,如果勾選則啟用該功能
Server ip/hostname:郵件系統的主機IP
Port:郵件系統的端口
The SMTP server requires authentication:勾選它SMTP伺服器是否需要密碼認證
Username:SMTP使用者名
Password:認證密碼
TT:郵件發送的目标,郵件将發送給誰。
CC:郵件将抄送給誰
From:發送的人的設定,就是說郵件是從哪個郵箱發送的
Check here to verify Settings:測試郵箱是否正确配置,是否能成功發送
Excluded hours Templates:禁止掃描時間設定模版
在長時間掃描的時候,假如你不想在流量高峰期掃描你的網站,你可以指定一個暫停掃描的時間範圍。例如上圖:紅色區域表示不允許掃描的時間,藍色區域表示掃描的時間,這裡表示周六、周日早上4:00-4:59之間的時候不進行掃描。
10、Miscellaneous 雜七雜八項配置
Memory Optimization:記憶體優化
Use temporary files to reduce memory usage:使用臨時檔案,掃描中産生的臨時檔案存儲在硬碟中,而不存儲在記憶體中,以減少記憶體的使用情況。
Tamporary folder:臨時檔案的位置
Keep all AcuSensor data in memory fo inspection:保持所有的AcuSensor資料在記憶體中檢測
Maximum memory during crawling:爬行過程中可占用的最大記憶體(機關:M),如果在爬行和掃描過程中記憶體不足,則自動停止掃描
Display Options:顯示選項
Display custom HTTP status information:顯示自定義HTTP狀态資訊
Display HTTPS status icon:顯示HTTPS的狀态圖示,啟用此選項的話,掃描的時候,如果發現https通路的區域,将會在爬行結果中顯示出一個鎖狀的小圖示
Password Protection:密碼保護
Current password:目前密碼
New password:新密碼
Confirm new password:确認新密碼
Set password:設定密碼
設定密碼的方式是,目前如果為空密碼,直接在第二三個文本框輸入密碼,點選Set password就可以完成密碼設定, 配置密碼後,運作wvs主程式及主要程式時需要輸入密碼驗證 。
如果需要清除設定的密碼,隻要輸入目前密碼,新密碼處留白再點選設定密碼即可。
0×05:AWVS的蜘蛛爬行功能:
作用:爬行網站所有URL,可了解網站基本目錄結構,以便于進行下一步的掃描
①:Tools–Site Crawler 選擇網站爬行功能
②:從左到右的功能分别為:
:打開格式為.cwl的蜘蛛爬行的結果
:儲存格式為.cwl的蜘蛛爬行結果
:導出 export.xml蜘蛛爬行報告
: 從導入的檔案建立結構
:掃描這個網站的漏洞
:選擇一個檔案進行掃描
:掃描的網站URL
③:被爬行網站的登入驗證檔案,加載這個檔案可以爬行到需要登入的頁面資源。Strart:開始爬行 Stop:停止爬行
④:被爬行網站的的爬行結果:
Name:爬行網站的的檔案名稱、Cookiie資訊
HTTP Result:檔案通路的狀态,OK表示200,Forbidden表示403,Internal Server Error表示500
Inputs:可輸入的參數值
Title:檔案的标題
Content Type:檔案的類型
⑤:詳細資訊顯示區域,點選左邊的任意檔案,在這裡可以顯示它的詳細資訊。下方的頁籤分别為:
Info:檔案詳細資訊
Referres:來源頁資訊
HTTP Header:HTTP頭部資訊
Inputs:可輸入參數的資訊
View Source:檢視檔案源代碼
View Page:以浏覽方式檢視頁面
Structure Analysis:結構分析
0×06:AWVS的目标探測工具(Target Finder)
相當于一款加強版(針對WEB滲透測試)的端口、banner探測工具
功能:
1、探測指定IP/IP段開放特定端口的IP
2、探測出IP後,探測該端口的banner資訊,可探測出該端口上運作的WEB服務的中間件的版本資訊
①:Tools——Target Finder打開該工具
②:被掃描的IP/IP段,IP段格式為:192.168.199.1-255,
③:被掃描的端口,這裡是80,443端口
④:掃描出的結果包含: Server:目标主機 Hostname:主機名 Bnaner:Bnaner資訊 Web Server:Web容器
⑤:将掃描的結果進行操作分别如下操作:
Scan this Server:用AWVS掃描這台主機的漏洞
Edit with HTTP Editor:用HTTP Editor測試目标
Save list of targets (for scanning):儲存為.txr格式的目标清單作為後期的掃描目标
Export list of servers to CSV:導出為CSV格式的清單,包含所有的描述資訊
⑥:檢視目标主機的Response Headers(響應的HTTP頭資訊)、Response Data(響應的資料)、View Page(浏覽形式檢視)
0×07:AWVS的子域名探測工具(Subdomain Scanner)
作用:探測并猜解子域名的資訊,
①: Tools——Subdomain Scanner 工具位置
②: 填寫需要被掃描子域名的主機域名
③: 使用的DNS伺服器,分為兩種:
Use DNS Server from target:使用目标的DNS伺服器探測解析
Use Specified DNS Server:使用自定義的DNS伺服器,在旁邊可以填寫自定義的DNS伺服器
④:Timout:逾時時間,機關是秒
⑤:被探測出的子域名清單資訊,分别包含Domain:被探測出的子域名; IP Address:子域名對應的IP; Web Server Banner(HTTP):HTTP的WEB伺服器的Banner資訊; Web Server Banner(HTTPS):HTTPS的WEB伺服器的Banner資訊
⑥:右擊任意一個探測出的子域名,可對其如下操作:
⑦:分為HTTP和HTTPS兩種,各自均可檢視目标主機的Response Headers(響應的HTTP頭資訊)、Response Data(響應的資料)、View Page(浏覽形式檢視)
0×08:AWVS的SQL盲注測試工具(Blind SQL Injection)
作用:在掃描網站的時候,發現網站存在SQL盲注漏洞,你可以倒入到SQL盲注工具中,你也可以直接将抓取的SQL盲注HTTP資料包粘貼到SQL盲注工具中進行注入測試。
HTTP Request:
①:Tools——Blind SQL Injection 工具位置
②:SQL盲注的工具欄,分别作用如下:
:開始執行測試SQL注入
:開始讀取資料庫
:擷取表字段資訊
:讀取資料記錄資訊
:暫停操作
:中止操作
:建立一個SQL注入
:将目前進行注入的資訊儲存為.bln的檔案
:打開.bln格式的檔案進行注入分析
:導出xml格式的資料庫結構資訊
:儲存.CVS的資料記錄資訊
:顯示或隐藏HTTP Request界面
③:Default Value:SQL注入參數原來的值,這裡/example1.php?name=root 原來的值是root
:添加一個注入的位置,被添加的地方會顯示為:${injecthere}
④:SQL盲注的HTTP資訊,可以在掃描網站得到SQL注入的時候,右鍵“Export to Blind SQL Injection ” ,也可以直接将存在盲注的HTTP請求資訊粘貼進來
⑤:搜尋區域。
:針對上方的HTTP請求資訊進行搜尋,包括翻閱上一個下一個按鈕
:搜尋的結果進行高亮顯示
:搜尋的關鍵字為正規表達式
:搜尋的關鍵字比對大小寫
:HTTP資訊顯示的類型包括:文本、HTML、SQL、XML、CSS等等。。
⑥:此處顯示目前的資料庫的名字、使用者名、版本,以及可列出資料庫、表、字段、資料記錄 ,如下圖右擊一個資料庫可以擷取表、右擊表可以擷取字段、右擊表可以擷取資料。Export the structure to file:将資料結構導出為.xml的檔案
⑦:此處顯示的是注出的所有資料記錄,最下方一行顯示的是資訊狀态。
Settings——General:
①:設定資料庫的類型,包括三種類型:Autodetect(自動檢測)、Mysql(Mysql資料庫)、MSSQL(Mssql資料庫)
②:資料庫注入的方法,包括三種類型:Autodetect(自動檢測)、condition based(根據條件情況而定)、Union select base(基于聯合查詢)
③:Show debug information:顯示過程的調試資訊
④:對SQL語句中的空格以/**/進行編碼
⑤:強制對HTTP傳輸的SQL字元串進行編碼,勾選此項下面兩項就是設定編碼方式
⑥:對所有的字元進行編碼
⑦:對空格使用+進行編碼
Settings——Condition Based Extractor:
①:SQL注入字元串的設定
Automatic detection:自動檢測
Provided by user:使用者自定義選擇,條件是${},例如:1 and {condition}/*
②:真假條件識别器
Provided by Regex:指定正規表達式
Inverse Regex:當你想要真實的情況觸發上述正規表達式的條件為假時,啟用此選項。
③:特征提取
Bit Method:位測試方法,直接數值轉換數字為測試
Half Method:則應用程式将嘗試通過使用一半法找出字元的數值,以此遞歸
Try Parallel request:嘗試平行請求
Settings——Union Select based extractor
①:指定聯合查詢中起始的字段數
②:指定聯合查詢中最大的字段數
③:指定可見的索引,0是自動檢測
Tools:
①:通過load_file函數讀取檔案内容,需要root權限,點選“Extract”開始讀取
File Name:被讀取的檔案
Offset:指定要從第幾個字元開始讀取
Length:指定讀取多長的字元,0為讀取全部
②:執行SQL查詢語句,點選“Excute”進行查詢。
SQL query:要查詢的SQL語句
Offset:指定從第幾個字元開始顯示結果
Length:指定查詢出顯示結果的長度,0是全部
③:執行了上面兩個操作,如果完成之後将會把結果儲存在datebasde目錄下,上圖就是報錯的讀取檔案和sql查詢的結果。
0×09、AWVS的HTTP請求編輯器(HTTP Editor)
作用:包含兩種模式,一種Request、一種Text Only模式,主要用于編輯HTTP資訊,修改HTTP資訊并發送給伺服器擷取傳回的結果,是HTTP資訊的重放過程。可修改HTTP的頭部資料或者其它資訊再送出給伺服器處理等。
HTTP Request模式:
①:Tools——HTTP Editor 工具的位置
②:Start:将目前編輯的HTTP請求送出給伺服器處理,并擷取傳回結果。 Encoder Tool是編碼工具,界面如下:
支援:URL、HTML、Base64、C-style、MD5、MD4、SHA1、UTF-7等多種編碼解碼方式
③:從左到右的圖示功能分别為:
:針對下方的Requesr Header添加一個新的HTTP頭
:删去選擇的HTTP頭
:編輯Cookie資訊,包括增加、删除Cookie某個變量
:使用HTTPS協定
Method:請求的方式,分為GET、HEAD、POST等
Protocol:HTTP的協定分别為1.0、1.1
URL:HTTP的URI部分
Edit Request Variables:修改HTTP資訊中GET或者POST的參數、值
④:HTTP請求資訊的頭部Header
⑤:請求的資料,一般這裡存放的是POST資料
⑥:伺服器傳回的資訊,包含HTTP Header(響應的頭部資訊)、Response Data(響應的資訊源碼)、View Page:以浏覽的方式顯示、HTML Structrus Analysis(HTML的結構分析)
Text Only模式:
①:這裡不再熬述,講解SQL盲注功能的時候已經講解了這一條按鈕的作用
②:HTTP的資訊,可以自己粘貼進來,也可以對掃描結果進行發送過來,如下:
③:傳回響應資訊,這裡也不多多說,上面已經詳細說明了。
作用:設定代理攔截浏覽器的資料包資訊,并且可以将資料包發送到HTTP Edit編輯重放或者其它功能,要想抓取資料包應該将浏覽器的代理設定為127.0.0.1:8080(預設),在Application Settings——HTTP Sniffer可以修改監聽的端口和接收的請求範圍。
①:Tools——HTTP Sniffer工具位置
②:Start/Stop:開始或者停止嗅探抓包
Edit Traps: 編輯抓包的規則,例如:攔截ASP、PHP的請求資訊、攔截GET請求、攔截POST請求、攔截傳回的資訊、不攔截images、css、script、顯示PHP報錯資訊、替換user-agent等等….
Enable Traps/Disabled Traps:開啟或者關閉規則,如果規則開啟,規則中假如設定了例如Trap ASP and PHP request,嗅探過程中會攔截ASP或者PHP的請求資訊并且提示使用者是否修改再發送還是丢棄這個包(有些類似HTTP Edit)。如下:
③:對嗅探到的連結進行操作,包括 Edit with HTTP Edit(發送到HTTP Edit進行編輯測試)、Scan to HTTP Fuzzer(發送到HTTP Fuzzer測試)、Start scan form here(從這裡開始掃描漏洞)、 Remove disconnected entries(清空所有的嗅探資訊)
:從左到右分别是清空所有嗅探資訊、将嗅探的資訊儲存為slg格式的檔案、導入slg格式的檔案、搜尋過濾嗅探的資訊、當面闆嗅探的資訊逐漸增多時滾動條自動滾動
⑤:每個嗅探到的連結的具體的請求或響應資訊
作用:漏洞測試工具,用于批量資料自動送出,并測試出正确性的資料。與Burp中的intruder功能一緻。
Request:
①:Tools——HTTP Fuzzer 工具位置
②:Start:開始啟動Fuzzer程式測試 Fuzzer Filters:Fuzzer結果篩選,後面三個圖示分别為儲存為.fzs的檔案、打開為.fzs的Fuzzer 檔案、到處為XML的Fuzzer結果檔案
③:Request:Fuzzer的HTTP資料,可以是自己抓包粘貼上去,也可以通過掃描發送到此處。如上圖的${Gen_2}就代表是攻擊位置使用字典
④:Add Generator:添加一個Fuzzer字典
Insert into Request:插入一個攻擊位置,選中需要被攻擊的位置後點選此按鈕
Remove Generator:移除Fuuzer字典
Add Generator中包含了六種字典
每個字典的配置如下:
⑥:顯示Fuzzer字典的名字、類型、描述資訊
⑦:對Fuzzer字典的設定,參考上方詳解
⑧:Fuzzer字典的簡介
Results:
①:Fuzzer的次數統計
②:Fuzzer的結果顯示,包含下面幾個字段:
#:Fuzzer的次數ID
Status code:傳回的響應的狀态
URL:傳回的頁面
Generators:送出的參數
Response time:響應花費的時間
Response size:響應内容長度
Word count:單詞數量
③:Request:送出的HTTP請求内容、Response:傳回的響應内容、View Page:浏覽形式檢視、Raw Text:文本模式檢視
Fuzzer Filters:是針對Fuzzer結果進行篩選的工具
①:選擇一個篩選過濾器
②:分為5項,分别為:
Rule description:篩選器的名稱描述
Rule type:篩選器的類型:Include(包含)、Exclude(不包含)、Log
Apply to:關鍵字出現的位置,其中有 Response(所有地方)、Response body(出現在body上)、 Response Header(出現在頭部)、 Response status code(出現在狀态碼上)
Regular expression:輸入正規表達式
③:更新、或者添加一個篩選器
認證測試工具,用于基本身份認證、簡單的表單認證的破解是從Fuzzer工具中拆分出來的一種。
#1、上圖測試的是HTTP的基本驗證,比如類似Tomcat的/html/manager 驗證
①:Tools——Authentication Tester 工具位置
②:Target URL to test:測試目标 Start:開始Fuzzer
③:Authentication method:認證方式分為兩種:
HTTP:基本認證
Web from based:簡單的表單認證
④:Logon has failed if:認證失敗的關鍵字分為三種:
HTTP Status code is :HTTP傳回的狀态碼
Results Conditions:傳回的結果關鍵字條件
Results match regular expresison:正規表達式比對
⑤:Username dictionary path:使用者名字典
⑥:Password dictionary path:密碼字典
⑦:正确的結果顯示
#2、表單的形式
表單的形式需要将認證方式改成:Web from based,右側Select選擇,AWVS将自動識别攻擊目标中的表單,如下圖識别出uname、pass兩個字段,選中uname,單擊左下角的“username”,選擇“pass”,單擊左下角的”Password”,這樣表單就可以對應了,加載字典就可以成功Fuzzer了。
作用:掃描WSDL接口漏洞,并且可以對掃描的漏洞進行漏洞測試
WSDL:Web Services Description Language的縮寫,是一個用來描述Web服務和說明如何與Web通信的XML語言。為使用者提供詳細的接口說明書。WSDL是Web Services的描述語言,是一種接口定義語言,用于描述Web Services的接口資訊等。WSDL文檔可以分為兩部分,頂部由抽象定義組成,而底部由具體描述組成。
Web Services Scanner:
①:Web Services——Weeb Services Scanner
②:掃描的WSDL URL,Profile是側重掃描的類型,預設是ws_default,Start:開始掃描
③: 掃描的結果
Web Services Editor:
①:Web Services——Web Services Editor 工具位置
②:WSDL URL(需要測試的目标URL)、打開圖示(打開一個WSDL目标的檔案)、Import(從web services scannner導入)
③:Service(選擇的Service,預設)、Port(協定,分為ServiceSoap、ServiceSoap12)、Opration(掃描的方法名稱)、Send(發送測試)、HTTP Editor(發送到HTTP Editor測試)
④:Editor:編輯模式 WSDL Structure:WSDL的結構資訊 WSDL:目标XML格式的源資訊
⑤:Request:方法名稱、參數結構顯示 SOAP:SOAP協定的源,如上我們針對參數username進行了注入測試
⑥:Response:傳回XML源資訊 Structured Data:傳回結果的結構。可以看到已經爆出資料庫版本了