天天看點

python爬蟲算法深度優先_淺談網絡爬蟲中深度優先算法和簡單代碼實作

學過網站設計的小夥伴們都知道網站通常都是分層進行設計的,最上層的是頂級域名,之後是子域名,子域名下又有子域名等等,同時,每個子域名可能還會擁有多個同級域名,而且URL之間可能還有互相連結,千姿百态,由此構成一個複雜的網絡。

當一個網站的URL非常多的時候,我們務必要設計好URL,否則在後期的了解、維護或者開發過程中就會非常的混亂。了解以上的網頁結構設計之後,現在正式的引入網絡爬蟲中的深度優先算法。

上圖是一個二叉樹結構,通過對這個二叉樹的周遊,來類比抓取網頁,加深對爬蟲政策的了解。深度優先算法的主要思想是首先從頂級域名A開始,之後從中提取出兩個連結B和C,待連結B抓取完成之後,下一個要抓取的連結則是D或者E,而不是說抓取完成連結B之後,立馬去抓取連結C。抓取完連結D之後,發現連結D中所有的URL已經被通路過了,在這之前我們已經建立了一個被通路過的URL清單,專門用于存儲被通路過的URL。當連結D完全被抓取完成之後,接下來就會去抓取連結E。待連結E爬取完成之後,不會去爬取連結C,而是會繼續往下深入的去爬取連結I。原則就是連結會一步一步的往下爬,隻要連結下還有子連結,且該子連結尚未被通路過,這就是深度優先算法的主要思想。深度優先算法是讓爬蟲一步一步往下進行抓取完成之後,再一步一步退回來,優先考慮深度。了解好深度優先算法之後,再來看上圖,可以得到該二叉樹呈現的爬蟲抓取連結的順序依次為:A、B、D、E、I、C、F、G、H(這裡假設左邊的連結先會被爬取)。實際上,我們在做網絡爬蟲過程中,很多時候都是在用這種算法進行實作的,其實我們常用的Scrapy爬蟲架構預設也是用該算法來進行實作的。通過上面的了解,我們可以認為深度優先算法本質上是通過遞歸的方式來進行實作的。

下圖展示的是深度優先算法的代碼實作過程。

深度優先過程實際上是通過一種遞歸的方式來進行實作的。看上圖的代碼,首先定義一個函數,用于實作深度優先過程,然後傳入節點參數,如果該節點非空的話,則将其列印出來,可以類比一下二叉樹中的頂級點A。将節點列印完成之後,看看其是否存在左節點(連結B)和右節點(連結C),如果左節點非空的話,則将其進行傳回,再次調用深度優先函數本身進行遞歸,得到新的左節點(連結D)和右節點(連結E),以此類推,直到所有的節點都被周遊或者達到既定的條件才會停止。右節點的實作過程亦是如此,不再贅述。

深度優先過程通過遞歸的方式來進行實作,當遞歸不斷進行,沒有跳出遞歸或者遞歸太深的話,很容易出現棧溢出的情況,是以在實際應用的過程中要有這個意識。

深度優先算法和廣度優先算法是資料結構裡邊非常重要的一種算法結構,也是非常常用的一種算法,而且在面試過程中也是非常常見的一道面試題,是以建議大家都需要掌握它,下一篇文章我們将介紹廣度優先算法,敬請期待。

關于網絡爬蟲中深度優先算法的簡單介紹就到這裡了,小夥伴們get到木有咧?