天天看點

Scrapy研究探索(七)——如何防止被ban之政策大集合

轉自:http://blog.csdn.net/u012150179/article/details/35774323

話說在嘗試設定download_delay小于1,并且無任何其他防止被ban的政策之後,我終于成功的被ban了。

關于scrapy的使用可參見之前文章:

http://blog.csdn.net/u012150179/article/details/34913315

http://blog.csdn.net/u012150179/article/details/34486677

http://blog.csdn.net/u012150179/article/details/34441655

http://blog.csdn.net/u012150179/article/details/32911511

本篇部落客要研究使用防止被ban的幾大政策以及在scrapy中的使用。

1.政策一:設定download_delay

這個在之前的教程中已經使用過(http://blog.csdn.net/u012150179/article/details/34913315),他的作用主要是設定下載下傳的等待時間,大規模集中的通路對伺服器的影響最大,相當與短時間中增大伺服器負載。

下載下傳等待時間長,不能滿足段時間大規模抓取的要求,太短則大大增加了被ban的幾率。

download_delay可以設定在settings.py中,也可以在spider中設定,在之前部落格中(http://blog.csdn.net/u012150179/article/details/34913315)已經使用過,這裡不再過多闡述。

2.政策二:禁止cookies

所謂cookies,是指某些網站為了辨識使用者身份而儲存在使用者本地終端(Client Side)上的資料(通常經過加密),禁止cookies也就防止了可能使用cookies識别爬蟲軌迹的網站得逞。

使用:

在settings.py中設定COOKIES_ENABLES=False。也就是不啟用cookies middleware,不想web server發送cookies。

3.政策三:使用user agent池

所謂的user agent,是指包含浏覽器資訊、作業系統資訊等的一個字元串,也稱之為一種特殊的網絡協定。伺服器通過它判斷目前通路對象是浏覽器、郵件用戶端還是網絡爬蟲。在request.headers可以檢視user agent。如下,使用scrapy shell檢視:

[python] view plain copy

scrapy shell http://blog.csdn.net/u012150179/article/details/34486677  

進而輸入如下,可得到uesr agent資訊:

Scrapy研究探索(七)——如何防止被ban之政策大集合

由此得到,scrapy本身是使用Scrapy/0.22.2來表明自己身份的。這也就暴露了自己是爬蟲的資訊。

首先編寫自己的UserAgentMiddle中間件,建立rotate_useragent.py,代碼如下:

# -*-coding:utf-8-*-  

from scrapy import log  

"""避免被ban政策之一:使用useragent池。 

使用注意:需在settings.py中進行相應的設定。 

"""  

import random  

from scrapy.contrib.downloadermiddleware.useragent import UserAgentMiddleware  

class RotateUserAgentMiddleware(UserAgentMiddleware):  

    def __init__(self, user_agent=''):  

        self.user_agent = user_agent  

    def process_request(self, request, spider):  

        ua = random.choice(self.user_agent_list)  

        if ua:  

            #顯示目前使用的useragent  

            print "********Current UserAgent:%s************" %ua  

            #記錄  

            log.msg('Current UserAgent: '+ua, level='INFO')  

            request.headers.setdefault('User-Agent', ua)  

    #the default user_agent_list composes chrome,I E,firefox,Mozilla,opera,netscape  

    #for more user agent strings,you can find it in http://www.useragentstring.com/pages/useragentstring.php  

    user_agent_list = [\  

        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 "  

        "(KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",  

        "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 "  

        "(KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",  

        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 "  

        "(KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",  

        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 "  

        "(KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",  

        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 "  

        "(KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1",  

        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 "  

        "(KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5",  

        "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 "  

        "(KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5",  

        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "  

        "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",  

        "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 "  

        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 "  

        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "  

        "(KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",  

        "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",  

        "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 "  

        "(KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3",  

        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 "  

        "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24",  

        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 "  

        "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"  

       ]  

建立user agent池(user_agent_list)并在每次發送request之前從agent池中随機選取一項設定request的User_Agent。編寫的UserAgent中間件的基類為UserAgentMiddle。

除此之外,要在settings.py(配置檔案)中禁用預設的useragent并啟用重新實作的User Agent。配置方法如下:

#取消預設的useragent,使用新的useragent  

DOWNLOADER_MIDDLEWARES = {  

        'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware' : None,  

        'CSDNBlogCrawlSpider.spiders.rotate_useragent.RotateUserAgentMiddleware' :400  

    }  

至此配置完畢。現在可以運作看下效果。

Scrapy研究探索(七)——如何防止被ban之政策大集合

可以發現一直在變化的UserAgent。

4.政策四:使用IP池

web server應對爬蟲的政策之一就是直接将你的IP或者是整個IP段都封掉禁止通路,這時候,當IP封掉後,轉換到其他的IP繼續通路即可。

可以使用Scrapy+Tor+polipo

配置方法與使用教程可參見:http://pkmishra.github.io/blog/2013/03/18/how-to-run-scrapy-with-TOR-and-multiple-browser-agents-part-1-mac/。有時間我會翻譯過來。

5.政策五:分布式爬取

這個,内容就更多了,針對scrapy,也有相關的針對分布式爬取的GitHub repo。可以搜一下。

原創,轉載請注明:http://blog.csdn.net/u012150179/article/details/35774323

繼續閱讀