說明:與apache一樣,nginx同樣可以實作禁用user_agent功能,當網站通路量大,資源有限時,限制不太重要的搜尋引擎的蜘蛛爬蟲
1. 修改虛拟主機配置檔案/usr/local/nginx/conf/vhosts/huangzhenping.conf
說明:拒絕掉curl、baidu、111111等這樣的user_agent,比對時,加上~*,可以忽略掉大小寫
<code>if</code> <code>($http_user_agent ~* </code><code>'curl|baidu|11111'</code><code>)</code>
<code> </code><code>{</code>
<code> </code><code>return</code> <code>403;</code>
<code> </code><code>}</code>
2. 檢查配置檔案,并重新啟動,測試
說明:用curl測試,不加user_agent,預設為curl/7. ,結果forbidden,通過日志檢視
tail /tmp/access.log
自定義user_agent,通路正常
本文轉自 huangzp168 51CTO部落格,原文連結:http://blog.51cto.com/huangzp/1900651,如需轉載請自行聯系原作者