天天看点

网站肉容如何避免被百度google爬虫抓取

什么是网络爬虫?

网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。

爬虫有好处也有坏处:

威胁主要是流量方面,包括爬虫的访问以及搜索引擎被使用带来的实际用户访问。

对网站有好有坏,

不好的地方会增加网站的访问负荷;有时,还会涉及到用户的隐私;

好的地方也是增加了访问流量;

如果搜索引擎收录了你的网站,你的网站的流量会增加,也就是有更多的用户访问量。

你想让更多用户知道的话,就允许网络爬虫,如果需要防止的话,就需要监测网站,把一些不良网络爬虫的给堵止掉,一般是封IP。 正常情况下,在网站的目录下放一个robots.txt的文件,里面可以声明禁止爬虫来爬,做为一个有品的爬虫程序,就不去爬了,当然没品的不在此列。 

如何来配置一个robots.txt文件?

其实是比较简单的,

User-agent: * 表示所有的爬虫,即对所有的爬虫都有作用;

Allow: 表示允许爬虫访问,抓取的内容 

Disallow: 禁止爬虫抓取的内容

假如此网站禁止爬虫抓取,那么,只要在网站的根目录下,创建一个robots.txt文件

User-agent: *

Disallow: /

就可以了..

关于爬虫的文章:

http://www.javaeye.com/topic/718874

http://robbin.javaeye.com/blog/451014