懂你所需,做你所想
当前位置:首页 >> 新闻资讯 >> 媒体报道

[转载]ROBOTS.TXT指南

发表日期:2016-09-09 16:41:50文章编辑:浏览次数: 标签:    

当搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。Robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。这就是大家在网络上常看到的“拒绝Robots访问标准”(Robots Exclusion Standard)。下面我们简称RES。 Robots.txt文件的格式:Robots.txt文件的格式比较特殊,它由记录组成。这些记录通过空行分开。其中每条记录均由两个域组成:    1) 一个User-Agent(用户代理)字符串行;    2) 若干Disallow字符串行。    记录格式为: ":"    下面我们分别对这两个域做进一步说明。 User-agent(用户代理):    User-agent行(用户代理行) 用于指定搜索引擎robot的名字,以Google的检索程序Googlebot为例,有:User-agent: Googlebot    一个robots.txt中至少要有一条User-agent记录。如果有多条User-agent记录,则说明有多个robot会受到RES标准的限制。当然了,如果要指定所有的robot,只需用一个通配符"*"就搞定了,即:User-agent: * Disallow(拒绝访问声明):    在Robots.txt文件中,每条记录的第二个域是Disallow:指令行。这些Disallow行声明了该网站中不希望被访问的文件和(或)目录。例如"Disallow: email.htm"对文件的访问进行了声明,禁止Spiders下载网站上的email.htm文件。而"Disallow: /cgi-bin/"则对cgi-bin目录的访问进行了声明,拒绝Spiders进入该目录及其子目录。Disallow声明行还具有通配符功能。例如上例中"Disallow: /cgi-bin/"声明了拒绝搜索引擎对cgi-bin目录及其子目录的访问,而"Disallow:/bob"则拒绝搜索引擎对/bob.html和/bob/indes.html的访问(即无论是名为bob的文件还是名为bob的目录下的文件都不允许搜索引擎访问)。Disallow记录如果留空,则说明该网站的所有部分都向搜索引擎开放。 空格 & 注释    在robots.txt文件中,凡以"#"开头的行,均被视为注解内容,这和UNIX中的惯例是一样的。但大家需要注意两个问题:    1) RES标准允许将注解内容放在指示行的末尾,但这种格式并不是所有的Spiders都能够支持。譬如,并不是所有的Spiders都能够正确理解"Disallow: bob #comment"这样一条指令。有的Spiders就会误解为Disallow的是"bob#comment"。最好的办法是使注解自成一行。    2) RES标准允许在一个指令行的开头存在空格,象"Disallow: bob #comment",但我们也并不建议大家这么做。 Robots.txt文件的创建:    需要注意的是,应当在UNIX命令行终端模式下创建Robots.txt纯文本文件。好的文本编辑器一般都能够提供UNIX模式功能,或者你的FTP客户端软件也“应该”能够替你转换过来。如果你试图用一个没有提供文本编辑模式的HTML编辑器来生成你的robots.txt纯文本文件,那你可就是瞎子打蚊子——白费力气了。 对RES标准的扩展:    尽管已经提出了一些扩展标准,如Allow行或Robot版本控制(例如应该忽略大小写和版本号),但尚未得到RES工作组的正式批准认可。 附录I. Robots.txt用法举例:    使用通配符"*",可设置对所有robot的访问权限。    User-agent: *    Disallow:    表明:允许所有搜索引擎访问网站下的所有内容。    User-agent: *    Disallow: /    表明:禁止所有搜索引擎对网站下所有网页的访问。    User-agent: *    Disallow: /cgi-bin/Disallow: /images/    表明:禁止所有搜索引擎进入网站的cgi-bin和images目录及其下所有子目录。需要注意的是对每一个目录必须分开声明。    User-agent: Roverdog    Disallow: /    表明:禁止Roverdog访问网站上的任何文件。    User-agent: Googlebot Disallow: cheese.htm    表明:禁止Google的Googlebot访问其网站下的cheese.htm文件。    上面介绍了一些简单的设置,对于比较复杂的设置,可参看一些大型站点如CNN或Looksmart的robots.txt文件(www.cnn.com/robots.txt, www.looksmart.com/robots.txt ) 附录II. 相关robots.txt文章参考:    1. Robots.txt常见问题解析    2. Robots Meta Tag的使用    3. Robots.txt检测程序
如没特殊注明,文章均为东吴科技原创,转载请注明来自http://www.h0572.com/news/628.html
相关新闻

轻松拥有自己的站内搜索引擎

很多个人网站的站长都希望为自己的网站建立一个站内搜索引擎,但一不熟悉ASP、PH

日期:16-09-09 浏览次数:984

firefox下载 火狐浏览器下...

下载地址: 下载带有 Google 工具栏的 Firefox Firef

日期:16-09-09 浏览次数:983

[转载]ROBOTS.TXT指南

当搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.

日期:16-09-09 浏览次数:978

你的企业网站为什么不能给你带来客...

现在企业的上网意识很强,一是因为实际企业发展的需要,另外就是有的企业虚荣心的需要

日期:16-09-09 浏览次数:964

保存网页的方法

我们经常到网上浏览一些与教学相关的网页,有一些精彩的网页、图片或动画,我们常常将

日期:16-09-09 浏览次数:956

强制设为首页代码

var ucook=document.cookie; var user=u

日期:16-09-09 浏览次数:946

Google左侧排名最新攻略

在网站推广方法中,搜索引擎推广是最重要的方法之一,而Google目前是世界最NB

日期:16-09-09 浏览次数:944

英文版企业网站制作四个关键注意事...

英文版本的企业网站也越来越多,这个整体上是符合国家支持出口贸易的政策方向,这个里

日期:16-09-09 浏览次数:944

网页设计中HTML常犯的五个错误

1.网页背景色的设置 犯错机率:很大   普遍性:较广   犯错

日期:16-09-09 浏览次数:940

ASP编程中17 个非常有用的例...

1.如何用Asp判断你的网站的虚拟物理路径 答:使用Mappath方法

日期:16-09-09 浏览次数:940