佛系SEO佛系SEO佛系SEO

robots.txt

  robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的url是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。

 

  robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有与没有斜杠“/”表示的是不同的URLrobots.txt允许使用类似"Disallow:*.gif"这样的通配符[1][2]

 

  其他的影响搜索引擎的行为的方法包括使用robots元数据:

 

  <metaname="robots"content="noindex,nofollow"/>

 

这个协议也不是一个规范,而只是约定俗成的,有些搜索引擎会遵守这一规范,有些则不然。通常搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面。

 

  例子

 

  允许所有的机器人:

 

  User-agent:*

 

  Disallow:

 

  另一写法

 

  User-agent:*

 

  Allow:/

 

  仅允许特定的机器人:(name_spider用真实名字代替)

 

  User-agent:name_spider

 

  Allow:

 

  拦截所有的机器人:

 

  User-agent:*

 

  Disallow:/

 

  禁止所有机器人访问特定目录:

 

  User-agent:*

 

  Disallow:/cgi-bin/

 

  Disallow:/images/

 

  Disallow:/tmp/

 

  Disallow:/private/

 

  仅禁止坏爬虫访问特定目录(BadBot用真实的名字代替):

 

  User-agent:BadBot

 

  Disallow:/private/

 

  禁止所有机器人访问特定文件类型[2]

 

  User-agent:*

 

  Disallow:/*.php$

 

  Disallow:/*.js$

 

  Disallow:/*.inc$

 

  Disallow:/*.css$

 

  非标准扩展协议

 

  自动发现Sitemaps文件

 

  Sitemap指令被几大搜索引擎支持(包括GoogleYahooBingAsk),指定了网站Sitemaps文件的位置。Sitemaps文件包含了网站页面所在的URL的一个列表。Sitemap指令并不受User-agent指令的限制,所以它可以放在robots.txt文件中的任意位置。[3]唯一要注意的就是要使用网站地图指令,<sitemap_location>,并将URL"location"值换成网站地图的地址,例如,下面就是一个网站地图指令的例子:

 

  Sitemap:<http://www.example.com/sitemap.xml>

 

  如何编写Sitemaps文件,请参考sitemaps.org(页面存档备份,存于互联网档案馆)(英文)上的说明。

 

  Crawl-delay指令

 

  几大抓取工具支持Crawl-delay参数,设置为多少秒,以等待同服务器之间连续请求:[4][5]

 

  User-agent:*

 

  Crawl-delay:10

 

  Allow指令

 

  一些大的Crawlers支持一项Allow指令,可以抵消先前Disallow指令。比如Googlebot[6]

 

  替代

 

  虽然robots.txt是最为广泛接受的方法,但也可以与robotsMETA标签一起使用。robotsMETA标签主要是针对一个独立的页面设置,与其他的META标签(如使用的语言、页面的描述、关键词等)一样,robotsMETA标签也是放在页面的HEAD标签中,专门用来告诉搜索引擎robots如何抓取该页的内容。注

 

  <head>

 

   <metaname="robots"content="noindex,nofollow"/>

 

  </head>


本文由西安SEO刘毅(www.mmpyo.cn)收集于网络不代表本站观点,如果您还想了解更多关于SEO的文章,请关注刘毅SEO,(微信:gh2636484259)

免责声明:

本站提供的一切软件、教程和内容信息仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络收集整理,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。如果您喜欢该程序和内容,请支持正版,购买注册,得到更好的正版服务。我们非常重视版权问题,如有侵权请邮件与我们联系处理(2636484259@qq.com)。敬请谅解!