分析QQ空间robot文件上的小细节大文章

作者:Lgo100 来源:未知 2012-04-17 12:55:49 阅读 我要评论 直达商品

  相信巨匠对于QQ空间robot文件的印象都是勾留在其屏障了百度搜索,百度无法抓取QQ空间的内容。而比滥暌剐一篇文章《剖析QQ空间能否做百度关头词排名?》,文章说今朝QQ空间上的内容也可以被索引抓取,原因是腾讯QQ空间已经解除了对于搜素引擎的robot屏障,这篇文章改变了笔者对于QQ空间Robot文件的观点。笔者对此发生乐趣,于是对QQ空间的robot进行了不雅察看,发现了QQ空间robot设置的一些小细节,如下图所示。

  

 

  在上图我们确实可以看到今朝QQ空间已经解除了对于搜索引擎的屏障。今朝所有的搜索引擎蜘蛛都可以对QQ空间进行爬行抓取。而在Robot文件的最后一行笔者发现了一个小细节,笔者发现多写了一行:sitemao:http://XXX.xml。很较着这是一个地图文件。那么为什么QQ空间为什么要在最后一行写上站点的网站地图呢?要知道原因首先我们需要对robot文件进行进一步的体味。

  作为seoer我们都应该很清嚣张robots文件的浸染是奉告搜索引擎蜘蛛我们站点上什么页面是可以爬行什么页面是禁止进入的。当搜索引擎蜘蛛进入我们的站点,体味到这些信息后,它就可以按照信息把精神集中于我们许可爬行的页面,提高页面的爬行效率。而在这一过程中我们是否健忘了关头的一点,那就是搜索引擎进入我们的站点第一个接触到的文件是什么?没错就是robot文件。对此我们可以在这一点上在我们的robot上做文章来让搜索引擎蜘蛛加倍有用率的爬行我们的站点,晋升站点的爬行率。

  我们可以很确定的说QQ空间在robot文件的最后写上站点的地图文件就是为了晋升搜索引擎对于站点的爬行率。当搜索引擎蜘蛛进入QQ空间后,首先寻找robot文件,当在robot文件上就可以直接找到站点的地图文件。年夜催促进蜘蛛经由过程地图文件对我们的站点进行加倍深而广的爬行与索引。

  对于这个小细节笔者一向都是处于轻忽的状况,而作为QQ空寄这种年夜型的站点都放过这种小细节,我们的站点更需要注重,往往这些小细节可以缔造出年夜的文章。但愿本文对于巨匠有所辅佐。

  本文由巨型一号丝瓜水官网http://www.siguashui.cc/ 原创,转载请保留出处。


  推荐阅读

  浅谈SEOWHY的SEO模式:CMS+BBS+BLOG

seoWHY的创始人夫唯教员几乎无人不晓, seo这个关头词一向稳稳的排在百度前三名,夫唯教员也曾经谈过seoWHY的seo模式:CMS+BBS+BLOG。这一黄金搭配一向被众多网站模拟, 可是能超越seoWHY的放缦惬麟角,今天石头就带>>>详细阅读


本文标题:分析QQ空间robot文件上的小细节大文章

地址:http://www.lgo100.com/a/34/20120417/51654.html

顶一下

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
我的评论: 人参与评论
验证码: 匿名回答
网友评论(点击查看更多条评论)
友情提示: 登录后发表评论,可以直接从评论中的用户名进入您的个人空间,让更多网友认识您。
自媒体专栏

评论

热度