相信巨匠对于QQ空间robot文件的印象都是勾留在其屏障了百度搜索,百度无法抓取QQ空间的内容。而比滥暌剐一篇文章《剖析QQ空间能否做百度关头词排名?》,文章说今朝QQ空间上的内容也可以被索引抓取,原因是腾讯QQ空间已经解除了对于搜素引擎的robot屏障,这篇文章改变了笔者对于QQ空间Robot文件的观点。笔者对此发生乐趣,于是对QQ空间的robot进行了不雅察看,发现了QQ空间robot设置的一些小细节,如下图所示。

在上图我们确实可以看到今朝QQ空间已经解除了对于搜索引擎的屏障。今朝所有的搜索引擎蜘蛛都可以对QQ空间进行爬行抓取。而在Robot文件的最后一行笔者发现了一个小细节,笔者发现多写了一行:sitemao:http://XXX.xml。很较着这是一个地图文件。那么为什么QQ空间为什么要在最后一行写上站点的网站地图呢?要知道原因首先我们需要对robot文件进行进一步的体味。
作为seoer我们都应该很清嚣张robots文件的浸染是奉告搜索引擎蜘蛛我们站点上什么页面是可以爬行什么页面是禁止进入的。当搜索引擎蜘蛛进入我们的站点,体味到这些信息后,它就可以按照信息把精神集中于我们许可爬行的页面,提高页面的爬行效率。而在这一过程中我们是否健忘了关头的一点,那就是搜索引擎进入我们的站点第一个接触到的文件是什么?没错就是robot文件。对此我们可以在这一点上在我们的robot上做文章来让搜索引擎蜘蛛加倍有用率的爬行我们的站点,晋升站点的爬行率。
我们可以很确定的说QQ空间在robot文件的最后写上站点的地图文件就是为了晋升搜索引擎对于站点的爬行率。当搜索引擎蜘蛛进入QQ空间后,首先寻找robot文件,当在robot文件上就可以直接找到站点的地图文件。年夜催促进蜘蛛经由过程地图文件对我们的站点进行加倍深而广的爬行与索引。
对于这个小细节笔者一向都是处于轻忽的状况,而作为QQ空寄这种年夜型的站点都放过这种小细节,我们的站点更需要注重,往往这些小细节可以缔造出年夜的文章。但愿本文对于巨匠有所辅佐。
本文由巨型一号丝瓜水官网http://www.siguashui.cc/ 原创,转载请保留出处。

网友点评
精彩导读
科技快报
品牌展示