易于网站优化的robots.txt使用技巧

作者:网络邻人 来源: 2011-03-29 18:14:19 阅读 我要评论 直达商品

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。8U网络推广(http://tg.8u.cn)网站优化编辑刘联奇为我们总结分享了易于网站优化的robots.txt使用技巧,下面为大家列出在网站优化时robots.txt文件所起到的一些作用:

首先,在线建站提供方便之路。当我们将域名解析到服务器,可以访问站点了,可是这个时候站点还没有布局好,meta标签还一塌糊涂。如果此时的站点被搜索引擎蜘蛛抓取收录了,到时再更改就很不利于SEO优化。这时就可以利用robots.txt文件来设置所有搜索引擎蜘蛛不允许查询站点的所有内容。

其次,定制搜索引擎蜘蛛抓取指定内容,能让你根据站点情况来选择怎样和搜索引擎打交道。这里主要有两层意思。

1)定制搜索引擎。网站优化,首先最先应该做的便是定制搜索引擎,这里不再多讲。

2)定制站点内容。也就是说你可以指定某个目录允许spider爬行,某个目录禁止spide

爬行。如所有搜索引擎蜘蛛,允许抓取目录abc下的内容,禁止抓取目录def下的内容。

再次,引导搜索引擎抓取网站内容。这里最典型的做法有:

1)引导蜘蛛抓取你的网站地图。

2)防止蜘蛛抓取你的网站重复内容。

最后,404错误页面问题。如果你的服务器自定应了404错误页面而在你站点根目录没有配置robots.txt文件,那么搜索引擎蜘蛛会将其视为robots.txt文件,这将影响搜索引擎对你网站页面的收录。

 

    以上文章内容由中国8U网络推广部(http://tg.8u.cn)为您分享,转载请注明出处

 


  推荐阅读

  网络时代SEM运用于网站建设的价值体现

网络时代就要来了,网络时代已经来了,网络时代,你抓住了吗? 在这个网络无处无,无处不网络的时代里,似乎每个人都成了站长,每个人都拥有一个甚至多个网站,每个人都每天泡在搜索引擎上学习优化,研究营销。逐渐的>>>详细阅读


本文标题:易于网站优化的robots.txt使用技巧

地址:http://www.lgo100.com/a/xie/20110329/5587.html

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
我的评论: 人参与评论
验证码: 匿名回答
网友评论(点击查看更多条评论)
友情提示: 登录后发表评论,可以直接从评论中的用户名进入您的个人空间,让更多网友认识您。
自媒体专栏

评论

热度