搜索引擎对web2.0垃圾信息清理

作者:Lgo100 来源:未知 2012-05-07 16:12:32 阅读 我要评论 直达商品

  搜索引擎开始对web2.0站点进行垃圾信息清理,最近百度站长出台《web2.0反垃圾攻略》为了遏制web2.0类站点垃圾信息、群发信息以及seo 外链等垃圾信息泛滥的一种局面,web2.0反垃圾机制已经在搜索引擎排名优化中逐步成型并主张网站运营者参与到反垃圾攻略中。

  首先谈谈web2.0站点优势:信息组织来自用户,用户之间可以交互,形成了一种资源共享的开发平台,web2.0站点劣势:降低了用户参与网络信息发布和交流技术门槛,用户可以随意创造自己感兴趣的内容,而搜索引擎无法判断是否有价值。

  web2.0发布垃圾会产生垃圾信息根本:

  1、对用户开放,无论是目前博客、论坛、b2b、分类信息、微博、SNS都是容许用户注册进行交流、发布和创造内容,或则说web2.0站点信息是用户自发组织形成的,其开放性导致了大量外部信息的涌入,这本身不需要过多的程序和网站制作基础,对于信息建设的大众化和用户开放性成为了web2.0信息泛滥的源头。

  2、社交性、社会性是web2.0信息产生的重要因素,web2.0是基于用户创造内容的,是依赖大众智慧而产生的信息模式,从信息的发布根本来说是从用户角度而言的,如果用户创造大量无价值内容和链接也是形式垃圾信息的源头,信息通过不同用户,不同方式形成了信息的聚集,而这样的信息搜索引擎无法判断是否是真正有价值的信息。

  搜索引擎以开始清理垃圾外链,针对目前web2.0站点,百度搜索引擎观察:

  1、大量网站内容收录减少,其中采集和复制网站网站收录呈现不稳定状态,采集和复制网站内容可能面对搜索引擎对站点的二次审核。

  2、网站外链呈现时高时低趋势,搜索引擎可能针对一些不相关站点链接进行低质量垃圾链接判断,而这种判断可能直接导致网站外链丢失率过高或者降权现象。

  深圳seo目前针对百度搜索引擎的《web2.0反垃圾策略》了解到百度对于内容和外链呈现两种趋势

  1、内容权威性网站更容易获得搜索引擎信任和排名

  2、相关性外链作用越来越强,大量相关性站点导入链接对提升网站关键字排名。相关性差的外链质量会在百度相关域中去除,或者不相关链接不参与排名计算。

  3、在第2点基础上如果网站缺乏域名多元化,而且锚文本缺乏多样性在外链波动情况下,可能导致关键字排名不稳定,更有可能被搜索引擎降权。

  本文由深圳seo网站优化原创,转载请注明深圳seo优化http://www.seoere.com/seo-share/1358.html


  推荐阅读

  SEO关键词竞争难度判断思路

关键字竞争难度判断是SEO人员必须要掌握的技巧。如果没有办法判断需要排名的关键字的难易程度。就无从估计这个关键字的价值和需要花费的人力物力。从而无法进行SEO工作。今天在SEMKEY和大家谈下SEO关键字竞争难度的一>>>详细阅读


本文标题:搜索引擎对web2.0垃圾信息清理

地址:http://www.lgo100.com/a/34/20120507/57841.html

顶一下

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
我的评论: 人参与评论
验证码: 匿名回答
网友评论(点击查看更多条评论)
友情提示: 登录后发表评论,可以直接从评论中的用户名进入您的个人空间,让更多网友认识您。
自媒体专栏

评论

热度