我们在日常优化的过程当中经常会出现各种各样复页面的情况,出现这种情况的因素有很多,最主要的因素还是程序方面的事情。下面北京网站具体介绍一下,网站搜索引擎优化之如何处理网站中重复出现的链接。
301跳转重复链接
每个网站都难免会经历结构或者内容的调整。我在做网十互动的时候也经历了这样的事,因为当初建这个站的时候,不是很注意目录结构的优化,导致后来用户体检不好,对搜索引擎也不是很好。所以决定改,而这一改就就需要吧旧的url变成新的,但是同时要保证旧的url可以访问,如果处理不好搜索就会导致有2个或者更多的url指向同一个页面,虽然对用户来讲是感觉不出什么,但是对搜索引擎来说确实个不好的体验,所以这个时候我们需要做的是用301将就得url跳转到新的url,这样既兼顾了用户体验,也照顾了搜索引擎,同时还还能将就得url权重转移到新的url上。所以在进行网站改版的时候一点要注意301跳转的处理。
robots.txt屏蔽掉重复的链接
这类问题多半是由于程序本身的漏洞,或者由伪静态而造成的,比如我的网十互动论坛,用的是dz论坛程序,但是这个程序本身会有很多重复的url,所以如果处理不好那会造成很多的重复页面,我的处理方式,是先用吧url设置成伪静态的,然后用robots.txt 带有 “?”参数的页面,和以“.php“结尾的页面。当然这只能避免大部分重复,如果你想细化,还需要分析网站日志,看看还有那些重复的url,然后屏蔽掉。
link标签解决重复
很多时候我们的,一些内容页比如产品页,只是在型号或者在颜色上有一些区别,而本身所指的是一种商品的时候,这个时候就需要规范url,< link rel=“canonical“ href=“URL“ / > 不过这个标签只对google有效,而百度却不支持此标签,针对百度我们只能屏蔽掉这个url< meta name=“Baiduspider“ contect= “noindex“ > 。