跟随着网站的发展,网站改版成为满足业务需要和提升用户体验的必经之路,网站改版也总数是存在着诸多不可预测的因素,其中网站404页面总是困扰着每一个经历过网站改版的站长,404页面的产生要么因为网站URL地址的变更,要么是因为网站数据的删除和内容数据库分离,针对网站改版产生404页面笔者就来分享笔者自身网站改版处理的三个手段:
案例说明:笔者网站已是建站超过1年时间,被百度收录超过12000个页面的网站,网站首页主关键词排名百度第一页,谷歌未受影响,网站改版后因为处理得当并未导致网站关键词掉落和网站降权情况。
一:标准化URL:标准化URL是前提,更是关键
一个良好健康的网站,因为改版而产生错误URL地址是一件非常让人头疼的事;一个良好健康的网站百度的抓取时间和频率以及量一定会非常勤快,如果网站前端一旦有错误地址的出现非常短时间内会被收录,至此会影响到网站的收录和网站快照,甚至影响到关键词排名稳定。
网站大范围的改版时一定要将URL地址标准化做为前提条件,改版前地址无法访问再加上后期URL地址频常波动,那么你的站基本无药可就;网站地址URL标准化有利于网站错误地址批量重定向和错误地址的检查。这里笔者要提醒各位站长一定要注意内容页分页和频道页搜索地址,这些地址将是产生大量404错误的集中地。
二:301重定向:一种挽救,一种转移
网站改版从一个目录到另一个目录;从动态地址到伪静态地址;从目录层级3个缩短到2个等,这个时候301重定向就显得尤为重要,301重定向的方法笔者认为ISS重定向和程序性重定向二种,当然因为服务器端WEB服务器的不同而不同处理。
当网站改版而造成目录和URI地址的变化,这属于批量调整范围,这靠服务器301重定向无法解决,这个时间就需要网站程序员进行批量目录301重定向;如网站生成页面出现错误时一定要学会目录批量式ISS重定向。百度和谷歌目前根据笔者自身的设置情况看来,谷歌301重定向生效时间一般在3-7天,百度在15-30天。
三:robots屏蔽:一种规则,一种事后态度
使用网站robots进行指定地址的屏蔽,目的就在于禁止搜索抓取指定的目录地址,这对于网站动态地址较为适合,笔者目前的观察就是百度和谷歌完全支持,而除此之外的其他搜索不能优先支持robots。
robots撰写以Disallow为准,如果需要完全屏蔽网站动态地址时一定要按照Disallow:/*?*这样的格式进行录入,笔者提醒各位站长在使用robots文件时一定要使用谷歌站长工具中的robots测试工具进行测试。
网站改版一定不能避免部分地址的出错,预先的评估和操作方法要先掌握,即使网站出现了原网站地址与改版后网站地址不同的URL,上线后的网站一定不能出现大量404页面,否则网站降权和关键词排名下降不可避免。
本文出自,亿企邦首发,转载请注明来源,并保留来源的完整性,谢谢!