B2B商务网

微信扫一扫

微信小程序
天下好货一手掌握

扫一扫关注

扫一扫微信关注
天下好货一手掌握

如何避免网站page的页面被重复抓取

   2023-03-23 IP属地 广东佛山建站助手250
核心提示:如何避免网站page的页面被重复抓取:观察分析网站的日志,发现网站page的页面被蜘蛛重复抓取很多,这样子对网站的优化并不是很好。那么我们要如何避免网站页面被蜘蛛重复的抓取呢?一、通过robots文件来把这个页面来屏蔽掉,具体做法语法格式:Disallow: /page/ #限制抓取Wordpress分页如查你的网站有需要也可以把下面的语句一并写上,避免出现过多的重复
如何避免网站page的页面被重复抓取:

观察分析网站的日志,发现网站page的页面被蜘蛛重复抓取很多,这样子对网站的优化并不是很好。那么我们要如何避免网站页面被蜘蛛重复的抓取呢?

一、通过robots文件来把这个页面来屏蔽掉,具体做法语法格式:

Disallow: /page/ #限制抓取Wordpress分页如查你的网站有需要也可以把下面的语句一并写上,避免出现过多的重复页面。 * Disallow: /categorytrackback/ #限制抓取Trackback内容 * Disallow:/category/* #限制抓取所有分类列表 什么是蜘蛛,也叫爬虫,其实是一段程序。这个程序的功能是,沿着你的网站的URL一层层的读取一些信息,做简单处理后,然后返馈给后台服务器进行集中处理。我们必需了解蜘蛛的喜好,对网站优化才能做到更好。接下来我们谈谈蜘蛛的工作过程。

二、蜘蛛遇到动态页面

蜘蛛在处理动态网页信息是面临的难题。动态网页,是指由程序自动生成的页面。现在互联网发达程序开发脚本语言越来越多,自然开发出来的动态网页类型也越来越多,如jsp、asp、php等等一些语言。蜘蛛很难处理这些脚本语言生成的网页。优化人员在优化的时候,总是强调尽量不要采用JS代码,蜘蛛要完善处理这些语言,需要有自己的脚本程序。在进行网站优化,减少一些不必要的脚本代码,以便蜘蛛爬行抓取,少导致page页面的重复抓取!

三、蜘蛛的时间

网站的内容经常变化的,不是更新就是改模板。蜘蛛也是不断地更新和抓取网页的内容,蜘蛛的开发者会为爬虫设定一个更新周期,让其按照指定的时间去扫描网站,查看对比出哪些页面是需要进行更新工作的,诸如:主页的标题是否有更改,哪些页面是网站新增页面,哪些页面是已经过期失效的死链接等等。一个功能强太的搜索引擎的更新周期是不断优化的,因为搜索引擎的更新周期对搜索引擎搜索的查全率有很大影响。不过如果更新周期过长,便会使搜索引擎的搜索精确性和完整性降低,会有一些新生成的网页搜索不到;若更新周期太过于短,则技术实现难度加大,而且会对带宽、服务器的资源造成浪费。

四、蜘蛛不重复抓取策略

网站的网页数量非常大,蜘蛛进行抓取是一个很大的工程,网页的抓取需要费非常多线路带宽、硬件资源、时间资源等等。如果经常对同一个网页重复抓取不但会大大的降低了系统的效率,还造成精确度不高等问题。通常的搜索引擎系统都设计了不重复进行网页抓取的策略,这是为了保证在一定时间段内只对同一个网页进行一次抓取。

关于如何避免网站page的页面被重复抓取就介绍到这里,文章由环球贸易网编辑。

 
举报收藏 0打赏 0评论 0
免责声明
• 
本文源自建站助手发布的内容,本站会员编辑发布。
本网站对站内所有资讯的内容、观点保持中立,不对内容的准确性、可靠性或完整性提供任何明示或暗示的保证。
本网站部分内容来源于合作媒体、企业机构、网友提供和互联网的公开资料,版权归原作者所有,如有侵权等问题,请及时联系我们,我们将在收到通知后第一时间妥善处理该部分内容。info@1688b2b.com。

转载请注明原文出处: http://www.1688b2b.com/news/show-13067.html

 
更多>同类资讯文章
推荐图文
推荐资讯文章
点击排行
信息二维码

手机扫一扫

快速投稿

你可能不是行业专家,但你一定有独特的观点和视角,赶紧和业内人士分享吧!

我要投稿

投稿须知

【行业知识,产业动态、产品指南、产品应用等原创性内容优先审核发布。】
1、提交粗糙的广告软文或者对用户无任何帮助、无价值的文章将无法被通过审核。
2、发布内容时请选择合适的栏目归档。
3、严禁类同内容重复发布及标题堆砌关键字。
4、文章内容须与标题有一定相关性。
5、排版精美工整用户才愿意去看
6、以上不合规一律不予审核直接删除
7、审核时间一般24小时内,优质文章优先审核