警惕垃圾蜘蛛影响网站SEO收录排名
最近给一个企业网站诊断SEO问题,看了没什么问题,前端优化的不错,代码结构也规范,标签运用也可以,但是网站就是不收录,做不了SEO,后来就看了他的网站日志和性能截图,发现好家伙,垃圾蜘蛛大部分情况在恰好的时段和搜索引擎蜘蛛在同时抓取页面,我跟对方说了这个问题后,对方听不懂,那就细说。
服务器配置和宽带不足以支撑大量蜘蛛来访。
国内大部分企业网站的服务器配置1H-2H核心和1G-4G内存,宽带2M左右,如果用上CDN缓存还是可以支撑欠人快速访问的,但是如果大量蜘蛛来访爬取就会出现异常和缓慢,垃圾蜘蛛跟搜索引擎蜘蛛碰撞在一起同时抓取就会极大的消耗服务器性能速度,造成搜索引擎蜘蛛无法准确快速的抓取页面,这点可以用性能图示和蜘蛛来访时间通过经验去判断。
网站程序支撑不了蜘蛛频繁访问读取。
垃圾蜘蛛有很多种,有些包含正规公司的,全球有十几家,比如SEO营销服务网站平台的,只要对网站没有SEO优化作用的蜘蛛是可以都视为垃圾蜘蛛,这些没有价值的垃圾蜘蛛会每天频繁的抓取网站页面,导致程序间断性和时段性承受不了高频率的访问读取,尤其是一些动态程度比较高的网站,结果就会导致搜索引擎蜘蛛比较难以在每次抓取都是快速成功。
宽带高峰期不够蜘蛛爬取。
很多人测试网站的宽带速度和访问速度只会在本地单人和几个人简单测试一下,但是大多数情况都是低峰期和低负载的状态,这是完全不符合真实的网络场景,而搜索引擎的蜘蛛会不定时随机性来访爬取页面,这个时候如果垃圾蜘蛛处于高频次抓取中就会导致网站宽带达到极限,无法提供给搜索引擎蜘蛛高速访问。
垃圾蜘蛛为了利益最大化,会比较频繁的来访抓取。
很多商业蜘蛛,比如MJ12bot、SemrushBot、MegaIndex这些SEO营销服务的蜘蛛会为了满足自己及时获取全网页面的数据信息,会频繁抓取总汇,因为他们要马上提供给会员查询外链、友链、竞争分析、关键字等等,全球所有的商业蜘蛛加起来多达十个以上,这对于一个低配低宽带的网站来说是很大的消耗。
SEO私馆结束语:不是说无名蜘蛛才是垃圾,只要对网站没有SEO价值的蜘蛛都可以算是垃圾,而且要注意国外那些商业蜘蛛,及时禁止来访抓取,可以用UA和robots屏蔽。
网站禁止垃圾蜘蛛访问抓取教程说明
“警惕垃圾蜘蛛影响网站SEO收录排名” 的相关文章
作为一个网站搜索引擎优化者,你必须了解一些网站代码,这是网站优化的基本要素之一。那seo网站优化中有哪些html标签需要优化?seo网站优化中有哪些html标签需要优化?一、h标签h标签和搜索引擎的关系很友好,能告诉我搜索引擎这个页面的主题。 适当地在页面上添加h标签有助于优化SEO。但是,需要注意...
我们在运营网站时都希望自己的网站内容能被快速抓取收录,但是搜索引擎对网站内容和网页抓取收录是一个复杂的过程,简单来说,收录过程可以分为:抓取、过滤、建立索引和输出结果。尤其是现在随着搜索引擎的不断升级,比如说百度搜索引擎细雨算法横空出世,对网站收录抓取一定会有影响。那么,搜索引擎进行网站内容的抓取时...
原标题:SEO优化中description标签有什么用处,使用有何技巧?SEO优化中description标签有什么用处?网站优化过程中,TDK标签设置是一个很基础和很重要的工作,TDK标签包括title(标题)、keywords(关键词)、description(描述)这三个标签,今天我们主要来聊...
这是第42篇原创文章,分享一下我们在做SEO的时候应该怎么选择域名,希望对大家有所帮助。如果你想了解SEO优化技巧和方法,关于域名的选择你还是需要知道的,如果你已经是SEOer,应该也是清楚的,域名的选择对SEO优化是有一定帮助的,那么我们就来了解一下域名选择需要考虑的几点问题。1、关于域名后缀一般...
很多站长在使用DedeCMS搭建网站的时候,都希望能够在文章内容页底部调用几篇与本篇文章相关的文章,这样不但可以去除DEDECMS默认模版原有的生硬,增加美观度,而且对SEO优化和提升网站PV也有很大的帮助,织梦文章内容页默认模板缺少相关文章,对用户及搜索引擎查找及判断文章主题不利,那么,如何实现在...
搜索引擎优化(Search Engine Optimization,简称SEO)是一种利用搜索引擎的搜索规则来提高目的网站在有关搜索引擎内的排名的方式。深刻理解是:通过SEO这样一套基于搜索引擎的营销思路,为网站提供生态式的自我营销解决方案,让网站在行业内占据领先地位,从而获得品牌收益。研究发现,搜...