当前位置:首页 > SEO培训 > 正文内容

网站更改为https后,数据统计不到了

admin3年前 (2022-07-29)SEO培训445

https协议对比http协议而言,针对于我们的网站来说会更加的安全。从而很多搜索引擎也鼓励网站采用https协议,还能提升网站的权重。

曾经在环球网校的时候,我们的运维人员申请了https,但并没有在网站上加入https的入口。但不幸的是已经被百度爬虫大量的抓取了且收录了,https的网页。结果是曾经排名在首页5名以下的网页,都跑到前5名来了,大部分都在第一位。

网站更改为https后,数据统计不到了

虽然这个结果是好的,但是毕竟很多http切换https的操作都没有改。于是先抓紧找运维的人员帮忙解除https。运维才发现针对https的端口开放了所以导致了这样的一个结果。

后来又因为种种原因,导致https并没有正常的修改完成并上线。但我操作过一些客户,以及我自己的这个SEO博客都是启用了https。但这中间会遇到一个问题。

网站从http协议更换为https后,数据来源统计不到了。

我开始找寻并解决这个问题,后来发现问题处在一个meta标签上。如下:

<meta content="always" name="referrer"/>

referer metadata标签,是我们在某些情况下,希望控制发送给服务器的referrer信息时使用的。他的几个参数如下:

  • 如果referer-policy的值为never:删除http head中的referer;

  • 如果referer-policy的值为default:如果当前页面使用的是https协议,而正要加载资源使用的是普通的http协议,则将http header中额referer置为空;

  • 如果referer-policy的值origin:只发送origin部分;

  • 如果referer-policy的值为always:不改变http header中的referer的值;

实际上会有很多的http协议的网站点击链接到我们的网站,例如外链部分。如果不使用这个标签的话。默认http协议站点过来的referrer信息就会为空。这样就会导致很多的来源被统计工具计为直接访问。

所以我们在全网站的head部分,添加这行代码,就能安全的解决这个问题。

扫描二维码推送至手机访问。

版权声明:本文由老苏SEO转载并发布,如侵权可联系删除。

本文链接:https://laosuseo.com/?id=3899

分享给朋友:

“网站更改为https后,数据统计不到了” 的相关文章

seo系统培训包括哪些核心内容?

seo系统培训包括哪些核心内容?

seo学起来容易做起来难,很多人把seo培训想的简单,很多人说seo就是做内容,发外链,说法没有问题,问题是有几个人能把大家都知道的理论活学活用,做出好的排名?就像赚钱一样,大家都知道努力赚钱,可又有多少人大量盈利呢? 何所谓seo系统培训?就是从影响seo的点点滴滴学起,把所有对...

天津seo培训厉害吗?牛逼的培训讲师都在哪里?

天津seo培训厉害吗?牛逼的培训讲师都在哪里?

天津培训厉害吗,其实遇到这样的话题,我一般认为很可笑,实际上,网站优化培训是不区分地域关系的,但实际上在国内氛围不错的前提下,很多地区的培训做的非常好,比如四川、深圳、湖南等各个地方,今天小步就来跟大家聊一聊,哪个地区的seo培训最厉害? 要说到网站优化培训,哪里厉害,其...

seo网络推广怎么做xoo

seo网络推广怎么做xoo

原标题:seo网络推广怎么做对于seo网络推广,相信很多人都不陌生。但是,要想做好seo网络推广,还是需要付出一定的努力的。下面,小编就来分享一些seo网络推广的方法。首先,要想做好seo网络推广,需要有一个好的网站。如果你的网站内容不好,是不会有人愿意来访问的。所以,在做seo网络推广之前,一定要...

seo培训需要多钱

seo培训需要多钱

1.seo培训需要多钱·因素 ①网站SEO优化的范围非常的广泛,不同的板块,不同的内容,不同程度的优化,其价格都是不同的,想要具体知道优化的价格,需要根据网站实际的情况来定,正常情况下都是在3000以上。 ②每个行业,每个企业的网站SEO优化的价格都是不同的,想要了解网站S...

seo培训机构哪家好?

seo培训机构哪家好?

seo作为一个十几年前就兴起的技术,哪怕到了现在水库依然很推崇去学习seo优化,因为一旦掌握了seo优化的技术,不管你在互联网上做任何的项目或者是产品,都可以轻松的赚到钱,甚至不影响你正常上班,完全可以当成是一个副业项目来做,原因是你可以很轻松的获取海量的精准流量。 由于seo这个...

Robots.txt是什么意思,有什么作用

Robots.txt是什么意思,有什么作用

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问的部分或者指定搜索引擎蜘蛛只收录...