当前位置:首页 > SEO培训 > 正文内容

如何使用robots.txt阻止搜索引擎爬(抓取)你的网站?

admin3年前 (2022-07-29)SEO培训528

为了你的网站可以被别人搜寻到,搜寻引擎爬虫,有时也称为搜寻机器人(bots)或是搜寻蜘蛛(spiders),会爬取你的网站,搜寻有变动的内容并且重新更新搜寻引擎的搜寻检索。


如何用robts.txt 这个档桉去控制搜寻蜘蛛

网站站长可以使用robots.txt这个文件,来指导搜寻蜘蛛应该如何爬取这个网站,当搜寻引擎爬取网站时,会先读取robots.tx 文件,并且依照规则爬取网站。


※ robots.txt 规则虽然是重要的,但是搜寻机器人不一定会遵守 robot.txt 规则,它只是一个执行方针。

※ 以Google而言,要设定Crawl-delay,是必须在Google管理工具裡设定。

※ 对于浮滥爬取你的网站的劣质搜寻蜘蛛,应该研究如何凭藉.htaccess裡的User-agent去阻挡不好的搜寻蜘蛛。


编辑与创建robots.txt 文件

Robots.txt 文件是必须放在网站根目录里,如果你的网址是******.com 是可以读取到的。


网址位置:


http://******.com/robots.txt


伺服器位置:


/home/userna5/public_html/robots.txt


如果没有这个档桉的话,你可以使用纯文件档桉建立一个新的robots.txt文件。


搜寻引擎的使用者代理

以搜寻引擎蜘蛛的User-agent来说,使用robots.txt文件来控制,是最普通的规范方式。


当搜寻蜘蛛爬取网站时,他们会以使用者代理User-agent来识别、以下提供些参考范例


前三名美国最常发现的搜寻引擎使用者代理:

Googlebot

Yahoo! Slurp

bingbot


最常被阻挡的搜寻引擎使用者代理:

AhrefsBot

Baiduspider

Ezooms

MJ12bot

YandexBot


搜寻引擎蜘蛛是会以robots.txt文件规则来抓取网站

robots.txt 文件有许多的规则,可以控制搜寻蜘蛛如何爬取你得网站。


User-agent:可以具体指定哪一个User-agent是适用的,如*是万用搭配于全部的User-agent。


Disallow:设定档桉或是资料夹,不允许被搜寻蜘蛛爬取。


设定全部搜寻引擎延迟爬取

如果你的网站有1000页,搜寻蜘蛛可能在几分钟内检索全部的网站,然而这有可能导致系统资源使用过度,在短时间内让全部的网页超过负荷,导致网页无法浏览。


延迟30秒的时间,将允许搜寻蜘蛛在8.3小时内检索1000张网页。


延迟500秒的时间,将允许搜寻蜘蛛在5.8天内检索1000张网页。


你也可以设定Crawl-delay:所有的搜寻蜘蛛立即搜寻。


User-agent: *

Crawl-delay: 30


允许搜寻蜘蛛爬取全部网站

在预设空白情况下,搜寻引擎蜘蛛还是会爬取你的网站,不过你还是可以指定它是允许的。


User-agent: *

Disallow:


不允许搜寻蜘蛛爬取全部网站

User-agent: *

Disallow: /


不允许搜寻蜘蛛爬取特定一个网站

你可以运用这些规则,不允许特定的搜寻引擎蜘蛛爬取你的网站。


User-agent: Baiduspider

Disallow: /


不允许全部搜寻蜘蛛爬取特定的档桉

如果有些档桉如contactus.htm, index.htm, 或是store.htm我们不想要搜寻蜘蛛爬取,我可以使用:


User-agent: *

Disallow: /contactus.htm

Disallow: /index.htm

Disallow: /store.htm


除了指定的以外,不允许全部搜寻蜘蛛爬取

如果我们只想让Googlebot爬取我们的/private/目录,但是不允许其他搜寻蜘蛛爬取,我们可以这样使用:


User-agent: *

Disallow: /

User-agent: Googlebot

Disallow: /private/


当Googlebot读取我的robots.txt文件时,会去理解文件内容,不会禁止全部目录的爬取。

扫描二维码推送至手机访问。

版权声明:本文由老苏SEO转载并发布,如侵权可联系删除。

本文链接:https://laosuseo.com/?id=3696

标签: robots.txt
分享给朋友:

“ 如何使用robots.txt阻止搜索引擎爬(抓取)你的网站?” 的相关文章

小白学习SEO的方法

小白学习SEO的方法

怎么学习SEO,学习SEO的方法有很多种!不管是小白还是我们的经验丰富的站长,都需要不断学习,学习SEO的目的取决于我们想要达成的目标,如果我们只是出于爱好,简单的SEO只是配上SEO内容管理软件就可以完全够用。如果我们将SEO作为一项工作或有更好的兴趣深入了解,我们就要有一个SEO学习的方法。学习...

seo系统培训包括哪些核心内容?

seo系统培训包括哪些核心内容?

seo学起来容易做起来难,很多人把seo培训想的简单,很多人说seo就是做内容,发外链,说法没有问题,问题是有几个人能把大家都知道的理论活学活用,做出好的排名?就像赚钱一样,大家都知道努力赚钱,可又有多少人大量盈利呢? 何所谓seo系统培训?就是从影响seo的点点滴滴学起,把所有对...

seo优化培训公司到底是如何优化客户网站的?

seo优化培训公司到底是如何优化客户网站的?

优化培训公司到底是如何优化客户网站的,大家好,我是迅xun步bu,今天给大家讲一讲, s eo优化培训公司的那些事。 我有一个朋友是做设计公司的,某一天他喊我过去给他看一下网站,我发现他的网站流量很低,并且效果不是很好,但是他说他不会做推广,后来我才发现,他是找了一家外包公司,那家...

「南京seo」seo推广和seo优化的区别在哪里xooooo

「南京seo」seo推广和seo优化的区别在哪里xooooo

今天南京千矩seo在这里和大家一起来说说seo推广和seo优化的区别在哪里?SEO与网络推广的区别:从概念上来说,网络推广就是企业从开始申请域名、租用空间、网站备-案、建立网站、直到网站正式上线开始就算是介入了网络推广活动,而通常我们所指的网络推广是指通过互联网的种种手段,进行的宣传推广等活动,确切...

网站推广SEO工具-网站推广引流SEO优化工具免费

网站推广SEO工具-网站推广引流SEO优化工具免费

原标题:网站推广SEO工具-网站推广引流SEO优化工具免费 网站推广软件,什么是网站推广软件,网站推广软件有什么用?大家都知道网站SEO优化的作用,网站只要有了排名之后就会有源源不断的流量,今天给大家分享一款免费网站自动SEO优化推广的软件:全自动SEO优化,只需简单配置三步,软件...

 Google谷歌企鹅算法

Google谷歌企鹅算法

什麽是「企鹅算法」?Google企鹅初始发佈日期:2012年4月24日紧随「熊猫演算法」之后,Google的「企鹅演算法」是一项新的努力,主要是在奖励高质量的网站,并减少搜寻引擎结果页面(SERP)涉及操纵连结和关键字填充存在的网站。「企鹅演算法」首次推出影响了3.1%的英搜寻引擎查询结果,在201...