当前位置:首页 > SEO培训 > 正文内容

如何使用robots.txt阻止搜索引擎爬(抓取)你的网站?

admin4年前 (2022-07-29)SEO培训808

为了你的网站可以被别人搜寻到,搜寻引擎爬虫,有时也称为搜寻机器人(bots)或是搜寻蜘蛛(spiders),会爬取你的网站,搜寻有变动的内容并且重新更新搜寻引擎的搜寻检索。


如何用robts.txt 这个档桉去控制搜寻蜘蛛

网站站长可以使用robots.txt这个文件,来指导搜寻蜘蛛应该如何爬取这个网站,当搜寻引擎爬取网站时,会先读取robots.tx 文件,并且依照规则爬取网站。


※ robots.txt 规则虽然是重要的,但是搜寻机器人不一定会遵守 robot.txt 规则,它只是一个执行方针。

※ 以Google而言,要设定Crawl-delay,是必须在Google管理工具裡设定。

※ 对于浮滥爬取你的网站的劣质搜寻蜘蛛,应该研究如何凭藉.htaccess裡的User-agent去阻挡不好的搜寻蜘蛛。


编辑与创建robots.txt 文件

Robots.txt 文件是必须放在网站根目录里,如果你的网址是******.com 是可以读取到的。


网址位置:


http://******.com/robots.txt


伺服器位置:


/home/userna5/public_html/robots.txt


如果没有这个档桉的话,你可以使用纯文件档桉建立一个新的robots.txt文件。


搜寻引擎的使用者代理

以搜寻引擎蜘蛛的User-agent来说,使用robots.txt文件来控制,是最普通的规范方式。


当搜寻蜘蛛爬取网站时,他们会以使用者代理User-agent来识别、以下提供些参考范例


前三名美国最常发现的搜寻引擎使用者代理:

Googlebot

Yahoo! Slurp

bingbot


最常被阻挡的搜寻引擎使用者代理:

AhrefsBot

Baiduspider

Ezooms

MJ12bot

YandexBot


搜寻引擎蜘蛛是会以robots.txt文件规则来抓取网站

robots.txt 文件有许多的规则,可以控制搜寻蜘蛛如何爬取你得网站。


User-agent:可以具体指定哪一个User-agent是适用的,如*是万用搭配于全部的User-agent。


Disallow:设定档桉或是资料夹,不允许被搜寻蜘蛛爬取。


设定全部搜寻引擎延迟爬取

如果你的网站有1000页,搜寻蜘蛛可能在几分钟内检索全部的网站,然而这有可能导致系统资源使用过度,在短时间内让全部的网页超过负荷,导致网页无法浏览。


延迟30秒的时间,将允许搜寻蜘蛛在8.3小时内检索1000张网页。


延迟500秒的时间,将允许搜寻蜘蛛在5.8天内检索1000张网页。


你也可以设定Crawl-delay:所有的搜寻蜘蛛立即搜寻。


User-agent: *

Crawl-delay: 30


允许搜寻蜘蛛爬取全部网站

在预设空白情况下,搜寻引擎蜘蛛还是会爬取你的网站,不过你还是可以指定它是允许的。


User-agent: *

Disallow:


不允许搜寻蜘蛛爬取全部网站

User-agent: *

Disallow: /


不允许搜寻蜘蛛爬取特定一个网站

你可以运用这些规则,不允许特定的搜寻引擎蜘蛛爬取你的网站。


User-agent: Baiduspider

Disallow: /


不允许全部搜寻蜘蛛爬取特定的档桉

如果有些档桉如contactus.htm, index.htm, 或是store.htm我们不想要搜寻蜘蛛爬取,我可以使用:


User-agent: *

Disallow: /contactus.htm

Disallow: /index.htm

Disallow: /store.htm


除了指定的以外,不允许全部搜寻蜘蛛爬取

如果我们只想让Googlebot爬取我们的/private/目录,但是不允许其他搜寻蜘蛛爬取,我们可以这样使用:


User-agent: *

Disallow: /

User-agent: Googlebot

Disallow: /private/


当Googlebot读取我的robots.txt文件时,会去理解文件内容,不会禁止全部目录的爬取。

扫描二维码推送至手机访问。

版权声明:本文由老苏SEO转载并发布,如侵权可联系删除。

本文链接:https://laosuseo.com/?id=3696

标签: robots.txt
分享给朋友:

“ 如何使用robots.txt阻止搜索引擎爬(抓取)你的网站?” 的相关文章

如何从专业SEO的角度写网站标题

如何从专业SEO的角度写网站标题

在企业刚建立了企业网站后,网站的推广对网站尤为重要,网站推广要从优化中的D设置,毕竟网站的标题也是优先考虑的中心。使用标题优化关键字的技巧还有很多,如设计创意标题,高质量内容,关键字规划,描述链接,H标记等等,如果要优化标题关键字,先有一个优质内容和关键字规则等,但由于各大查找引擎都是经过网站的标题...

如何才能做好上海SEO优化?

如何才能做好上海SEO优化?

上海作为一线城市,很多行业的待遇都比其他城市要高不少,上海SEO也就拥有更多的市场空间。对于企业来说,想要在上海这个城市立足,就需要做好SEO搜索引擎优化,只有这样才能更好的为企业的经营服务,让更多的潜在客户,通过互联网了解到企业,从而让企业获得更多的利益。在上海要想做好SEO优化,主要有两个途径,...

有必要参加SEO培训吗?自学可以吗?

有必要参加SEO培训吗?自学可以吗?

SEO人员在职场上总会碰上一些难解的问题,很多人也不懂得自己学习SEO该往哪些方向发展。每个SEO人员都希望能够通过SEO这个技术让自己的收入越来越高,人生道路能越走越宽,那么到底应该怎样做,其中又有哪些需要注意的,本篇将用一问一答的形式,讲解一些SEO人在职场常见的问题。1、做SEO一定要有利他之...

seo网站推广怎么做?

seo网站推广怎么做?

原标题:seo网站推广怎么做?做好SEO网站优化推广需要从网站定位、网站结构、挖掘需求词和内容生产4个方面入手,接下来迅步就来详细介绍这4个方面的内容。seo网站推广——网站定位网站定位的重要性不言而喻了,一个网站有好的定位,后期我们的内容产出才不会出现大的问题,如果我们定位模糊甚至网站核心业务都搞...

怎么区分网络营销、网络推广和SEO

怎么区分网络营销、网络推广和SEO

1、SEO:Search Engine Optimization 的缩写,中文简称为搜索引擎优化。准确来说通过提高搜索引擎友好度,满足用户体验,对网站进行综合优化使其提高用户访问质量,最终在搜索引擎中获得自然排名的一种方式。2、网络推广:利用互联网互通性,网络上的平台为个人或者企业进行产品宣传推广活...

SEO香港主机对网站有影响么

SEO香港主机对网站有影响么

香港虚拟主机如此受网站管理员欢迎的最重要原因之一是它们免于备案,当然,香港虚拟主机也具有访问速度快、稳定性好的特点,最近小编发现大部分新手站长都有这样的疑惑,那就是使用香港虚拟主机对网站的seo有影响吗?其实做SEO优化的朋友都知道,影响网站优化排名的因素有很多,其中,网站的内容对SEO的影响比较大...