什么是robots.txt文件? 搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
robots.txt文件放在哪里? robots.txt文件应该放置在网站根目录下。举例来说,当spider访问一个网站(比如 http://www.abc.com)时,首先会检查该网站中是否存在http://www.abc.com/robots.txt这个文件,如果 Spider找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。网站 URL相应的 robots.txt的 URLhttp://www.w3.org/http://www.w3.org/robots.txthttp://www.w3.org:80/http://www.w3.org:80/robots.txthttp://www.w3.org:1234/http://www.w3.org:1234/robots.txthttp://w3.org/http://w3.org/robots.txt
我在robots.txt中设置了禁止百度收录我网站的内容,为何还出现在百度搜索结果中? 如果其他网站链接了您robots.txt文件中设置的禁止收录的网页,那么这些网页仍然可能会出现在百度的搜索结果中,但您的网页上的内容不会被抓取、建入索引和显示,百度搜索结果中展示的仅是其他网站对您相关网页的描述。
禁止搜索引擎跟踪网页的链接,而只对网页建索引如果您不想搜索引擎追踪此网页上的链接,且不传递链接的权重,请将此元标记置入网页的 <HEAD> 部分:<meta name="robots" content="nofollow"> 如果您不想百度追踪某一条特定链接,百度还支持更精确的控制,请将此标记直接写在某条链接上: <a href="signin.php" rel="nofollow">sign in</a> 要允许其他搜索引擎跟踪,但仅防止百度跟踪您网页的链接,请将此元标记置入网页的 <HEAD> 部分:<meta name="Baiduspider" content="nofollow">
禁止搜索引擎在搜索结果中显示网页快照,而只对网页建索引要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的 <HEAD> 部分:<meta name="robots" content="noarchive">要允许其他搜索引擎显示快照,但仅防止百度显示,请使用以下标记:<meta name="Baiduspider" content="noarchive">注:此标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。
我想禁止百度图片搜索收录某些图片,该如何设置? 禁止Baiduspider抓取网站上所有图片、禁止或允许Baiduspider抓取网站上的某种特定格式的图片文件可以通过设置robots实现,请参考“robots.txt文件用法举例”中的例10、11、12。
robots.txt文件的格式 "robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:"<field>:<optionalspace><value><optionalspace>"。在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:User-agent: 该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。Disallow: 该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问 /help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。Allow: 该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。使用"*"和"$": Baiduspider支持使用通配符"*"和"$"来模糊匹配url。 "$" 匹配行结束符。 "*" 匹配0或多个任意字符。
URL匹配举例 Allow或Disallow的值URL匹配结果/tmp/tmpyes/tmp/tmp.htmlyes/tmp/tmp/a.htmlyes/tmp//tmpno/tmp//tmphohono/tmp//tmp/a.htmlyes/Hello*/Hello.htmlyes/He*lo/Hello,loloyes/Heap*lo/Hello,lolonohtml$/tmpa.htmlyes/a.html$/a.htmlyeshtm$/a.htmlno
robots.txt文件用法举例 例1. 禁止所有搜索引擎访问网站的任何部分 下载该robots.txt文件User-agent: * Disallow: /例2. 允许所有的robot访问(或者也可以建一个空文件 "/robots.txt")User-agent: *Disallow: 或者User-agent: *Allow: / 例3. 仅禁止Baiduspider访问您的网站User-agent: BaiduspiderDisallow: /例4. 仅允许Baiduspider访问您的网站User-agent: BaiduspiderDisallow: User-agent: *Disallow: /例5. 禁止spider访问特定目录 在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。User-agent: *Disallow: /cgi-bin/Disallow: /tmp/Disallow: /~joe/例6. 允许访问特定目录中的部分urlUser-agent: *Allow: /cgi-bin/seeAllow: /tmp/hiAllow: /~joe/lookDisallow: /cgi-bin/Disallow: /tmp/Disallow: /~joe/例7. 使用"*"限制访问url 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。User-agent: *Disallow: /cgi-bin/*.htm例8. 使用"$"限制访问url 仅允许访问以".htm"为后缀的URL。User-agent: *Allow: .htm$Disallow: /例9. 禁止访问网站中所有的动态页面User-agent: *Disallow: /*?*例10. 禁止Baiduspider抓取网站上所有图片 仅允许抓取网页,禁止抓取任何图片。User-agent: BaiduspiderDisallow: /*.jpg$Disallow: /*.jpeg$Disallow: /*.gif$Disallow: /*.png$Disallow: /*.bmp$例11. 仅允许Baiduspider抓取网页和.gif格式图片 允许抓取网页和gif格式图片,不允许抓取其他格式图片User-agent: BaiduspiderAllow: /*.gif$Disallow: /*.jpg$Disallow: /*.jpeg$ Disallow: /*.png$Disallow: /*.bmp$例12. 仅禁止Baiduspider抓取.jpg格式图片User-agent: BaiduspiderDisallow: /*.jpg$
robots.txt文件参考资料 robots.txt文件的更具体设置,请参看以下链接:· Web Server Administrator's Guide to the Robots Exclusion Protocol · HTML Author's Guide to the Robots Exclusion Protocol · The original 1994 protocol description, as currently deployed· The revised Internet-Draft specification, which is not yet completed or implemented
以上文档摘自《百度帮助中心》http://www.baidu.com/search/robots.html
95分类目录
95分类目录是一个精心打造的全人工编辑开放式网站分类目录,致力于收录国内外各行业的优秀网站。我们的目标是为用户提供一个高效、可靠的网站检索工具,帮助用户轻松找到值得信赖和参考的优质资源,同时为企业和个人提供专业的网站推广服务。
同城网
哈尊网为您提供招聘,临时工,应聘,二手,租房,二手房,房屋出租,二手车,黄页,,家政,宠物,顺丰车,物流,房产,加盟,b2b,五金,财务,电商,公司注册,托运,交友,,商家,店铺出售,采购,批发,超市,团购,商超,广告,品牌,工商财税,企业服务,分类信息网,哈尊网,哈尊分类信息,哈尊招聘网,一站式分类信息平台,找信息,发布信息,上哈尊网更便捷可靠。
分类目录网
360分类目录网(www.n360.cn)收录国内外、各行业优秀网站,分类整理和分享收藏好网站信息,让用户方便快捷找网站,提供便利的网址导航及分类目录检索、网站推广,网友可搜索国内外网站以及购物、团购、设计、视频、电影、军事、学习、交友、新闻等分类网站信息。
洋葱图床
洋葱图床Tor是一款轻量级的在线图床工具,提供快速、安全的图片存储和分享服务。支持直链分享,无损画质,大容量存储,让你轻松管理图片,享受便捷的上传和下载体验。
分类目录网站
分类目录网站是一个开放式优质网站分类目录网址大全库,致力于收录国内外各行业的优秀网站。我们的目标是为用户提供一个高效、可靠的网站检索工具,帮助用户轻松找到值得信赖和参考的优质资源,同时为企业和个人提供专业的网站推广服务。
问小白
问小白让你更有料, AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型,支持联网搜索。
EDM邮件营销
营销梦,邮件群发,EDM,EDM营销,邮件营销,EDM邮件营销,营销自动化,电子邮件营销,电子邮件群发
上海云盾CDN
上海云盾信息技术有限公司(YUNDUN),是专注于提供新一代安全产品和服务的创新创业企业。以纵深安全加速,护航数字业务的产品服务理念,替身和隐身的攻防思想,运用大数据、AI、零信任技术架构和健壮的全球网络资源,一站式解决数字业务的应用漏洞、黑客渗透、爬虫Bot、DDoS等安全威胁,满足合规要求,提高用户体验。
百度WAF云防护
Web应用防火墙(Web Application Firewall),简称WAF。
微盾云
微盾云网站简介微盾云是一家提供虚拟主机、域名注册、主机租用、服务器托管及网站建设服务的专业平台。它采用先进的虚拟化技术,提供高性能、稳定可靠的服务器资源,适合各类网站需求。在微盾云,您可以轻松注册域名,选择合适的虚拟主机或双线虚拟主机,满足不同业务需求。服务范围广泛,包括网站空间、主机托管、ASP空间等,为您提供一站式的网站解决方案。
易客酷
易客酷(yikeku.com)专注分销系统类软件开发,提供微信分销商城系统、微商分销软件、小程序分销商城、多级分销系统、微商城系统、微信分销系统等系统软件推广服务。易客酷系统推广,获客更容易,数万商家的选择。
分类目录站
分类目录站是一个汇集了各类优秀网站的分类目录大全。通过分类目录网,您可以方便快捷地找到各种领域的优质网站资源,为您带来便捷的网站导航体验。
蜂吧
蜂吧,作为专注于网盘公开资源搜索的专业平台,致力于为用户打造一个便捷、高效、安全的资源获取通道。我们深知在信息爆炸的时代,用户对于各类资源的需求日益增长,而网盘作为重要的资源存储和分享载体,其中蕴含着海量的公开资源。我们的使命就是通过先进的搜索技术,精准挖掘这些资源,让用户能够快速找到所需,节省时间和精力,提升数字生活的质量。
网站自动推送
基于Thinkphp+layui开发,提供24小时搜索引擎自动推送服务,无需挂机,无需人工干预,一行代码即可享受推送服务!
迪威目录
迪威目录全人工编辑免费收录优秀正规网站,为各大搜索引擎提供索引参考,为站长提供分类目录网站登录提交入口,做优质的网址大全和网址齐全的导航网站。
LINUX DO
Linux DO是一个面向科技爱好者、开发者及AI技术从业者的中文技术社区。自2024年成立以来,我们致力于打造高质量、开放、互助的技术交流平台,涵盖Linux系统、软件开发、人工智能等多个领域。在这里,您可以获取最新的技术资讯、分享经验、学习成长并与同行交流互动。
导航收录网
导航收录网——专业网站导航平台,免费收录合法内容、更新及时的网站。通过人工审核后,站点将按行业分类展示,帮助用户快速发现优质资源。
生活妙招网
生活妙招网为公益性质的个人网站,主要服务于所有热爱生活的朋友们。网站里的内容都是从互联网上搜集或从报刊杂志上摘录下来的。关注生活问题,提高生活质量!有了妙招,生活更美好!
合川人才网
合优人才网是合川本地专业招聘网站。合优人才网招聘立足合川本地,筛选大量优质合川招聘信息,帮助求职者快速找工作,为合川招聘企业提供便捷的招聘渠道!让企业招聘人才更高效!
4414站长论坛
4414是一个专注交流的站长社区,每天有众多站长参与交流和交易,交易包括链接交易、网站交易、广告交易、域名交易、IDC交易、现金任务等,4414 — 只属于站长的圈子。
网站领地
全人工编辑的开放式网站分类目录,收录国内外、各行业优秀网站,旨在为用户提供网站分类目录检索、优秀网站参考、网站推广服务。