打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Robots文件在网站优化中的使用

robots是什么?robots是一个协议,而不是一个命令。robots是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。

robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。在robots中有三个指令,分别是User-agent、Allow、Disallow,User-agent指的是对搜索引擎的限制,Allow指允许搜索引擎的访问,Disallow指的是禁止搜索引擎的访问。如:

User-agent:googlebot

Allow:/

Disallow:/test/

表示允许谷歌蜘蛛访问除test文件夹以外的所有文件

在写robots的时候,要注意书写规范:如首字母的大写,英文冒号,冒号后面的空格等,这些我们都要遵守,以保证我们robots文件的有效性。

常用的搜索引擎类型有:

google蜘蛛:Googlebot

百度蜘蛛:Baiduspider

yahoo蜘蛛:Yahoo!slurp

alexa蜘蛛:ia_archiver

bing蜘蛛:MSNbot

Soso蜘蛛:Sosospider

有道蜘蛛:YoudaoBot


本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
网站优化robots.txt文件的写法
SEO优化_robots设置详细解读
搜索引擎统一:Robots文件标准 ? Wopus中文博客平台 - Wordpress
robots写法大全,教你巧妙运用robots文件
SEO优化之网站收录:利用robots.txt 禁止不想被收
wordpress网站的robots.txt文件写法详解
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服