在之前的论坛分享中已经跟大家说明了robots的一些常用写法,详情可参考:《关于robots.txt的二三事》 但是,最近通过论坛和邮箱,我们仍然收到了多个因为robots写错,导致收录下降的问题反馈! 一些站长仍然会在robots中写入类似这样四种语法: user-agent: * disallow: /*#* 或者 user-agent: * disallow: /# 或者 user-agent: * disallow: /#* 或者 user-agent: * disallow: /*# 注意,由于360搜索使用的robots规则,会按照通用的流程,将#作为注释符 即:/# 等同于 / ,结尾的通配符会被忽略。 因此,各位站长朋友务必不要在robots中写入上面的几种robots语法。 如对网站robots设置存在疑问的,可以参考我们的帮助文档:http://www.so.com/help/help_3_2.html,或通过邮箱:[email protected]进行咨询。(转载文章:360社区) |