为什么会在 robots.txt 文件中使用“Disallow: /*?s=”?

问题描述

我们从 Google 的 Search Console 收到通知,无法抓取我们的一篇博文。从 Google Search Console 检查 URL 时,它报告分页被我们的 robots.txt 文件中的以下内容阻止。

禁止:/*?s=

我还问为什么要使用“disallow: /*?s="?为什么要担心包含字母“s”的解析?如果我们删除它,有什么风险?非常感谢您提供任何可以共享的其他见解 - P

解决方法

此查询常用于基于 WordPress 的网站。 您的站点上可能有多种类型的内容,并且站点构建者希望允许通过另一种搜索方式仅搜索某些类型的内容。 例如,对于想要限制用户使用自定义搜索表单搜索产品的商店站点,这样他们就不会在站点的幕后徘徊,这是有道理的。 Google 的机器人有多种方法可以识别它是否是基于 WordPress 的网站,这可能就是它寻找路径尽头的原因。