如何使用 Google Search Console 强制重新索引错误的 robots.txt 页面?

问题描述

我的问题

所以我最近在处理 robots.txt 文件时犯了一个很大的错误。我添加了一行以防止读取数据文件,目的是防止抓取博客数据 .txt 文件:

Disallow: *.txt$

回想起来,我应该先包含一个目录:

Disallow: /blog/posts/*.txt$

但是,由于我没有这样做,Google 现在无法抓取我的 robots.txt 文件。

我现在已经修复了该文件,但我无法让 Google Search Console 重新索引该文件,因为它仍然认为不允许这样做。

我的尝试

  • 我尝试在 GSC 中提取 /robots.txt 文件并手动重新索引但没有骰子。它给我的唯一信息是“robots.txt 不允许
  • 我尝试从站点中删除 robots.txt 文件,在 GSC 中手动重新索引,希望它能意识到它已经消失并重置或其他东西。仍然什么都没有,仍然说该操作“robots.txt 不允许
  • 我也尝试过使用 robots.txt 测试工具,但因为它只适用于网址前缀属性,而且这是一个域属性 它不会出现在可供测试的站点列表中。如果有人知道我可以使用此工具的方法(或暂时将我的属性转换为 URL 前缀属性),那仍然是一个解决方案。

我的目标

我真的很想以某种方式在 GSC 的索引中重置我的 robots.txt 文件。任何和所有建议将不胜感激。

希望我足够清楚地描述了这个问题。如果您需要更多信息或上下文,请告诉我,我将非常乐意更新帖子。

谢谢!

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)