问题描述
我的问题
所以我最近在处理 robots.txt
文件时犯了一个很大的错误。我添加了一行以防止读取数据文件,目的是防止抓取博客数据 .txt
文件:
Disallow: *.txt$
回想起来,我应该先包含一个目录:
Disallow: /blog/posts/*.txt$
但是,由于我没有这样做,Google 现在无法抓取我的 robots.txt
文件。
我现在已经修复了该文件,但我无法让 Google Search Console 重新索引该文件,因为它仍然认为不允许这样做。
我的尝试
- 我尝试在 GSC 中提取
/robots.txt
文件并手动重新索引但没有骰子。它给我的唯一信息是“robots.txt 不允许” - 我尝试从站点中删除
robots.txt
文件,在 GSC 中手动重新索引,希望它能意识到它已经消失并重置或其他东西。仍然什么都没有,仍然说该操作“robots.txt 不允许” - 我也尝试过使用 robots.txt 测试工具,但因为它只适用于网址前缀属性,而且这是一个域属性 它不会出现在可供测试的站点列表中。如果有人知道我可以使用此工具的方法(或暂时将我的属性转换为 URL 前缀属性),那仍然是一个解决方案。
我的目标
我真的很想以某种方式在 GSC 的索引中重置我的 robots.txt
文件。任何和所有建议将不胜感激。
希望我足够清楚地描述了这个问题。如果您需要更多信息或上下文,请告诉我,我将非常乐意更新帖子。
谢谢!
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)