我有我的域,我托管一个类似于bitit的链接缩短器。当有人进行短链接时,他们可以在网址末尾添加一个〜s,并可以访问该网址的统计信息。
示例:
https://example.com/123~s
https://example.com/abc~s
最后没有〜s的方式与其他任何URL缩短器一样。我想知道我是否以某种方式拒绝所有搜索引擎将任何以urls结尾的页面编入robots.txt中的〜索引吗?
https://example.com/123应该被允许,但https://example.com/123~s
robots.txt似乎支持通配符:
robots.txt
User-Agent: * Disallow: /*~s