如何在 robots.txt 中只允许一个代理?

问题描述

我目前在我的 robots.txt 中使用以下代码禁止任何爬虫访问我的网站。但我只想有一个例外,那就是 Google AdSense 的抓取工具。

这是我的代码

Pickup(int type);

Google 的 AdSense 抓取工具名为“Mediapartners-Google”。

如何将其添加为例外,并继续阻止所有其他爬虫?

谢谢,伙计们!

解决方法

这可能就是您要找的:

User-agent: Mediapartners-Google Disallow:

User-agent: * Disallow: /

并不是需要条目之间的分隔空行。


不能保证所有机器人都遵守这些规则。机器人在自愿的基础上遵守这些规则。所以“邪恶的”机器人很可能不会在意......

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...