百度baiduspider是否支持User-agent:Slurp

问题:

百度baiduspider是否支持User-agent:Slurp?

例如:搜搜的设置。

User-agent: Sosospider

Crawl-delay: 5

抓取时间和频率限制

回答:

您好,这个问题已经得到百度官方人员,LEE的回答:

可以在robots中的crawl-delay中设置,这个参数是baidu spider对网站访问频率的重要参考信息之一,但spider系统会根据网站规模、质量、更新频度等多方面信息综合计算得出最终的执行压力,因此并不保证严格遵守crawl-delay中的设置值。

相关文章

网站流量短时间内的少量波动一般来说是正常现象。当流量波动...
持续输出原创优质内容,获得更多的用户点击与认可,会提高网...
百度信息流配置为用户的自然流量,即会根据用户属性和配置的...
百度搜索的索引量与流量有什么关系?百度搜索的索引量与流量...
随着手机移动端的快速崛起,慢慢的占领了大部分用户的访问入...
首先说下SSR,最近很热的词,意为ServerSideRendering(服务...