如何在AWS Cloudfront中更新/替换robots.txt文件

问题描述

我有一个网站www.example.com。因此,当我访问www.example.com/robots.txt之类的robots.txt文件时,它会显示SEO团队创建/准备的多行文字

因此,有一个子域assets.example.com指向CloudFront。当我通过https://assets.example.com/robtos.txt之类的CloudFront URL访问robots.txt文件时,它将在浏览器中显示以下结果。

User-agent: *
disallow: / 

因此,有一个请求来更新AWS CloudFront中的robots.txt文件内容,因此https://assets.example.com/robtos.txthttps://www.example.com/robtos.txt应该显示相同的文本。我没有发现robots.txt放置在云端。

是否可以在Cloudfront中更新robots.txt? CloudFront在这里有什么作用?还是我们需要更新asset.example.com的robots.txt,使其与example.com的配置相同?

请帮帮我。我在这里很困惑。

解决方法

您可以指向CloudFront发行版(assets.example.com),然后添加具有域名www.example.com的新来源,然后添加具有路径模式robots.txt的新缓存行为并添加来源

此设置将请求发送到assets.example.com/robots.txt,并将其转发到www.example.com/robots.txt。这样,您可以删除重复项。

,

您可以通过选项无效使缓存无效。

您可以执行以下操作:

  1. 直接将构建文件夹部署到S3存储桶。
  2. 不需要缓存robots.txt文件
  3. 无论何时将构建部署或上载到S3,请执行以下步骤
  4. 转到云端
  5. 使对象无效
  6. 创建条目/ *