问题描述
我正在尝试在我的网站上捕获没有大量流量的事件流数据——可能在 50-200 DAU 左右——但如果有必要,我希望能够处理更多.
由于没有大量流量,我认为 Kinesis 之类的东西可能有点矫枉过正。我的站点目前使用 API Gateway + Lambda 来处理一些服务器端逻辑,我想在每个 Lambda 处理程序函数中,我可以将事件数据推送到 SQS,然后安排一个 Lambda 函数定期从 SQS 中提取一批数据,对其进行分组一起存储在 S3 中。
我的方法是否有效/合理?您会建议改用 Kinesis、RabbitMQ 或 Kafka 之类的东西吗?或者您会采取其他方法吗?
感谢您的帮助!
解决方法
任何类型的流数据都是为 Kinesis 量身定制的。如果您最终在某个时候获得了更多流量,现在通过使用 Kinesis,您就可以进行扩展了。
我想找出您可以获得和使用的 Kinesis 分片的最低成本。
定价
Shard Hour (1MB/second ingress,2MB/second egress) $0.015
PUT Payload Units,per 1,000,000 units $0.014
每小时一分钱和 100 万次看跌期权可能满足您现有的需求。