如果超过特定的字节数,是否可以丢弃聚合Kafka流?

问题描述

我的目标是在超过一定数量的字节(序列化json)时将聚合设置为null。有什么方法还是保留时间是最终删除聚合的唯一方法?

解决方法

总的来说,这是可能的,但可能会很昂贵。

如果您的Aggregator返回null,则相应的结果行将被删除。因此,每次调用Aggregator时,都可以在自己的代码中序列化结果以检查其大小,如果太大,则返回null,否则返回新结果。不过,额外的序列化步骤可能会很昂贵。

相关问答

错误1:Request method ‘DELETE‘ not supported 错误还原:...
错误1:启动docker镜像时报错:Error response from daemon:...
错误1:private field ‘xxx‘ is never assigned 按Alt...
报错如下,通过源不能下载,最后警告pip需升级版本 Requirem...