我的生产者是 apache Kafka,我们想监听一批事件来处理它们并将处理后的事件写入数据库。如果我使用流/批处理,每个事件都会对数据库进行一次查询。我不想将每个事件都作为一个查询。如何批量处理一些事件并将大量数据写入数据库?
注意:我们使用的是 DataStream API
不,Flink 没有官方的 Neo4j 接收器。如果您的目标是通过缓冲、批量事务更新来实现一次端到端,您可以先阅读 An Overview of End-to-End Exactly-Once Processing in Apache Flink,然后联系 flink 用户邮件列表以获取进一步指导。