问题描述
我正在使用 S3 sink 连接器和 kafka connect 并尝试将数据加载到 s3 。不知何故,我无法更新或增加主题分区的大小,也无法更改 offset.flush.timeout.ms 值。 我正在尝试将其添加到我正在使用的 S3 连接器 curl 文件中,但没有任何更新。
{
"name": "my-s3-sink3","config": {
"connector.class" : "io.confluent.connect.s3.S3SinkConnector","tasks.max" : "1","topics" : "mysource.topic","s3.region" : "us-east-1","s3.bucket.name" : "topicbucket001","s3.part.size" : "5242880","flush.size" : "1","key.converter" : "org.apache.kafka.connect.storage.StringConverter","value.converter" : "org.apache.kafka.connect.json.JsonConverter","value.converter.schemas.enable": "false","storage.class" : "io.confluent.connect.s3.storage.S3Storage","format.class" : "io.confluent.connect.s3.format.json.JsonFormat","partitioner.class" : "io.confluent.connect.storage.partitioner.DefaultPartitioner","schema.compatibility" : "NONE"
"offset.flush.timeout.ms" : 1000
"topic.creation.default.replication.factor": 3,"topic.creation.default.partitions": 10,"topic.creation.default.compression.type": "snappy"
}
}
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)