返回到文章

采纳

编辑于 2年前

kafka-producer-perf-test.sh 进行大消息(6M) 的压测时,报 errors.RecordTooLargeException

kafka

运用自带压测脚本如下:

bin/kafka-producer-perf-test.sh --topic large-message --record-size 6291456 --num-records 100 --throughput -1 --producer-props bootstrap.servers=15.101.52.138:9092

报告以下错误:

org.apache.kafka.common.errors.RecordTooLargeException: The message is 6291544 bytes when serialized which is larger than 1048576, which is the value of the max.request.size configuration.

已经尝试配置以下脚本:

生产者配置:

max.request.size=12582912

服务端配置:

message.max.bytes=12695150
replica.fetch.max.bytes=20485760

请问以上配置是否有误呢,另外还尝试配置过消费者配置,重启kafka,执行以上命令仍然报告以上错误,麻烦大佬看看,谢谢