kafka存储数据量过大,致使磁盘爆满

问题:html 注意到本身负责kafka的某个topic最小的偏移量为0,而最大的偏移量都7亿多了,说明存储在kafka里面的数据没有定时删除,经过登录到kafka服务器,查看配置文件services.properties,发现log.retention.hours=876000(100年),我猜测配置kafka的人是怕数据丢失,直接保存了全部的数据。服务器 方法:post 我这边修改成log.r
相关文章
相关标签/搜索